Mites i realitats de la intel·ligència artificial
Impactes de la intel.ligència artificial
- Dossier
- jul. 23
- 10 mins
Les intel·ligències artificials desenvolupades fins ara són específiques per a tasques molt concretes, però no tenen capacitat per entendre què fan ni poden interactuar amb l’entorn o generar certs tipus de coneixement, com és el sentit comú humà, fruit de les experiències viscudes. Mentre especulem si la IA substituirà la intel•ligència humana, ens distraiem dels veritables problemes: qui controla les seves aplicacions i per a què les fan servir.
Arthur Clarke, als anys seixanta, va dir: “Qualsevol tecnologia prou sofisticada és indistingible de la màgia”. La intel·ligència artificial (IA) n’és un clar exemple. Sembla que no hi hagi límits en les seves capacitats, però, en realitat, la IA roman encallada des de fa més de cinquanta anys en una de les qüestions més fonamentals: com dotar les màquines de coneixements de sentit comú.
Els coneixements de sentit comú són fruit de les nostres vivències i experiències. Hi ha milions de coneixements de sentit comú que les persones fem servir contínuament i que ens permeten entendre el món en què vivim. Malgrat que alguns afirmen que el sentit comú ja està “emergint” en els grans models de llenguatge recents de la IA generativa, de fet és impossible assegurar-ho, ja que la complexitat i opacitat d’aquests models fa pràcticament impossible analitzar com funcionen internament. Només sabem que aprenen patrons lingüístics per tal de predir quina és la següent paraula en un text. Segons la meva opinió, no crec que aquesta tècnica permeti dotar de sentit comú la IA per molt que escalem la complexitat (en termes de nombre de paràmetres) d’aquests models de llenguatge. El problema de dotar de sentit comú les màquines és massa complicat per creure que es pot resoldre a partir de calcular quina és la següent paraula més probable. De fet, l’Agència de Projectes de Recerca Avançats de Defensa (DARPA), la institució que més inverteix en programes de recerca als Estats Units, a finals del 2018, va endegar un programa plurianual de llarg termini que finança, amb milers de milions de dòlars, projectes de recerca sobre com dotar les màquines de coneixements de sentit comú.
Els sistemes actuals basats en aprenentatge profund no són capaços de diferenciar entre causes i efectes, com ara que la sortida del sol és la causa del cant del gall i no a l’inrevés.
Una línia de recerca molt interessant per dotar les màquines de coneixements per entendre el món és la que té com a objectiu la modelització matemàtica i l’aprenentatge de relacions causa-efecte. Els sistemes actuals basats en aprenentatge profund simplement poden aprendre funcions matemàtiques simètriques, en particular correlacions, però no poden aprendre relacions asimètriques i, per tant, no són capaços de diferenciar entre causes i efectes, com ara que la sortida del sol és la causa del cant del gall i no a l’inrevés.
Situació real de la IA
Quina és, doncs, la situació real de la IA? La realitat és que tenim intel·ligències artificials específiques, en el sentit que cadascuna sap fer bé una única tasca, tot i no entendre realment res del que fan. Focalitzem-nos en una tècnica d’IA, coneguda com a aprenentatge profund, que, durant els darrers deu anys, ha aconseguit uns resultats espectaculars d’acord amb la seva extraordinària capacitat per detectar patrons estadístics analitzant grans quantitats de dades. Segons aquesta tècnica, hi ha un programari anomenat AlphaFold[1] que és capaç de predir l’estructura 3D de les proteïnes, és a dir, com es plega una proteïna a l’espai tridimensional. Resoldre el problema del plegament de proteïnes és important per descobrir i dissenyar nous fàrmacs, perquè la funció de les proteïnes depèn de la seva estructura tridimensional. Un altre exemple molt recent d’èxit de l’aprenentatge profund, que combina xarxes neuronals i aprenentatge per reforç, és la ja esmentada IA generativa, que permet processar llenguatge natural i també música, imatges o vídeos a partir d’una descripció inicial. Malgrat la seva aparent intel·ligència, aquests sistemes són molt limitats. De fet, no aprenen res en el sentit humà que entenem per aprendre, ja que, contràriament a nosaltres, no aprenen de manera incremental, no poden relacionar el que aprenen novament amb el que havien après anteriorment i gairebé no tenen capacitat de generalitzar ni de raonar.
L’excessiu antropomorfisme és el motiu principal que fa que la societat tingui una percepció errònia de l’estat real de la intel·ligència artificial.
Quin és, doncs, el motiu pel qual molts creuen que la IA està a punt d’igualar la intel·ligència humana i, a partir d’aquesta premissa, fan prediccions sobre hipotètiques intel·ligències artificials superiors a la intel·ligència humana? Al meu entendre, l’excessiu antropomorfisme és el motiu principal que fa que la societat tingui una percepció errònia de l’estat real de la intel·ligència artificial. Quan ens informen d’èxits espectaculars d’una IA que resol una tasca molt concreta, tendim a generalitzar i li atribuïm la capacitat de fer pràcticament qualsevol cosa que fem els éssers humans i, fins i tot, de fer-la molt millor. En realitat, el que tenen els actuals sistemes d’IA no és intel·ligència sinó “habilitats sense comprensió” en el sentit que apunta Daniel Dennett en el seu llibre From Bacteria to Bach and Back: The Evolution of Minds[2]. És a dir, sistemes que poden arribar a ser molt hàbils duent a terme tasques específiques, com reconèixer un seguit d’elements en una imatge o generar text, però sense comprendre absolutament res sobre la naturalesa d’aquests elements ni de les propietats i relacions entre ells.
El problema és que els sistemes actuals d’IA no tenen accés als referents del món real que donen contingut a les paraules perquè, en ser intel·ligències artificials no corpòries, no poden interactuar amb el món. Aquesta incapacitat per entendre realment el món impossibilita que grans models de llenguatge com GPT-4 entenguin el significat dels textos que generen. De fet, als dissenyadors d’aquests sistemes l’absència de referents del món real no els importa. Només els importa el poder retòric, enganyant els oients i els lectors fent-los creure que entenen el llenguatge com els humans, encara que generin multitud de falsedats.
L’any 2021, les investigadores Timnit Gebru i Margaret Mitchell, aleshores colíders de l’equip d’ètica de Google, ja van advertir del risc que les persones imputéssim intenció comunicativa i comprensió del llenguatge a artefactes que semblen humans[3]. Irònicament, a causa d’haver fet públic aquest important aspecte ètic, Google les va acomiadar. Emily M. Bender, experta en lingüística computacional, encertadament afirma que crear tecnologia que imiti els humans fent-se passar per quelcom d’humà requereix que tinguem molt clar què vol dir ser humà, ja que, en cas contrari, correm el risc de deshumanitzar-nos.
Altres, com Daniel Dennett, són encara més contundents. Dennett afirma que no podem viure en un món amb counterfeit people (‘persones falsificades’), ja que una societat amb persones falses que no podem diferenciar de les reals deixaria de ser una societat. Ens recorda que fabricar diners falsificats és un acte delictiu i afirma que falsificar persones és tant o més greu. A més, a les persones artificials no se’ls poden demanar responsabilitats, i això les converteix en actors amorals, amb una gran capacitat de generar multitud de falsedats, és a dir, amb la capacitat de desinformar. Els responsables són els creadors d’aquestes tecnologies, afegeix Dennett. Si no comencem a regular-les, la democràcia es pot veure aviat aclaparada per la desinformació i la consegüent polarització. Estan en joc l’estabilitat i la seguretat de la societat.
Cap a intel·ligències artificials més generals
Les tasques més complicades de dur a terme són aquelles que requereixen interaccionar amb entorns dinàmics, incerts, imprevisibles i no restringits. Dissenyar sistemes que tinguin aquestes capacitats requereix integrar desenvolupaments de moltes àrees de la IA. En particular, necessitem llenguatges de representació de coneixements que codifiquin informació sobre molts tipus diferents d’objectes, situacions, accions…, així com sobre les seves propietats i les relacions entre ells, en particular relacions causa-efecte, per tal que les intel·ligències artificials entenguin el món. També necessitem nous algoritmes que, a partir d’aquestes representacions, puguin, de manera robusta i eficient, resoldre problemes sobre pràcticament qualsevol tema.
Finalment, atès que necessitaran adquirir un nombre pràcticament il·limitat de coneixements, aquests sistemes hauran de ser capaços d’aprendre de manera contínua al llarg de tota la seva existència. En definitiva, és imprescindible que les arquitectures cognitives incorporin de manera adequada percepció, representació, raonament, acció i aprenentatge. Aquest és un problema molt important, ja que encara no sabem com integrar tots aquests components de la intel·ligència. Resoldre aquesta qüestió és un pas previ cap a intel·ligències artificials generals.
Reflexions finals
La intel·ligència humana és el referent principal de cara a assolir l’objectiu últim de la IA general, però, per molt sofisticada que arribi a ser aquesta futura IA, sempre serà diferent de la humana. El motiu és que el desenvolupament mental que requereix tota intel·ligència complexa depèn de les interaccions amb l’entorn, i aquestes depenen alhora del cos, en particular dels sistemes perceptiu i motor. Es tracta de sistemes que no existeixen en el cas de les intel·ligències artificials no corpòries i que són molt diferents dels nostres en el cas de les intel·ligències artificials corpòries.
El perill de la IA no és la suposada singularitat tecnològica conseqüència de futures hipotètiques superintel·ligències artificials. Possiblement, els discursos apocalíptics sobre els perills a llarg termini s’han posat sobre la taula de manera interessada, per tal de distreure’ns dels veritables problemes actuals que presenta. És a dir, la privadesa, la manipulació, la vigilància i el control massiu de la ciutadania, l’autonomia dels sistemes (en particular, les armes autònomes), la confiança excessiva sobre les capacitats de la IA, el biaix dels algorismes, la impossibilitat de retre comptes justificant les seves decisions, i l’excessiu poder d’unes quantes grans empreses tecnològiques.
Necessitem futurs ciutadans més i millor informats, amb més capacitat per avaluar els riscos tecnològics, amb molt més sentit crític i capaços de fer valer els seus drets.
En general, com més sofisticats siguin els sistemes d’IA, més responsabilitat hauríem d’exigir als seus dissenyadors i programadors, per assegurar que compleixin principis legals i ètics. Les intel·ligències artificials no tenen, ni tindran mai, intencionalitat; són el reflex de les intencions i els biaixos dels equips de programadors i entitats implicats en la seva implementació i el seu desplegament. Els agents morals som nosaltres i no pas les màquines. És per això que molts experts assenyalem la necessitat de regular-ne el desenvolupament i, fins i tot, prohibir-ne l’ús en casos de risc extrem, com ara les armes letals. Però, a més de regular, és imprescindible educar els ciutadans, en particular els polítics, sobre els beneficis i riscos de les tecnologies intel·ligents. Necessitem futurs ciutadans més i millor informats, amb més capacitat per avaluar els riscos tecnològics, amb molt més sentit crític i capaços de fer valer els seus drets. Aquest procés de formació ha de començar a l’escola i tenir continuïtat a la universitat. En particular, cal que els estudiants de ciència i enginyeria rebin una formació ètica que els permeti comprendre millor les implicacions socials de les tecnologies que desenvoluparan. Només si invertim en educació aconseguirem una societat que pugui aprofitar els avantatges de les tecnologies intel·ligents minimitzant-ne els riscos. Així, la intel·ligència artificial servirà per fer un gran pas en el progrés de la humanitat.
[1] Jumper, J., Evans, R., Pritzel, A. et al. “Highly accurate protein structure prediction with AlphaFold”. Nature, 596, 583-589. 2021. http://ow.ly/XiVW50OnOjm
[2] Dennet, D. C. From Bacteria to Bach and Back: The Evolution of Minds. Penguin Books, 2017.
[3] Bender, E. M., Gebru, T., McMillan-Major, A. i Shmitchell, S. “On the Danger of Stochastic Parrots: Can Language Models Be Too Big?”. ACM Conference on Fairness, Accountability, and Transparency, 610-623. 2021.
Llibres
- Inteligencia artificial Ramon López de Mántaras Badia i Pedro Meseguer González. Col·lecció “¿Qué sabemos de?”, Los Libros de la Catarata, 2017
El butlletí
Subscriu-te al nostre butlletí per estar informat de les novetats de Barcelona Metròpolis