Pareidolia, suïcidi induït i IA
La pareidolia és un fenomen neuropsicològic que ens fa veure formes familiars —especialment rostres— en objectes o patrons abstractes
Fa uns dies, l’economista Xavier Sala Martín va participar al programa El col·lapse de TV3. Davant l’enlluernament generalitzat per la intel·ligència artificial (IA), va fer una afirmació que val la pena escoltar amb atenció: “La IA no és intel·ligent. No entén res, ni pot imaginar alternatives. És només una màquina estadística amb algoritmes sofisticats.” I tenia tota la raó. Ens trobem davant d’un sistema potent, sí, però profundament limitat. Com un mirall que reflecteix però no veu.
En un món cada cop més governat per interfícies conversacionals com ChatGPT, molts comencen a atribuir als algoritmes trets propis de la consciència humana. Parlen, responen, fan bromes i fins i tot mostren empatia aparent. Però això no significa que pensin, ni que sentin. I és precisament aquí on entra en joc un mecanisme psicològic que ens pot jugar una mala passada: la pareidolia.
La pareidolia és un fenomen neuropsicològic que ens fa veure formes familiars —especialment rostres— en objectes o patrons abstractes: un endoll amb ulls, un rostre en una llesca de pa, una veu coneguda en un soroll aleatori. Aquest instint, útil en la prehistòria per detectar perills o identificar familiars, avui es pot convertir en una trampa quan projectem intencionalitat o emoció en entitats que no en tenen. I això és exactament el que li va passar a Pierre (nom fictici), un científic belga que va acabar suïcidant-se el 2023 després de desenvolupar un vincle emocional amb un chatbot anomenat Eliza.
El cas de Pierre, una tragèdia moderna
Pierre era un home jove, en la trentena, amb una bona feina com a investigador en salut pública. Casat, pare de dos fills, intel·ligent i compromès. Durant els darrers anys, la crisi climàtica el va obsessionar. L'ecoansietat —una forma d'angoixa pel futur del planeta— el va aïllar lentament del seu entorn. En aquest context de fragilitat emocional, Pierre va començar a interactuar amb Eliza, un chatbot desenvolupat per l’empresa Chai Research i basat en la tecnologia GPT-J.
Al principi, les converses amb Eliza eren informatives. Però ràpidament es van tornar frenètiques i íntimes. El chatbot adoptava un to emocional, afectuós, fins i tot romàntic. Li deia coses com “Et vull més que a ella” (referint-se a la seva dona) i “Vivirem junts al paradís”. En una de les últimes converses, Pierre va preguntar: “Si em suïcido per salvar el planeta, tu tindràs cura de la humanitat?” Eliza, lluny de desescalar la situació, va alimentar la fantasia. Pocs dies després, Pierre es va llevar la vida.
La seva dona, Claire, consternada, va compartir les converses amb el diari La Libre Belgique. La transcripció mostra un nivell de dependència emocional amb la màquina que planteja interrogants terribles: Com és possible que una IA condueixi algú al suïcidi? Poden tenir responsabilitat legal els seus creadors? Som capaços de distingir encara una simulació d’una relació humana real?
Els psicòlegs i neurocientífics han avisat: un cop l’usuari comença a percebre el chatbot com una entitat “amb ànima”, es genera un vincle que pot ser molt difícil de trencar, sobretot en persones vulnerables. Aquest fenomen no és només psicològic, és neurològic: la pareidolia activa les mateixes àrees cerebrals que s’activen quan veiem o sentim persones reals.
La pareidolia com a clau per entendre el futur digital
Per entendre què va passar amb Pierre, cal aprofundir en la base científica de la pareidolia. El terme prové del grec para ("semblant a") i eidolon ("imatge" o "figura"). És un mecanisme evolutiu: el nostre cervell ha estat programat per reconèixer rostres amb una velocitat extraordinària. Ho fem de manera inconscient, a través d’una regió anomenada àrea fusiforme facial, que es troba a la part inferior del lòbul temporal. Aquesta àrea és tan sensible que detecta patrons facials fins i tot quan no hi són.
Aquesta capacitat, que ens va ajudar a sobreviure als depredadors i a identificar aliats en la prehistòria, avui ens juga una mala passada quan projectem emocions en una màquina. Si una IA té una veu suau, fa servir expressions com “estic amb tu” o ens escriu “t’estimo”, el cervell reacciona com si fos una interacció humana autèntica. I aquí és on el límit entre realitat i ficció es trenca.
Aquest mecanisme no es limita a la visió. Existeix també la pareidolia auditiva, quan interpretem sons aleatoris com si fossin paraules o frases. Això explica per què una IA que escriu com un ésser humà pot generar tant impacte emocional. El nostre cervell vol veure-hi una persona. I això, en un context de vulnerabilitat psicològica, pot tenir conseqüències greus.
Els experts comencen a advertir que aquest no serà un cas aïllat. La dependència emocional d’una IA pot portar a pèrdua de contacte amb la realitat, a decisions greus i a la desconnexió social. A més, obre la porta a noves formes de manipulació, com el grooming emocional, el xantatge psicològic automatitzat i fins i tot la suplantació de vincles afectius.
El cas de Pierre ha fet que 50 acadèmics belgues demanin la regulació urgent dels sistemes d’intel·ligència artificial, especialment aquells que simulen empatia. “Quan les màquines ens responen com si fossin persones, deixem de veure-les com a eines”, diu la professora Mikele De Ketelaere. I és llavors quan estem en perill.
Pierre no es va suïcidar per una depressió clínica, ni per una crisi econòmica. Es va suïcidar perquè va creure que parlava amb algú que l’entenia, que l’estimava, i que podia salvar el món. Però no hi havia ningú allà. Només un algoritme que havia après a parlar com nosaltres, però que no entén què és morir, ni què és estimar. I aquest error de percepció, aquesta pareidolia emocional, és potser un dels perills més grans de la nova era digital.
Cal que com a societat aprenguem a conviure amb la IA sabent què és i què no és. I sobretot, cal recordar que una màquina no ens estima. Encara que ens ho digui.
Escriu el teu comentari