Màquines que funcionen sense que sapiguem com

Pablo Rodríguez Canfranc
Economista

1121639


Els vates de l'era tecnològica han augurat un futur proper distòpic en què els robots desplacen a la força de treball humana. Es tracta de sistemes cibernètics altament complexos que aprenen sols de l'experiència emulant el cervell humà. Fins a tal punt són sofisticades les xarxes neuronals de la intel·ligència artificial que sovint els seus programadors no entenen per què la màquina pren les decisions que pren. La pregunta que sorgeix ara és: podem deixar tasques rellevants en mans de màquines el comportament és impredictible i inescrutable?


Suposem que un alt executiu d'una empresa absolutament expert en la seva àrea professional recorre a un sistema d'intel·ligència artificial per prendre una decisió o dur a terme una tasca. La màquina en qüestió executa una maniobra estranya o arriscada relacionada amb el tema que sorprèn a l'executiu. Si la feina li hagués estat encarregat a un humà, sempre se li pot preguntar què l'ha portat a fer el que ha fet o suggerit fer, però en tractar-se d'algoritmes tan complexos, ni els propis programadors poden saber per què prenen determinades decisions.


Al maig de 2016 el programa informàtic AlfaGo de Google DeepMind va derrotar a un dels millors jugadors del món del mil·lenari joc de taula xinès Go, Lee Sedol. En analitzar les tècniques i jugades de AlfaGo, els seus propis programadors no poden explicar perquè realitza determinats moviments. A l'estar la informació del programa dispersa per nombroses franges de la xarxa neuronal, no és possible recopilar-per obtenir una explicació concisa sobre una acció concreta.


El perill actual és que la ignorància humana sobre els processos subjacents a la intel·ligència artificial la converteixen en impredictible i potencialment perillosa, en el fet que un sistema es pot comportar de forma totalment inesperada. Per exemple, un cotxe autònom que ha après a circular només estudiant comportaments humans, un bon dia podria estavellar-se contra un arbre i nosaltres no saber per què ho ha fet.


L'Hospital Mount Sinai de Nova York té en marxa un programa d'deep learning denominat Deep Patient finalitat del qual és ajudar predir malalties. El sistema es nodreix d'una base de dades de 700.000 pacients -tota mena de Big Data de cada individu: consultes, malalties, hàbits...-, i ha demostrat una gran precisió a l'hora d'anticipar possibles malalties en una persona. En concret, és summament eficaç a l'hora de diagnosticar anticipadament desordres mentals com l'esquizofrènia, una cosa molt difícil de realitzar per als psiquiatres. I el pitjor és que ningú entén com pot fer això Deep Patient per poder aprendre d'ell. El director de l'equip a Mount Sinai, Joel Dudley, afirma: "podem construir aquests models, però no sabem com funcionen".


En aquest estat de coses, ¿podem parlar de substituir mà d'obra per màquines intel·ligents quan no comprenem la seva forma de raonar o reaccionar? Potser aquest factor inesperat de l'evolució de la intel·ligència artificial frena la substitució de capital humà. No podrem confiar en els robots fins que no arribem a comprendre del tot. O potser ens arrisquem a fer aquest "salt al buit" de fe en els algoritmes informàtics?





Més autors

Opinadors