Els robots mal educats

Pablo Rodríguez Canfranc
Economista

Robotescribiendo


L'any passat va saltar la notícia que Microsoft havia retirat al seu chatbot Tay perquè havia començat a realitzar afirmacions racistes ofensives a Twitter i en xats. Tay estava programada per conversar amb els usuaris, podia explicar acudits o comentar les fotografies que rebia, però també podia

personalitzar les seves interaccions amb els humans, responent a les seves preguntes. El cas és que en sortir a les xarxes els cibernautes li van ensenyar a ser racista, ja que Tay aprèn de les converses amb humans, i va començar a emetre judicis i opinions políticament incorrectes, el que va portar als seus creadors a apagar-la.


És només un cas de mal funcionament de la intel·ligència artificial o, si es vol, de l'aparició d'un efecte no previst ni desitjat. No es tracta que el sistema no estigui ben dissenyat i desenvolupat, sinó que ha adquirit el que podríem anomenar "mals hàbits". Novel·la V. Yampolskiyi (La

intel·ligència artificial en les empreses falla i fallarà, sàpiga com evitar-ne les pitjors conseqüències) classifica aquest tipus de disfuncions en dues categories: "errors comesos durant la fase d'aprenentatge" i "errors comesos durant la fase de funcionament".


S'esmenta com a exemple de l'anterior que els primers esforços de les empreses en utilitzar intel·ligència artificial al sistema de missatgeria instantània Messenger de Facebook llancen un percentatge de fracàs del 70% en la gestió de les demandes dels usuaris.


Tay no és l'únic robot fracassat. La llista d'errors i errors de funcionament és bastant extensa i els casos més sonats són:


  • L'empresa Northpointe va desenvolupar un algoritme per predir la probabilitat que un delinqüent reincidís i aquest va començar a jutjar que les persones de color eren més proclius a tornar a cometre un crim que els blancs
  • Els personatges no controlats per jugadors del videojoc Elite: Dangerous van començar a desenvolupar pel seu compte armes que no estaven en el disseny original del joc. D'aquesta manera, els jugadors humans s'enfrontaven a naus equipades amb armament grotesc que els destruïa a trossos.
  • Un robot de seguretat de la companyia Knightscope Inc. Arroyo a un nen de 16 mesos en un centre comercial de Palo Alto, Califòrnia.
  • L'accident més famós d'un cotxe autònom es va produir en una autopista de Florida, quan el vehicle Tesla no va detectar la part posterior d'un camió i es va encastar contra ell amb la conseqüent mort del passatger. 
  • El primer concurs de bellesa en comptar amb un jurat no humà, Beauty.AI 2.0, va demostrar que l'algoritme havia desenvolupat un biaix racista que el va portar a puntuar més baix a les dones de color.
  • El programa d'intel·ligència artificial Alpha Go va perdre el 2016 contra un humà al joc Go en una partida nivell campionat mundial.
  • El 2015 un programari de filtrat de continguts per a adults òbvia eliminar continguts inapropiats i exposa a menors a continguts violents i sexuals.


LA LLISTA SEGUEIX I SEGUEIX


Per al professor Yampolskiyi, citat anteriorment, és inevitable que un sistema dissenyat per fer una cosa en un moment donat deixi de fer-la i produeixi un resultat erroni. Les empreses poden reduir els errors de la intel·ligència artificial aplicant mesures com:



  • El control de la informació que els usuaris poden introduir en el sistema i limitar l'aprenentatge d'aquest a les dades verificats.
  • Cerca de forma exhaustiva biaixos racials, de gènere, d'edat i altres tipus habituals en els algoritmes.
  • Analitzar de manera explícita com podria fallar el programari per crear un mecanisme de seguretat per a cada problema potencial.
  • Disposar d'una versió del producte o servei "menys intel·ligent".
  • Des de la comunicació corporativa, establir per avançat un pla de comunicació i crisi per dirigir-se als mitjans de comunicació en cas que es produeixi qualsevol tipus de fallada compromès.





Més autors

Opinadors