dijous, 12 de desembre de 2019

Com conviure amb un robot

Pablo Rodríguez Canfranc
Economista

robot


"Ho sento Dave, però d'acord amb la subrutina C1532 / 4, cito,« quan la tripulació estigui morta o incapacitada, l'ordinador ha d'assumir el control », fi de la cita. He, per tant, assumir la teva autoritat ara atès que no estàs en condicions per exercir-la amb intel·ligència ". 2001: Una odissea de l'espai (Stanley Kubrick, 1968).


El que a finals dels anys seixanta, quan va ser rodada la pel·lícula 2001: Una odissea de l'espai, no era més que una ficció cinematogràfica, -l'existència d'ordinadors que realitzen tasques abans exclusives dels humans-, va començar a cobrar aspectes científics 2 dècades més tard, quan Christopher Langton va encunyar el terme "Intel·ligència artificial". Cinquanta anys més tard ens trobem en plena revolució tecnològica, assistint a la incorporació de màquines intel·ligents en innombrables camps, des dels automòbils a les fàbriques, des de la construcció a la feina administratiu d'oficina. Aparentment, no hi ha límit per als robots, que cada vegada en major grau assumeixen tasques de caràcter complex i creatiu.


La creixent convivència entre homes i màquines en entorns laborals, d'oci i domèstics, planteja l'establiment d'un marc de relacions entre tots dos, cosa que tradicionalment quedava en el terreny de la ciència ficció. D'aquesta manera, l'escriptor Isaac Asimov ja en 1942 va postular les tres lleis de la robòtica, que bàsicament estableixen que un robot no ha de fer mal a les persones ni permetre que aquestes es facin malbé, que ha d'obeir als humans excepte si trenca la primera llei , i finalment, que ha de protegir la seva pròpia existència sense trencar les dues lleis anteriors.


No obstant això, ens adonem que ja no parlem de ficció sinó d'una autèntica revolució de la robòtica quan veiem que empreses tecnològiques com Google i Microsoft han desenvolupat les seves pròpies propostes de lleis en aquest camp, i fins i tot quan la pròpia Unió Europea ha iniciat un debat, a través d'un informe publicat el juny passat, per al desenvolupament d'un marc regulador ètic per al disseny, la producció i l'ús de robots. La polèmica ha sorgit quan la Comissió Europea parla que, almenys els robots més sofisticats, podrien rebre l'estatus de "persones electròniques", amb drets específics i obligacions.


Els conflictes entre l'home i la màquina poden aflorar en haver de compartir l'acompliment de tasques. La intel·ligència artificial és més precisa que l'ésser humà i té més ràpida capacitat de reacció, el que fa, per exemple, que en aviació sigui obligatori l'ús del pilot automàtic en algunes fases del vol. Una persona pot no entendre i mal interpretar com a mal funcionament la programació d'una màquina, i sentir-se obligada a intervenir. Per exemple, un conductor pot creure que l'ordinador d'un automòbil està duent a terme una maniobra arriscada, quan tot està sota perfecte el control de la màquina, prendre el control manual i provocar un accident.


Arribarà el moment en què els ordinadors li treguin el comandament de la missió a un humà aL jutjar-lo incompetent per exercir-lo, com fa HAL9000 el 2001 Odissea de l'espai? El temps ho dirà.

Sense comentarios

Escriu el teu comentari




No s'admeten comentaris que vulnerin les lleis espanyoles o injuriants. Reservat el dret d'esborrar qualsevol comentari que considerem fora de tema.




Més autors

Opinadors
Llegir edició a: ESPAÑOL | ENGLISH