Els arquitectes invisibles: com els algorismes discriminen i decideixen el que llegeixes
El BWAW 2026 analitza com els algorismes influeixen en la informació, l'ocupació i la igualtat de gènere des del seu disseny fins a la seva aplicació
En un món on gairebé tot passa per una pantalla, els algorismes s'han convertit en els grans arquitectes invisibles de la nostra vida digital. Decideixen quines notícies llegim, quins vídeos veiem, quina música escoltem i fins i tot quines oportunitats laborals apareixen davant nosaltres. Però són realment neutrals? O arrosseguen des de la seva creació biaixos que poden generar desigualtats de gènere i vulneracions de drets?
Aquestes preguntes han centrat una de les jornades del BWAW 2026, dedicada a reflexionar sobre els drets digitals en l'era algorítmica i l'impacte que aquests sistemes poden tenir en la igualtat, la informació i la no discriminació.
Algorismes i desigualtat: quan la visibilitat no és neutral
Beatriz Escriña, subdirectora general de la Fundació Hermes, va alertar sobre un aspecte clau: la visibilitat digital. Quan l'accés a oportunitats depèn de sistemes automatitzats de cerca i selecció, les desigualtats poden amplificar.
Segons va explicar, si els algorismes prioritzen determinats perfils o patrons històrics d'èxit, poden consolidar bretxes existents. Això no sols afecta la representació, sinó també a la pèrdua d'oportunitats laborals, especialment en sectors on les dones ja parteixen d'una posició de desavantatge estructural.
En aquest context, l'algorisme no discrimina de manera conscient, però sí que pot repetir dades històriques que ja contenen desigualtats.
Mitjans, plataformes i el poder de decidir què veiem
La periodista i fundadora de Kloshletter, Charo Marcos, va abordar l'impacte dels algorismes en els mitjans de comunicació digitals. Segons va explicar, les redaccions han hagut d'adaptar-se a un nou entorn en el qual ja no n'hi ha prou amb escriure bé: cal escriure per a persones i per a màquines.
El desenvolupament d'estratègies SEO va ser el primer gran gir. Després van arribar les xarxes socials, on els mitjans van començar a lliurar els seus continguts a plataformes externes. Fins al punt que avui, molts usuaris ja no diuen que han llegit una notícia en un diari concret, sinó que l'han vist en Facebook o X, diluint la identitat de la font.
Marcos va assenyalar que el següent gran canvi va venir amb Google Discover, que ha modificat les regles del joc al no distingir entre mitjans tradicionals, plataformes digitals o influencers. L'algorisme decideix quin contingut mereix visibilitat.
En l'àmbit cultural, va posar un exemple clar de biaix de gènere en la música: les recomanacions automàtiques prioritzen majoritàriament cançons d'autors masculins. Trencar aquest patró, va explicar, resulta extremadament complex perquè el sistema es retroalimenta amb dades històriques de consum.
D'on surten les dades? El punt crític del model
Belén Moscoso, responsable de Corporate Venturing en EIT Food, va subratllar la importància d'analitzar l'origen de les dades i el model matemàtic utilitzat. En empreses i start-ups que desenvolupen solucions basades en intel·ligència artificial, un dels principals riscos és treballar amb bases de dades ja esbiaixades.
Identificar els senyals de vulneració potencial implica preguntar quines dades s'utilitzen, com s'entrenen els models i quines variables poden generar exclusió indirecta. La prevenció del biaix no és automàtica: requereix supervisió, revisió constant i criteris ètics clars.
Tres drets sota tensió en l'era digital
La professora de la Universitat Autònoma de Madrid, Lara Quijano, va plantejar que vivim un moment en el qual tres drets fonamentals estan especialment tensionados.
- El primer són els drets ARCO (accés, rectificació, cancel·lació i oposició). Acceptem cookies i condicions sense ser plenament conscients de la quantitat de dades que cedim ni de qui els utilitza.
- El segon és el dret a rebre informació veraç. En un entorn saturat de continguts, resulta cada vegada més difícil identificar per què veiem una determinada notícia o quin és el seu origen real.
- El tercer és el dret a la no discriminació. Per què determinades persones reben certs anuncis, vídeos o informacions i unes altres no? Aquesta personalització extrema pot generar bombolles informatives i segmentacions que reforcin estereotips.
Quijano va utilitzar una metàfora esclaridora: els algorismes són com a miralls. Reflecteixen la societat que els crea. Si la societat conté desigualtats i biaixos, l'algorisme els copiarà i, en molts casos, els amplificarà. A més, va recordar que pràcticament cap algorisme parteix de zero; es construeixen sobre grans bases de dades preexistents que ja poden estar condicionades.
Responsabilitat empresarial i ètica enfront de mètriques
Des de l'àmbit empresarial, Lluís Soldevila, professor del Departament d'Operacions, Data Science i Innovació d'ESADE Business School, va llançar un missatge clar: els algorismes no són ens abstractes, són eines dissenyades per empreses.
Darrere de cada sistema hi ha decisions humanes, objectius de negoci i mètriques de rendiment, els coneguts KPI. I aquí sorgeix la tensió: les mètriques d'èxit econòmic no sempre van acompanyats de l'ètica. Soldevila va recordar que els algorismes utilitzen biaixos estadístics per a optimitzar resultats. El problema apareix quan aquesta optimització prioritza clics, temps de permanència o rendibilitat sense considerar l'impacte social.
Gènere i tecnologia: un desafiament estructural
El debat del BWAW 2026 va deixar una conclusió compartida: els algorismes no són neutres per defecte. Poden reproduir i consolidar desigualtats de gènere si no es dissenyen amb criteris de diversitat, transparència i supervisió.
L'era algorítmica exigeix, per tant, una alfabetització digital crítica, major transparència en l'ús de dades i un compromís empresarial amb l'ètica tecnològica. Perquè en un entorn on els algorismes decideixen què veiem, què escoltem i quines oportunitats tenim, protegir els drets digitals es converteix en una prioritat democràtica.
Escriu el teu comentari