Sabem que els algorismes estan arreu. Ho hem sentit, ho repetim, i ho assumim gairebé amb naturalitat. El que potser no tenim tan clar és fins a quin punt aquests sistemes –que decideixen què veiem, què comprem o amb qui interactuem– estan reconfigurant la manera en què entenem el món i l’habitem.
El debat ètic i social sobre la intel·ligència artificial (IA) no és nou. Ja el 2017, The Guardian publicava un article amb un títol tant provocador com premonitori: «Rise of the racist robots – how AI is learning all our worst impulses». Han passat alguns anys, però el tema no ha perdut vigència. Al contrari, l’expansió de les IA generatives ha retornat la discussió al centre de l’escena mediàtica i acadèmica.
No obstant això, més enllà de l’entusiasme o l’alarma que generen aquestes tecnologies, la veritat és que els algorismes fa temps que prenen decisions que afecten directament les nostres vides. Des dels sistemes de recomanació que filtren el que llegim fins als programes que avaluen el nostre perfil laboral o calculen el preu d’una assegurança, la mediació algorítmica s’ha tornat tan quotidiana que a penes hi parem esment.
Avui, els algorismes són la columna vertebral de les nostres societats digitals. Operen en els bancs i en els aeroports, en els assistents virtuals, en els sistemes de seguretat i en les plataformes socials, entre molts altres aspectes de les nostres vides, configurant una maquinària global que combina eficiència i velocitat, alhora que concentra un enorme poder en mans dels qui controlen els seus codis i les seves dades.
Algorismes i consideracions ètiques
Perquè, tot i que aquestes tecnologies ens faciliten la vida, també plantegen dilemes ètics profunds. Què ocorre amb el treball automatitzat? Qui decideix quines dades s’usen i amb quines finalitats? On queda la privacitat? Preguntes com aquestes ens recorden que la intel·ligència artificial no sols reprodueix la realitat, sinó que també la modela, i que en aquesta capacitat de modelar resideix el seu major desafiament ètic.
Com assenyala Núria Vallès-Peris (2022), vivim en una època en la qual la ciència i la tecnologia modelen de manera decisiva les nostres societats, però les nostres democràcies no sempre estan preparades per a gestionar-ho. Els algorismes i el machine learning no són simples eines: són, com els anomena Langdon Winner (1980), tecnologies polítiques. És a dir, no sols fan coses, sinó que també distribueixen el poder, creen jerarquies i estableixen formes de control.
I hi ha exemples que ho evidencien. El 2016, un informe de ProPublica va mostrar com el sistema judicial estatunidenc classificava els acusats negres com a potencials reincidents gairebé el doble de vegades que els acusats blancs. El biaix no estava en els jutges, sinó en l’algorisme. En la lògica de les dades, en els patrons apresos d’un passat desigual.
Aquests casos ens recorden que la tecnologia no flota en el buit: neix de contextos socials, econòmics i culturals. Com adverteix Winner, pensar que la tecnologia evoluciona sola –i que nosaltres només la seguim– és una forma de determinisme ingenu. Enfront d’aquesta visió, el construccionisme ens convida a intervenir, a prendre consciència que també podem (i devem) participar en la forma en què la tecnologia es dissenya i s’usa.
Des de l’educació, aquest enfocament és vital. Com diu Tomás Ibáñez (2001), conèixer és un acte de creació. El que sabem, el que produïm, circula i té efectes. Assumir aquesta responsabilitat és part del que significa viure en una societat tecnològica. Educar, en aquest context, no és només transmetre competències digitals o aprendre a usar eines, sinó formar una mirada crítica capaç d’interrogar els supòsits que les sustenten.
Necessitem una educació que no es limiti a «conviure amb els algorismes», sinó que ensenyi a entendre’ls, a qüestionar-los i, quan sigui necessari, a desafiar-los. Una educació que retorni a les persones la capacitat d’intervenir en els processos tecnològics, no sols d’adaptar-se a ells.
En última instància, el repte no és aprendre a utilitzar la IA, sinó aprendre a viure en un món configurat per ella, sense perdre de vista els valors que volem preservar. Hem de convertir l’alfabetització digital del nostre temps, més que mai, en una alfabetització ètica i política: la dels qui no sols consumeixen tecnologia, sinó que la comprenen, la discuteixen i la transformen.
Per saber-ne més:
IBÁÑEZ, Tomás (2001). Municiones para disidentes. Realidad, verdad, política. Barcelona: Gedisa.
VALLÈS-PERIS, Núria (2022). Guia d’aprenentatge de l’assignatura Reptes Tecnocientífics. UOC.
WINNER, Langdon (1980). «Do artifacts have politics?». Computer Ethics, págs. 121-136. Routledge.
Imatge de Portada:
Foto de Pexels / Cottonbro Studio.
Citació recomanada
CREUS, Amalia. «Intel·ligència artificial, ètica i tecnologies polítiques». COMeIN [en línia], novembre 2025, no. 159. ISSN: 1696-3296. DOI: https://doi.org/10.7238/c.n159.2576



