Número 75 (març de 2018)

El que Siri no t'explica

Amalia Creus

Cada vegada més, molts dels processos i decisions que ens afecten —com cerquem informació, com ens avaluen en una entrevista de feina, el preu de la nostra assegurança del cotxe o la manera com trobem parella o fem amics— estan menys determinades per interaccions humanes i més per algorismes: models matemàtics que generen prediccions i patrons de conducta a partir de dades massives. 

Els algorismes estan a la base dels sistemes d'intel·ligència artificial (AI) que, integrats a les tecnologies quotidianes, han engegat canvis meridians, i en ocasions impredictibles, en les maneres de funcionar de les societats modernes. Els sistemes financers, la gestió d'aeroports, els cotxes sense conductor, els assistents virtuals, igual que diferents sistemes de seguretat informàtica, són solament alguns exemples de la infinitat de productes i processos que ja no es podrien concebre sense l'ús d'intel·ligència artificial.
 
Sense desmerèixer l'innegable salt tecnològic que tot això representa en les nostres vides, cal també recordar que el disseny i la implementació d'aquesta nova generació d'eines computacionals ens posa davant profunds desafiaments ètics. Pensem, per exemple, en els efectes que la intel·ligència artificial té en la imparable automatització del treball. O en els possibles usos tendenciosos de la informació generada per algorismes. O encara més, en els límits cada vegada més difusos de la nostra privacitat i els seus imprevisibles efectes sobre els nostres drets i llibertats individuals. Tots aquests temes comencen a generar cada vegada més mirades de preocupació sobre una qüestió a la qual sovint no prestem prou atenció: la creixent opacitat en els usos i en els efectes d'uns dispositius tecnològics tan fascinants. 
 
No són pocs els casos controvertits que apunten a com el maneig de dades massives a partir d'algorismes pot reflectir, o en efecte potenciar, velles i noves formes de discriminació. Un exemple conegut és l'informe publicat el maig de 2016 per Pro-Publica, en què s'alertava sobre un programa utilitzat per les autoritats judicials nord-americanes més propens a etiquetar com a potencials reincidents a acusats negres en una proporció de gairebé el doble que als acusats blancs. Altres exemples de biaixos algorísmics que han sortit a la llum inclouen sistemes defectuosos i tergiversats utilitzats per classificar docents, o models esbiaixats de gènere per al processament del llenguatge natural. Casos com aquests fan evident la importància de preguntar-nos sobre les implicacions socials de l'ús de la intel·ligència artificial, principalment quan aquestes tecnologies comencen aplicar-se en dominis tan sensibles com poden ser l'atenció mèdica, l'educació o la justícia. 
 
A la pàgina de presentació de Siri, assistent de veu personal dissenyat per Apple, ens trobem amb aquest curiós joc de pregunta i resposta: «Quin és la forma més fàcil de dur a terme qualsevol tasca? Demanar-li a un altre que la faci.» Llegir-ho em va fer pensar en això que fa molts anys va dir el sociòleg Steven Lukes: «El poder es pot concebre de tres maneres: la capacitat d'evitar que les persones facin el que volen fer; la capacitat d'obligar-les a fer coses que no volen fer, i la capacitat de donar forma a la seva manera de pensar». Encara ens queda molt per aprendre sobre els efectes que l'ús extensiu d'algorismes pot arribar a tenir sobre les nostres conductes o sobre la manera en què donem sentit al món. No obstant això, val la pena recordar que aquesta és una tasca que no podem delegar; farà falta posar en joc nostra pròpia intel·ligència.

 

Citació recomanada

CREUS, Amalia. El que Siri no t'explica. COMeIN [en línia], març 2018, núm. 75. ISSN: 1696-3296. DOI: https://doi.org/10.7238/c.n75.1821

mitjans socials;  gestió del coneixement;  big data
Números anteriors
Comparteix
??? addThis.titol.compartir ???
Articles relacionats