Número 131 (abril de 2023)

La paradoxa de la consciència algorítmica a estudi

Sara Suárez-Gonzalo

Semblaria lògic que una capacitat més gran per reconèixer i entendre els algoritmes que operen en el nostre entorn impliqués una capacitat més gran de relacionar-s’hi de manera lliure i d’acord amb la voluntat d’un mateix, especialment quan aquests afectin qüestions sensibles. Malgrat això, hi ha indicis que contradiuen aquesta intuïció. En un nou projecte de recerca, analitzaré les causes i els efectes d’aquesta dissonància aparent que anomeno la «paradoxa de la consciència algorítmica».

Un algoritme d’aprenentatge de màquines (machine learning), terme tan de moda últimament, és bàsicament un conjunt d’operacions programades per produir un resultat, amb un cert nivell d’autonomia, a partir del processament de grans quantitats de dades. Pot estar programat per seguir unes regles predefinides per les persones que el desenvolupen, però també pot estar programat per detectar i aplicar regles derivades dels conjunts de dades que processen.

 

En una societat que produeix més dades que mai, cada vegada més actors privats i públics utilitzen aquest tipus d’algoritmes per informar processos de presa de decisions, classificar ítems o predir esdeveniments. Així, aquests estan cada vegada més presents en les nostres vides quotidianes i afecten, per exemple, quina música escoltem, quines sèries veiem, quines ajudes públiques rebem, quines feines aconseguim, amb quines persones ens relacionem o a quin preu paguem els productes que comprem, entre molts altres casos.

 

Aquesta generalització de l’ús d’algoritmes ha generat un incipient interès acadèmic per estudiar la consciència algorítmica. Un terme recent la definició del qual no està consensuada, i que jo utilitzo per definir la capacitat de reconèixer els algoritmes d’aprenentatge de màquines que operen en l’entorn i d’entendre com funcionen i com poden influir en aspectes sensibles de la vida i afectar l’exercici de les llibertats bàsiques.

 

La paradoxa de la consciència algorítmica

 

Tot i que el nivell de consciència algorítmica de la ciutadania ja es considera un factor determinant de la desigualtat i l’exclusió digitals, el coneixement sobre quines en són les causes i els efectes encara és limitat. Per aprofundir-ho, he posat en marxa un petit projecte de recerca finançat pel Govern del Canadà per mitjà del projecte Aging in Data titulat An algorithmic awareness paradox? Exploring the causes and contradictions of algorithmic awareness (Una paradoxa de la consciència algorítmica? Explorant les causes i contradiccions de la consciència algorítmica).

 

Més específicament, el projecte se centra a estudiar les causes i els efectes d’allò que he anomenat la «paradoxa de la consciència algorítmica», que ara explicaré:

 

Semblaria lògic que el nivell de consciència algorítmica estigués vinculat amb la manera en què una persona es relaciona amb els algoritmes, com els fa servir, quines decisions pren sobre aquest tema. I, més concretament, que un nivell més alt de consciència algorítmica impliqués una capacitat més gran de relacionar-se amb els algoritmes d’acord amb la voluntat d’un mateix, en especial quan el seu funcionament afecta qüestions sensibles de la vida, com passa en molts casos. No obstant això, els resultats d’un estudi representatiu de la població espanyola que hem dut a terme des del grup CNSC-IN3 de la UOC contradiuen aquesta intuïció, i també les conclusions d’alguns estudis previs, en apuntar al fet que hi ha una desconnexió entre el nivell de consciència algorítmica i les pràctiques i usos relatius a aquests sistemes. Això és el que anomeno la paradoxa de la consciència algorítmica: un fenomen pel qual l’ús que les persones fan dels algoritmes no respon, necessàriament, als seus coneixements ni a les seves percepcions sobre com funcionen i com els poden afectar les vides aquests sistemes. És a dir, que hi ha persones capaces de reconèixer i de comprendre els algoritmes que operen en el seu entorn, o fins i tot que es mostren preocupades per com afecten aspectes sensibles de les seves vides, que no duen a terme pràctiques de protecció concordes a aquestes percepcions. I al revés.

 

La hipòtesi que busco validar o refutar és que l’origen de la desconnexió entre consciència i usos algorítmics (la paradoxa) no es troba en les característiques individuals de les persones (edat, gènere, nivell d’estudis…) o en un càlcul de riscos i beneficis en el qual prevalen la irracionalitat o els beneficis, com apunten altres estudis, sinó en aspectes estructurals (socials, polítics i econòmics) i en l’existència de poderosos interessos privats que obstaculitzen la capacitat de qualsevol persona de relacionar-se amb els algoritmes de manera lliure. És a dir, de relacionar-s’hi o fer-los servir (o deixar de fer-ho) d’acord amb la seva voluntat i les seves decisions, o exercir-hi una influència significativa quan aquests es produeixen sobre aspectes significatius de la vida d’un mateix, com l’exercici de les llibertats bàsiques. Això voldria dir que l’aparent paradoxa no és deguda, com podria semblar, a una dissonància cognitiva individual. Cosa que he defensat en un cas similar, relatiu a la paradoxa de la privacitat. Els resultats em permetran, en última instància, plantejar recomanacions per reduir factors de desigualtat i d’exclusió digital relacionades amb algoritmes que obstaculitzen l’exercici de la llibertat i de la ciutadania (digital), especialment en el cas de persones amb situacions socials o econòmiques desavantatjades.

 

Per entendre aquestes qüestions és essencial combinar mètodes quantitatius i qualitatius, i obtenir així una informació situada i argumentada. Per això, complementaré els resultats d’un estudi quantitatiu amb grups de discussió, per als quals aviat publicaré una crida a la participació. Analitzaré els resultats, de manera crítica, tenint en compte les relacions de poder i desigualtat lligades al desenvolupament tecnològic actual i l’ús d’algoritmes, per part tant d’actors públics com privats.

 

Per saber-ne més:

SUÁREZ-GONZALO, Sara (2022). «Paradojas en torno a las tecnologías de datos: no es personal; es político». Ctxt. Contexto y Acción [en línia]. Disponible a: https://ctxt.es/es/20221201/Firmas/41515/big-data-privacidad-en-la-red-redes-sociales-elites-economicas-informacion.htm

SUÁREZ-GONZALO, Sara (2019). «Personal data are political. A feminist view on privacy and big data». Recerca. Revista De Pensament I Anàlisi, vol. 24, núm.2, pàg. 173-192. DOI: https://doi.org/10.6035/Recerca.2019.24.2.9

SUÁREZ-GONZALO, Sara (2019). Big data, poder y libertad. Sobre el impacto social y político de la vigilancia massiva [Tesi doctoral]. Tesis Doctorals en Xarxa [en línia]. Universitat Pompeu Fabra. Disponible a: http://hdl.handle.net/10803/668235

GRAN, Anne-Britt; BOOTH, Peter; BUCHER, Taina (2021). «To be or not to be algorithm aware: a question of a new digital divide?». Information, Communication & Society, vol. 24. núm. 12, pàg: 1779-1796. DOI: https://doi.org/10.1080/1369118X.2020.1736124

ZAROUALI, Brahim; HELBERGER, Natali; DE VREESE, Claes H. (2021). «Investigating Algorithmic Misconceptions in a Media Context: Source of a New Digital Divide?». Media and Communication, vol. 9. núm. 4, pàg. 134-144. DOI: https://doi.org/10.17645/mac.v9i4.4090

 

Citació recomanada

SUÁREZ-GONZALO, Sara. «La paradoxa de la consciència algorítmica a estudi». COMeIN [en línia], abril 2023, no. 131. ISSN: 1696-3296. DOI: https://doi.org/10.7238/c.n131.2327

gestió de la informació;  big data recerca;  ètica de la comunicació;