Número 131 (abril 2023)

La paradoja de la consciencia algorítmica a estudio

Sara Suárez-Gonzalo

Parecería lógico que una mayor capacidad para reconocer y entender los algoritmos que operan en nuestro entorno implicase una mayor capacidad de relacionarse con ellos de forma libre y acorde con la propia voluntad, especialmente cuando estos afecten a cuestiones sensibles. No obstante, hay indicios que contradicen esta intuición. En un nuevo proyecto de investigación analizaré las causas y los efectos de esta aparente disonancia que llamo la «paradoja de la consciencia algorítmica».

Un algoritmo de aprendizaje de máquinas (machine learning), término tan de moda últimamente, es básicamente un conjunto de operaciones programadas para producir un resultado, con un cierto nivel de autonomía, a partir del procesamiento de grandes cantidades de datos. Puede estar programado para seguir unas reglas predefinidas por las personas que lo desarrollan, pero también puede estar programado para detectar y aplicar reglas derivadas de los conjuntos de datos que procesan.

 

En una sociedad que produce más datos que nunca, cada vez más actores privados y públicos utilizan este tipo de algoritmos para informar procesos de toma de decisiones, clasificar ítems o predecir eventos. Así, estos están cada vez más presentes en nuestras vidas cotidianas y afectan, por ejemplo, a qué música escuchamos, qué series vemos, qué ayudas públicas recibimos, qué trabajos conseguimos, con qué personas nos relacionamos o a qué precio pagamos los productos que compramos, entre muchos otros casos.

 

Esta generalización del uso de algoritmos ha generado un incipiente interés académico consciencia algorítmica. Un término reciente cuya definición no está consensuada, y que yo utilizo para definir la capacidad de reconocer los algoritmos de aprendizaje de máquinas que operan en el entorno y de entender cómo funcionan y cómo pueden influir en aspectos sensibles de la vida y afectar al ejercicio de las libertades básicas.

 

La paradoja de la consciencia algorítmica

 

Aunque el nivel de consciencia algorítmica de la ciudadanía ya se considera un factor determinante de la desigualdad y la exclusión digitales, el conocimiento sobre cuáles son sus causas y sus efectos todavía es limitado. Para ahondar en ello, he puesto en marcha un pequeño proyecto de investigación financiado por el Gobierno de Canadá a través del proyecto Aging in Data titulado An algorithmic awareness paradox? Exploring the causes and contradictions of algorithmic awareness (¿Una paradoja de la consciencia algorítmica? Explorando las causas y contradicciones de la consciencia algorítmica).

 

Más específicamente, el proyecto se centra en estudiar las causas y los efectos de lo que he llamado la «paradoja de la consciencia algorítmica», que ahora explicaré:

 

Parecería lógico que el nivel de consciencia algorítmica estuviera vinculado con la manera en que una persona se relaciona con los algoritmos, cómo los usa, qué decisiones toma al respecto. Y, más concretamente, que un mayor nivel de consciencia algorítmica implicase una mayor capacidad de relacionarse con los algoritmos de acuerdo con la propia voluntad, especialmente cuando su funcionamiento afecta a cuestiones sensibles de la vida, como ocurre en muchos casos. No obstante, los resultados de un estudio representativo de la población española que hemos llevado a cabo desde el grupo CNSC-IN3 de la UOC contradicen esta intuición, y también las conclusiones de algunos estudios previos, al apuntar a que existe una desconexión entre el nivel de consciencia algorítmica y las prácticas y usos relativos a estos sistemas. Esto es lo que llamo la paradoja de la consciencia algorítmica: un fenómeno por el cual el uso que las personas hacen de los algoritmos no responde, necesariamente, a sus conocimientos ni a sus percepciones al respecto de cómo funcionan y cómo pueden afectar a sus vidas estos sistemas. Es decir, que hay personas capaces de reconocer y de comprender los algoritmos que operan en su entorno, o incluso que se muestran preocupadas por cómo afectan a aspectos sensibles de sus vidas, que no llevan a cabo prácticas de protección acordes a estas percepciones. Y a la inversa.

 

La hipótesis que busco validar o refutar es que el origen de la desconexión entre consciencia y usos algorítmicos (la paradoja) no se encuentra en las características individuales de las personas (edad, género, nivel de estudios…) o en un cálculo de riesgos y beneficios en el que prevalecen la irracionalidad o los beneficios, como apuntan otros estudios, sino en aspectos estructurales (sociales, políticos y económicos) y a la existencia de poderosos intereses privados que obstaculizan la capacidad de cualquier persona de relacionarse con los algoritmos de forma libre. Es decir, de relacionarse con ellos o usarlos (o dejar de hacerlo) de acuerdo con su voluntad y decisiones, así como ejercer una influencia significativa sobre ellos cuando estos se producen en relación con aspectos significativos de la propia vida, como el ejercicio de las libertades básicas. Esto querría decir que la aparente paradoja no se debe, como podría parecer, a una disonancia cognitiva individual. Algo que he defendido en un caso similar, relativo a la paradoja de la privacidad. Los resultados me permitirán, en última instancia plantear recomendaciones para reducir factores de desigualdad y exclusión digital relacionadas con algoritmos que obstaculizan el ejercicio de la libertad y de la ciudadanía (digital), especialmente en el caso de personas con situaciones sociales o económicas desventajadas.

 

Para comprender estas cuestiones, es esencial combinar métodos cuantitativos y cualitativos, y obtener así una información situada y argumentada. Por ello, complementaré los resultados de un estudio cuantitativo con grupos de discusión, para los que pronto publicaré una llamada a la participación. Analizaré los resultados, de forma crítica, a la luz de las relaciones de poder y desigualdad ligados al desarrollo tecnológico actual y el uso de algoritmos, por parte tanto de actores públicos como privados.

 

Para saber más:

SUÁREZ-GONZALO, Sara (2022). «Paradojas en torno a las tecnologías de datos: no es personal; es político». Ctxt. Contexto y Acción [en línea]. Disponible en: https://ctxt.es/es/20221201/Firmas/41515/big-data-privacidad-en-la-red-redes-sociales-elites-economicas-informacion.htm

SUÁREZ-GONZALO, Sara (2019). «Personal data are political. A feminist view on privacy and big data». Recerca. Revista De Pensament I Anàlisi, vol. 24, n.º2, págs. 173-192. DOI: https://doi.org/10.6035/Recerca.2019.24.2.9

SUÁREZ-GONZALO, Sara (2019). Big data, poder y libertad. Sobre el impacto social y político de la vigilancia massiva [Tesis doctoral]. Tesis Doctorals en Xarxa [en línea]. Universitat Pompeu Fabra. Disponible en: http://hdl.handle.net/10803/668235

GRAN, Anne-Britt; BOOTH, Peter; BUCHER, Taina (2021). «To be or not to be algorithm aware: a question of a new digital divide?». Information, Communication & Society, vol. 24. n.º 12, págs: 1779-1796. DOI: https://doi.org/10.1080/1369118X.2020.1736124

ZAROUALI, Brahim; HELBERGER, Natali; DE VREESE, Claes H. (2021). «Investigating Algorithmic Misconceptions in a Media Context: Source of a New Digital Divide?». Media and Communication, vol. 9. n.º 4, págs. 134-144. DOI: https://doi.org/10.17645/mac.v9i4.4090

 

Citación recomendada

SUÁREZ-GONZALO, Sara. «La paradoja de la consciencia algorítmica a estudio». COMeIN [en línea], abril 2023, no. 131. ISSN: 1696-3296. DOI: https://doi.org/10.7238/c.n131.2327

gestión de la información;  big data investigación;  ética de la comunicación;