Número 75 (marzo de 2018)

Lo que Siri no te cuenta

Amalia Creus

Cada vez más, muchos de los procesos y decisiones que nos afectan —cómo buscamos información, cómo nos evalúan en una entrevista de trabajo, el precio de nuestro seguro de coche o la manera en que encontramos pareja o hacemos amigos— están menos determinadas por interacciones humanas y más por algoritmos: modelos matemáticos que generan predicciones y patrones de conducta a partir de datos masivos.

Los algoritmos están en la base de los sistemas de inteligencia artificial (AI) que, integrados a las tecnologías cotidianas, han puesto en marcha cambios meridianos, y en ocasiones impredecibles, en los modos de funcionar de las sociedades modernas. Los sistemas financieros, la gestión de aeropuertos, los coches sin conductor, los asistentes virtuales, igual que diferentes sistemas de seguridad informática, son solamente algunos ejemplos de la infinidad de productos y procesos que ya no se podrían concebir sin el uso de inteligencia artificial.
 
Sin desmerecer el innegable salto tecnológico que todo ello representa en nuestras vidas, cabe también recordar que el diseño y la implementación de esta nueva generación de herramientas computacionales nos pone ante profundos desafíos éticos. Pensemos, por ejemplo, en los efectos que la inteligencia artificial tiene en la imparable automatización del trabajo. O en los posibles usos tendenciosos de la información generada por algoritmos. O todavía, en los límites cada vez más borrosos de nuestra privacidad y sus imprevisibles efectos sobre nuestros derechos y libertades individuales. Temas, todos estos, que comienzan a generar cada vez más miradas de preocupación sobre algo a lo que quizás no hemos prestando suficiente atención: la creciente opacidad en los usos y en los efectos de tan fascinantes dispositivos tecnológicos. 
 
No son pocos los casos controvertidos que apuntan a cómo el manejo de datos masivos a partir de algoritmos puede reflejar, o en efecto potenciar, viejas y nuevas formas de discriminación. Un ejemplo conocido es el informe publicado en mayo de 2016 por Pro-Publica, en el que se alertaba sobre un programa utilizado por las autoridades judiciales norteamericanas más propenso a etiquetar como potenciales reincidentes a acusados negros, en una proporción de casi el doble que a los acusados blancos. Otros ejemplos de sesgos algorítmicos salidos a la luz incluyen sistemas defectuosos y tergiversados utilizados para clasificar docentes, o modelos sesgados de género para el procesamiento del lenguaje natural. Casos como estos hacen evidente la importancia de preguntarnos sobre las implicaciones sociales del uso de la inteligencia artificial, principalmente cuando tales tecnologías comienzan a aplicarse en dominios tan sensibles como pueden ser la atención médica, la educación o la justicia. 
 
En la página de presentación de Siri, asistente de voz personal diseñado por Apple, nos encontramos con este curioso juego de pregunta y respuesta: «¿Cuál es la forma más fácil de llevar a cabo cualquier tarea? Pedirle a otro que la haga.» Leerlo me hizo pensar en algo que hace muchos años señaló el sociólogo Steven Lukes: «El poder se puede concebir de tres maneras: la capacidad de evitar que las personas hagan lo que quieren hacer; la capacidad de obligarlos a hacer cosas que no quieren hacer, y la capacidad de dar forma a su manera de pensar». Todavía nos queda mucho que aprender sobre los efectos que el uso extensivo de algoritmos puede llegar a tener sobre nuestras conductas o sobre la manera con que damos sentido al mundo. Vale sin embargo recordar que esta es una tarea que no podemos delegar; hará falta poner en juego nuestra propia inteligencia.

 

Cita recomendada

CREUS, Amalia. Lo que Siri no te cuenta. COMeIN [en línea], marzo 2018, núm. 75. ISSN: 1696-3296. DOI: https://doi.org/10.7238/c.n75.1821

medios sociales;  gestión del conocimiento;  big data
Números anteriores
Comparte