Los algoritmos están en la base de los sistemas de inteligencia artificial (AI) que, integrados a las tecnologías cotidianas, han puesto en marcha cambios meridianos, y en ocasiones impredecibles, en los modos de funcionar de las sociedades modernas. Los sistemas financieros, la gestión de aeropuertos, los coches sin conductor, los asistentes virtuales, igual que diferentes sistemas de seguridad informática, son solamente algunos ejemplos de la infinidad de productos y procesos que ya no se podrían concebir sin el uso de inteligencia artificial.
Sin desmerecer el innegable salto tecnológico que todo ello representa en nuestras vidas, cabe también recordar que el diseño y la implementación de esta nueva generación de herramientas computacionales nos pone ante profundos desafíos éticos. Pensemos, por ejemplo, en los efectos que la inteligencia artificial tiene en la imparable automatización del trabajo. O en los posibles usos tendenciosos de la información generada por algoritmos. O todavía, en los límites cada vez más borrosos de nuestra privacidad y sus imprevisibles efectos sobre nuestros derechos y libertades individuales. Temas, todos estos, que comienzan a generar cada vez más miradas de preocupación sobre algo a lo que quizás no hemos prestando suficiente atención: la creciente opacidad en los usos y en los efectos de tan fascinantes dispositivos tecnológicos.
No son pocos los casos controvertidos que apuntan a cómo el manejo de datos masivos a partir de algoritmos puede reflejar, o en efecto potenciar, viejas y nuevas formas de discriminación. Un ejemplo conocido es el
informe publicado en mayo de 2016 por Pro-Publica, en el que se alertaba sobre un programa utilizado por las autoridades judiciales norteamericanas más propenso a etiquetar como potenciales reincidentes a acusados negros, en una proporción de casi el doble que a los acusados blancos. Otros ejemplos de sesgos algorítmicos salidos a la luz incluyen sistemas defectuosos y tergiversados utilizados para
clasificar docentes, o
modelos sesgados de género para el procesamiento del lenguaje natural. Casos como estos hacen evidente la importancia de preguntarnos sobre las implicaciones sociales del uso de la inteligencia artificial, principalmente cuando tales tecnologías comienzan a aplicarse en dominios tan sensibles como pueden ser la atención médica, la educación o la justicia.
En la página de presentación de Siri, asistente de voz personal diseñado por Apple, nos encontramos con este curioso juego de pregunta y respuesta: «¿Cuál es la forma más fácil de llevar a cabo cualquier tarea? Pedirle a otro que la haga.» Leerlo me hizo pensar en algo que hace muchos años señaló el sociólogo
Steven Lukes: «El poder se puede concebir de tres maneras: la capacidad de evitar que las personas hagan lo que quieren hacer; la capacidad de obligarlos a hacer cosas que no quieren hacer, y la capacidad de dar forma a su manera de pensar». Todavía nos queda mucho que aprender sobre los efectos que el uso extensivo de algoritmos puede llegar a tener sobre nuestras conductas o sobre la manera con que damos sentido al mundo. Vale sin embargo recordar que esta es una tarea que no podemos delegar; hará falta poner en juego nuestra propia inteligencia.
Cita recomendada
CREUS, Amalia. Lo que Siri no te cuenta. COMeIN [en línea], marzo 2018, núm. 75. ISSN: 1696-3296. DOI: https://doi.org/10.7238/c.n75.1821