Número 147 (octubre de 2024)

Kamala vs Kamala

Andrea Rosales, Juan Linares-Lanzman

Kamala Harris no necesita presentación. A pesar de su singularidad, en su aspecto físico no es muy diferente de cualquier otra mujer profesional que puedas encontrarte en una gran ciudad de cualquier parte del mundo. Harris nació en Estados Unidos, en el seno de una familia intercultural de origen indio y jamaicano.

En la figura 1, se la ve, en una foto de su campaña presidencial, posando delante de la bandera de los Estados Unidos. Seguramente esconde sus canas bajo un tinte de pelo, como gran parte de las mujeres de su edad, y tiene el cabello suelto, cuidadosamente alisado y arreglado. Luce una sonrisa generosa, poco maquillaje y algunas marcas de expresión. Viste, formalmente, con ropa apropiada para el entorno político. La chaqueta marca la fortaleza de sus hombros capaces de soportar todo el peso del poder. Kamala Harris transmite vitalidad, optimismo y cercanía.

 

Sin embargo, no es así como la inteligencia artificial (IA) se imagina a otra posible Kamala. Otra mujer americana de origen jamaicano e indio, de 59 años. La mujer de la figura 2 no existe. La mujer de la figura 2 es una representación generada por el algoritmo de «texto a imagen» de Midjourney. Las diferencias son obvias. La representación de Midjourney muestra una mujer con el pelo canoso apenas recogido, con un turbante folclórico. La piel del rostro está limpia y sin maquillaje. Su actitud transmite humildad y cierta pasividad. Su mirada y su media sonrisa transmiten cierta tristeza. La blusa se sostiene en sus delicados hombros. Sus párpados caídos, muestran un cierto halo de preocupación.

 

 img-dins_article-rosaleslinares147

 

 

 

 

 

 

 

 

Figura 1 (izquierda). Kamala Harris, de 59 años. Fuente: Voz de América

Figura 2 (derecha). Kamala según la IA. Fuente: Imagen generada con Midjourney empleando el ‘prompt’ siguiente: «A portrait of a 59-year-old American woman with Jamaican and Indian origins.» [Fecha de consulta: septiembre 2024]

 

Las herramientas de inteligencia artificial generativa que convierten «texto a imagen», como MidJourney, Copilot, Stable Diffusion y otras más, han irrumpido en la sociedad datificada. La inteligencia artificial generó 15 billones de imágenes en su primer año, una hazaña que tomó a los fotógrafos 150 años. La facilidad para crear imágenes de calidad fotográfica y el realismo de tales imágenes tienen el potencial de cambiar el significado de la fotografía para siempre. El impacto en los medios de comunicación y las redes sociales todavía no se alcanza a dimensionar.

 

Edadismo y otros sesgos de la IA

 

Los sistemas de IA suelen presentar sesgos, que tienen un impacto negativo en nuestra sociedad porque refuerzan estereotipos y perpetúan prácticas discriminatorias. Los sistemas de IA son racistas (se utilizó el reconocimiento facial para detener erróneamente a una mujer embarazada de ocho meses) y sexistas (la automatización de la selección laboral discriminaba sistemáticamente a las mujeres durante los procesos de contratación). Pero poco se ha dicho sobre el impacto de los sesgos de edad de la IA en la sociedad.

 

Sabemos que el edadismo está estructuralmente arraigado en la IA. En el desarrollo de la industria tecnológica influyen principalmente programadores hombres, blancos, jóvenes, con alto nivel educativo y adquisitivo de los países «desarrollados», que influyen con su sesgo de selección en el diseño de las tecnologías. A nivel técnico, los sesgos de la IA son explícitos e implícitos. Explícitos en los diseños de las interfaces de usuario, e implícitos tanto en las decisiones que se toman para el diseño de los algoritmos como en los conjuntos de datos que usan. En el caso de las imágenes generativas, las galerías de imágenes que usan para alimentar su algoritmo no necesariamente representan a la sociedad global, actual y diversa.

 

Adicionalmente, uno de los grandes retos del manejo de datos masivos, que alimenta a la IA, es la moderación de contenidos. En el contexto de la IA, la moderación de contenidos es problemática, no solo por la cantidad ingente de datos y temas que habría que moderar, sino también por las formas de hacerlo. Un estudio concluye que la confianza hacia otras personas, la ideología política o la predisposición hacia las tecnologías son determinantes en la moderación de contenidos. Además, se suelen abordar solo los problemas más acuciantes de los que la sociedad es consciente y, en este sentido, apenas se habla de los sesgos edadistas de la sociedad o del edadismo digital.

 

Si bien la IA generativa puede crear una imagen de una mujer americana de 59 años, de origen jamaicano e indio, profesional, segura, exitosa, activa, similar a la foto de campaña de Kamala Harris, a partir de un prompt que incluya todas estas características, esta no es la situación en la que Midjourney visualiza espontáneamente a una mujer de estas características. Las representaciones de la inteligencia artificial generativa pueden ser realistas, pero la realidad es más diversa que las ideas preconcebidas y estereotipadas en las que se basa la IA generativa. De esta manera, la IA generativa está reforzando estereotipos, de género, clase social, origen y también de edad, contribuyendo a la discriminación y estigmatización de los colectivos más desfavorecidos.

 

NOTA:

Este artículo es parte del proyecto Edadismo en la Inteligencia artificial, financiado por la Fundación Volkswagen.

 

Para saber más:

MOLINA, María. D.; SUNDAR, Shyam. S. (2024). «Does distrust in humans predict greater trust in AI? Role of individual differences in user responses to content moderation». New Mitjana & Society, vol. 26, no. 6, págs. 3638-3656. DOI: https://doi.org/10.1177/14614448221103534

ROSALES, Andrea; FERNÁNDEZ-ARDÈVOL, Mireia; SVENSSON, Jakob (eds.) (2023). Digital Ageism. How it Operates and Approaches to Tackling it. Pendiente de publicación. Routledge.

ROSALES, Andrea; LINARES-LANZMAN, Juan (2024). «Sí, las ‘apps’ de citas discriminan a los usuarios mayores». COMeIN, no. 142. DOI: https://doi.org/10.7238/c.n142.2425

STYPINSKA, Justyna (2023). «AI ageism: a critical roadmap for studying age discrimination and exclusion in digitalized societies». AI & SOCIETY, vol. 38, págs. 665-677.

 

Citación recomendada

ROSALES, Andrea; LINARES-LANZMAN, Juan. «Kamala vs Kamala». COMeIN [en línea], octubre 2024, no. 147. ISSN: 1696-3296. DOI: https://doi.org/10.7238/c.n147.2466

edadismo;  inteligencia artificial;  big data género;  comunicación política;  investigación;