Número 158 (octubre de 2025)

Hacia una mirada heterotópica a la inteligencia artificial generativa

Juan Linares-Lanzman, Andrea Rosales

En la primavera de 2023 empezaron a circular por la red tiernas imágenes de pavos reales bebé que, sin embargo, no eran reales (LaMagdeleine, 2023). La imagen del pavo real bebé creada con un modelo de inteligencia artificial generativa (IAGen) era muy realista y visualmente llamaba la atención mucho más que la real. Evaluar la veracidad de esas imágenes era un reto, sobre todo si el espectador desconocía cómo son los pavos reales bebé y si, además, se dejaba conmover por su evidente ternura.

Así como la mayoría de las personas no deben haber visto un pavo real bebé, parece que los modelos de IAGen utilizados tampoco disponían de esas imágenes para poder representarlos. Es lo que se conoce como el sesgo de datos de la IA.

 

 img-dins_article-158a-linares

 

 

 

 

 

 

 

Imagen de un pavo real bebé creada con IAGen (izq.) y foto de uno real (der.)

Fuente: comparativo realizado por los autores

 

La anécdota no quedó allí; los pavitos inventados terminaron impactando al buscador de Google. Si por esos días se buscaba una imagen de un «baby peacock» (pavo real bebé, en inglés), la mayoría de los resultados obtenidos presentaban diferentes versiones de pavos reales bebés creados por IAGen. La masificación de esas imágenes podía reforzar la idea de que eran reales y tenía el potencial de transformar (aunque momentáneamente) el conocimiento público sobre el medio natural.

 

 img-dins_article-158b-linares

 

 

 

 

 

 

 

 

 

 

 

 

 

«Baby peacocks» creados por IAGen vs reales en Google

Fuente: Google (búsqueda e identificación llevadas a cabo por los autores)

 

Con el impacto viral que tuvieron los pavitos reales, se podría pensar que los sistemas inteligentes capaces de convertir texto en imágenes podrían haber tomado buena nota de lo sucedido y ajustado sus modelos para generar contenidos más realistas. Pero la realidad es que, 2 años después, este cambio todavía no se ha dado (y quizás ya no se dé). Hoy en día, estas herramientas todavía generan imágenes de pavos reales bebé estilizadas y poco realistas (puede constatarse en la siguiente imagen), concebidas para resaltar su naturaleza fantástica, pero que suelen confundirse con fotografías reales.

 

 img-dins_article-158c-linares

 

 

 

 

 

 

 

 

 

 

 

 

«Baby peacock photorealistic style», según Midjourney (2025)

Fuente: creación de los autores empleando Midjourney

 

Además, una búsqueda en Google a día de hoy todavía combina imágenes realistas y fantásticas.

 

 img-dins_article-158d-linares

 

 

 

 

 

 

 

 

 

 

Imágenes de «Baby peacocks» reales y no, conviviendo en Google (septiembre de 2025)

Fuente: Google (búsqueda llevada a cabo por los autores)

 

Los sesgos de los sistemas de inteligencia artificial a menudo pasan desapercibidos, pues afectan solo a una parte de los contenidos generados, las predicciones o las evaluaciones de riesgo, etc. Utópicamente, se ven como algo que se puede solucionar a partir de un mayor control de los datos de entrenamiento y de los ajustes en los modelos de IA. Sin embargo, estos sesgos pueden tener un impacto profundo en la sociedad en general y, para cuando se detectan, el perjuicio ya está hecho. Aun así, no parecen ser una prioridad en las políticas de moderación de contenidos de la industria de la IA.

 

Miradas a la IA

 

Los debates actuales sobre las aplicaciones de la IA incluyen la mejora de la sanidad o la educación, combatir el calentamiento global o potenciar la industria cultural. Como sucede con la llegada de cualquier tecnología, el discurso imperante suele estar enmarcado en una perspectiva tecnodeterminista (Ellul, s.f.), según la cual la sociedad es moldeada por la lógica intrínseca de las tecnologías y sus técnicas. De esta manera, estas tecnologías se plantean como una solución a la mayoría de los problemas de la sociedad (Morozov, 2013), lo cual las convierte en un espacio utópico (Wellman, 2004) a punto de alcanzarse. La visión tecnosolucionista no es algo nuevo, ya hace años que atrajo la atención en la industria tecnológica y actualmente se encuentra implícita en la cultura emprendedora moderna (Johnston, 2020).

 

El solucionismo tecnológico aborda la complejidad desde una perspectiva reduccionista, al considerar los problemas como simples piezas de un puzle que puede resolverse en lugar de reconocerlos como cuestiones que requieren respuestas múltiples (Paquet, 2005). Ante este contexto, abrazar una visión distópica que anule toda esperanza puede ser desalentador. Para superar esta visión utópico-solucionista, resulta pertinente explorar enfoques alternativos, más plurales, heterotópicos. Michel Foucault habla de la heterotopía como el «otro lugar» (Foucault, 1984) que existe dentro de la realidad social; un espacio donde habita lo cotidiano, pero con otras reglas, y donde se revelan tensiones ocultas de la sociedad.

 

La mirada heterotópica resulta particularmente fértil para pensar la IAGen en el presente. Frente a la mirada reduccionista a la que hacíamos mención arriba, este enfoque nos permite desplazar el foco. Más que una tecnología milagrosa, la IAGen puede entenderse como «otro lugar» que revela las fisuras de nuestra sociedad. En nuestro ejemplo vemos cómo los contenidos generados con IAGen distorsionan la realidad y visibilizan los sesgos inherentes en los datos y en los algoritmos que los sustentan. En el fondo, se advierte que la IAGen se sustenta gracias a un elevado consumo energético y a las desigualdades presentes en la distribución del poder tecnológico (Araújo et al., 2025): mientras las grandes corporaciones concentran recursos, sus trabajadores sostienen estas infraestructuras con trabajos precarios en las labores de etiquetado y moderación de contenidos. Una visión heterotópica nos exige explorar y confrontar –y no encubrir– estas tensiones. Desde esa perspectiva, el desafío pasa por enfrentar su inevitabilidad (Medrado y Verdegem, 2024) a la vez que por buscar formas para democratizar su desarrollo. La IAGen también puede ser un bien común (Taddeo y Floridi, 2018) que sea capaz de promover propósitos prosociales (Hagendorff, 2020) siempre que persiga confrontarse con uno de sus grandes retos: el de alinearse con los valores y principios de nuestras sociedades (Christian, 2021).

 

Para saber más:

ARAÚJO, Antonia do Espirito Sant Teixeira; CABRAL, Deivision Furtado, de MESQUITA, Odirlei Soares; MENDES, Gleisson Aamaral; dos Santos, Wilker José Caminha (2025). «The hidden side of generative artificial intelligence: Invisible labor, energy consumption, and ethical challenges in the case of ChatGPT». Knowledge Networks: Education as a Multidisciplinary Field, cap. 12. DOI: https://doi.org/10.56238/sevened2025.030-012

CHRISTIAN, Brian (2021). The alignment problem. Nueva York: WW Norton.

ELLUL, Jacques (n.d.). The Technological Society. Alfred A. Knopf (ed.). Vintage Books [en línea]. Disponible en: https://voidnetwork.gr/wp-content/uploads/2021/09/The-Technological-Society-Jacques-Ellul.pdf

HAGENDORFF, Thilo (2020). «The ethics of AI ethics: An evaluation of guidelines». Minds and Machines, vol. 30, págs. 99-120. DOI: https://doi.org/10.1007/s11023-020-09517-8

Johnston, Siguin F. (2020). Techno-fixers Origins and Implications of Technological Faith. McGill-Queen’s University Press. DOI: https://doi.org/10.1515/9780228002048

LaMAGDELEINE, Izz Scott (2023, agost). «Is This a Real Pic of a Baby Peacock?». Snopes [en línea]. Disponible en: https://www.snopes.com/fact-check/baby-peacock-pic/?

MEDRADO, Andrea; VERDEGEM, Pieter (2024). «Participatory action research in critical data studies: Interrogating AI from a South–North approach». Big Data & Society, vol. 11. n.º 1. DOI: https://doi.org/10.1177/20539517241235869

MOROZOV, Evgeny (2013). To save everything, clic here: Technology, solutionism, and the urge to fix problems that don’t exist [en línea]. Disponible en: https://www.amazon.es/Save-Everything-Click-Here-Solutionism/dp/1846145481

PAQUET, Gilles (2005). The new geo-governance: A baroque approach [en línea]. Disponible en: https://books.google.com/books

TADDEO, Mariarosaria; FLORIDI, Luciano (2018). «How AI can be a force for good». Science, vol. 361, n.º 6404, págs. 751-752. DOI: https://doi.org/10.1126/science.aat5991

WELLMAN, Barry (2004). «The three ages of internet studies: Ten, five and zero years ago». New Media & Society, vol. 6, n.º 1, págs. 123-129. DOI: https://doi.org/10.1177/1461444804040633

 

Imagen de portada:

Imagen de un pavo real bebé generada por ChatGPT en octubre de 2025 con el prompt «Crea una imagen apaisada de un “baby peacock”». Fuente: ChatGPT (modelo GPT-5).

 

Citación recomendada

LINARES-LANZMAN, Juan; ROSALES, Andrea. «Hacia una mirada heterotópica a la inteligencia artificial generativa». COMeIN [en línea], octubre 2025, no. 158. ISSN: 1696-3296. DOI: https://doi.org/10.7238/c.n158.2572

inteligencia artificial;  ética de la comunicación;  medios sociales;  investigación;  cultura digital;