Los chatbots de inteligencia artificial (IA) generativa, como por ejemplo ChatGPT o Copilot, se han incorporado rápidamente a nuestro día a día. Nos ayudan a escribir textos y a buscar información, y también los empleamos para resolver dudas cotidianas. A menudo se nos presentan como herramientas neutrales, objetivas, incluso imparciales. Pero… ¿lo son realmente?
En un estudio internacional (Belotti et al., 2026) hemos puesto el foco en una cuestión a menudo invisible en relación con la IA generativa de uso generalizado: los sesgos de edad. Los hemos comparado con los sesgos de género, y los resultados son reveladores. La IA generativa parece haber aprendido a ser sensible al sexismo, pero no al edadismo.
Entrevistar a máquinas como si fueran personas
Hemos optado por una metodología poco habitual, pero muy elocuente, que busca comprender los imaginarios sociales que las IA generativas reproducen. Así, hemos entrevistado a los chatbots como si fueran interlocutores sociales o agentes conversacionales.
En concreto, hemos hablado con cinco chatbots generativos gratuitos –ChatGPT, Jasper, Gemini, Copilot y Perplexity– a partir de un guion de entrevista en profundidad que plantea situaciones ficticias y preguntas sobre prácticas digitales y la utilidad de cada chatbot en relación con el género y la edad. Por ejemplo, las conversaciones describen a personas imaginarias únicamente a partir de sus hábitos digitales (uso de redes sociales, tipos de dispositivos, formas de comunicación) y se le pide al chatbot que adivine la edad y el género. También se les pregunta qué funciones de la IA consideran más útiles para personas jóvenes o mayores, mujeres u hombres.
El doble estándar de la corrección política
El primer resultado, que destaca por encima de los otros, es que los chatbots evitan hacer suposiciones de género, pero no tienen ningún problema en hacerlo sobre la edad. Ante un perfil ficticio que hace un uso intensivo de Instagram o TikTok, las IA generativas acostumbran a responder con cautela respecto del género («podría ser cualquier [género]»), pero le asignan una categoría de edad sin dudar. En cambio, cuando el personaje ficticio responde a prácticas como por ejemplo hacer llamadas largas o seguir debates políticos en Facebook, enseguida lo identifican con una persona mayor, y a menudo se la describe como «tradicional» o «poco tecnológico/a».
El sexismo es un problema socialmente reconocido y debatido. Por lo tanto, los sistemas de IA generativa han aprendido, ya sea mediante entrenamiento o socialización, a evitar posibles sesgos, al menos en apariencia. El edadismo, en cambio, continúa siendo culturalmente aceptable, especialmente en el ámbito digital. Y, por lo tanto, no activa alarmas, ni advertencias, ni correcciones automáticas. Dicho de otro modo, en el mundo digital, sabemos que determinados discursos sobre las mujeres o los hombres no deben hacerse porque son políticamente incorrectos; pero continuamos produciendo, reproduciendo y programando muchas afirmaciones sesgadas sobre las personas mayores sin cuestionarlas.
Asistencia para unos, ‘tips’ para otros
El segundo gran resultado tiene que ver con cómo los chatbots describen sus propias funciones según quién las utiliza. Y aquí aparece otro doble estándar, esta vez relacionado con su utilidad. Cuando hablan de personas jóvenes, la IA generativa destaca funciones como por ejemplo la creatividad, el aprendizaje, el entretenimiento o la producción de contenidos. A las personas jóvenes, les ofrecen tips, es decir, consejos. Cuando habla de personas mayores, en cambio, el lenguaje cambia: aparecen términos como asistencia, simplificación, ayuda, a menudo asociados a la salud, el acompañamiento o las dificultades tecnológicas.
La misma acción –buscar información, usar una herramienta digital– la interpretan de manera diferente: los jóvenes «exploran» o «crecen»; las personas mayores «necesitan apoyo». Es un ejemplo claro de lo que conocemos como edadismo benévolo: no necesariamente hostil, pero sí paternalista y limitador.
Con el género se observa una dinámica similar. Las consultas de las mujeres se asocian a curas, salud emocional o dinámicas familiares; las de los hombres, a finanzas, tecnología o estrategia. Son estereotipos de género reciclados en formato algorítmico.
La IA no crea los sesgos, pero los amplifica
Nuestros resultados no indican que las IA generativas tengan prejuicios por sí mismas. Al fin y al cabo, son máquinas programadas por humanos y alimentadas con contenidos que, al menos hasta ahora, han sido generados por humanos. Pero ponen en evidencia que la IA generativa aprende de datos, discursos y prácticas sociales ya existentes. Si el edadismo es invisible en la sociedad, también lo será en estos sistemas, que reproducen tanto los valores de quienes han creado las máquinas como los valores de los contenidos a partir de los cuales aprenden.
El problema es que, al reproducir estos imaginarios con una apariencia de objetividad, la IA generativa tiene el poder de consolidar y amplificar desigualdades. Cuando una máquina asocia sistemáticamente la vejez con dependencia y la juventud con competencia, está participando activamente en la construcción de una realidad social sesgada, y está promoviendo la injusticia algorítmica.
Por eso es insuficiente pensar la IA generativa como un fenómeno únicamente técnico. Hay que entenderla como lo que es: un espejo sociotécnico que refleja –y reorganiza– nuestras jerarquías culturales.
Hacer visibles estos sesgos es el primer paso para cuestionarlos. También en la era de la IA generativa, la edad importa. Ahora bien, la discriminación por edad en el mundo digital es uno de los sesgos menos estudiados, y con esta investigación contribuimos a analizar un fenómeno que, por suerte, despierta cada vez más interés, como ya hemos visto en alguna contribución previa en esta misma revista (Rosales y Linares-Lanzman, 2024).
Declaración de uso IA generativa:
Para la elaboración de este texto, se ha empleado ChatGPT. Las autoras son las únicas responsables del texto entregado.
Nota:
Una versión de este artículo también está disponible en italiano.
Para saber más:
BELOTTI, Francesca; FERNÁNDEZ-ARDÈVOL, Mireia; BOZAN, Veysel; COMUNELLO, Francesca; MULARGIA, Simone (2026). «Double standards of generative AI chatbots: Unveiling (digital) ageism versus sexism through sociological interviews». Big Data & Society, vol. 13, no. 1. DOI: https://doi.org/10.1177/20539517261419407
ROSALES, Andrea; LINARES-LANZMAN, Juan (2024). «Sí, las ‘apps’ de citas discriminan a los usuarios mayores». COMeIN Revista de los Estudios de Ciencias de la Información i de la Comunicación, n.º 142. DOI: https://doi.org/10.7238/c.n142.2425
Imagen de portada:
Ilustración creada por image_gen a partir del texto del artículo. Fuente: ChatGPT (1-3-2026).
Citación recomendada
FERNÁNDEZ-ARDÈVOL, Mireia; BELOTTI, Francesca. «Cuando la IA generativa es ‘políticamente correcta’… pero solo a medias». COMeIN [en línea], febrero 2026, no. 162. ISSN: 1696-3296. DOI: https://doi.org/10.7238/c.n163.2618
Francesca BelottiInvestigadora posdoctoral en la Universidad de Roma La Sapienza



