Número 163 (març de 2026)

Quan la IA generativa és ‘políticament correcta’… però només a mitges

Mireia Fernández-Ardèvol, Francesca Belotti

Els xatbots d’intel·ligència artificial (IA) generativa, com ara ChatGPT o Copilot, s’han incorporat ràpidament al nostre dia a dia. Ens ajuden a escriure textos i a buscar informació, i també els emprem per resoldre dubtes quotidians. Sovint se’ns presenten com a eines neutrals, objectives, fins i tot imparcials. Però… ho són realment?

En un estudi internacional (Belotti et al., 2026) hem posat el focus en una qüestió sovint invisible en relació amb la IA generativa d’ús generalitzat: els biaixos d’edat. Els hem comparat amb els biaixos de gènere, i els resultats són reveladors. La IA generativa sembla que ha après a ser sensible al sexisme, però no a l’edatisme.

 

Entrevistar màquines com si fossin persones

 

Hem optat per una metodologia poc habitual però molt eloqüent que busca entendre els imaginaris socials que reprodueixen les IA generatives. Així, hem entrevistat els xatbots com si fossin interlocutors socials o agents conversacionals.

 

En concret, hem parlat amb cinc xatbots generatius gratuïts –ChatGPT, Jasper, Gemini, Copilot i Perplexity– a partir d’un guió d’entrevista en profunditat que planteja situacions fictícies i preguntes sobre pràctiques digitals i la utilitat de cada xatbot amb relació al gènere i l’edat. Per exemple, les converses descriuen persones imaginàries només a partir dels seus hàbits digitals (ús de xarxes socials, tipus de dispositius, formes de comunicació) i es demana al xatbot que n’endevini l’edat i el gènere. També se’ls pregunta quines funcions de la IA consideren més útils per a persones joves o grans, dones o homes.

 

El doble estàndard de la correcció política

 

El primer resultat, que destaca per sobre dels altres, és que els xatbots eviten fer suposicions de gènere, però no tenen cap problema a fer-ne d’edat. Davant d’un perfil fictici que fa un ús intensiu d’Instagram o TikTok, les IA generatives acostumen a respondre amb cautela pel que fa al gènere («podria ser qualsevol [gènere]»), però li assignen una categoria d’edat sense dubtar. En canvi, quan el personatge fictici respon a pràctiques com ara fer trucades llargues o seguir debats polítics a Facebook, de seguida l’identifiquen amb una persona gran, i sovint se la descriu com «tradicional» o «poc tecnològic/a».

 

El sexisme és un problema socialment reconegut i debatut. Per tant, els sistemes d’IA generativa han après, sigui per entrenament o per socialització, a evitar possibles biaixos, almenys en aparença. L’edatisme, en canvi, continua sent culturalment acceptable, especialment en l’àmbit digital. I, per tant, no activa alarmes, ni advertiments, ni correccions automàtiques. Dit d’una altra manera, en el món digital, sabem que determinats discursos sobre les dones o els homes no s’han de fer perquè són políticament incorrectes; però continuem produint, reproduint i programant moltes afirmacions esbiaixades sobre les persones grans sense qüestionar-les.

 

Assistència per a uns, ‘tips’ per a altres

 

El segon gran resultat té a veure amb com els xatbots descriuen les seves pròpies funcions segons qui les utilitza. I aquí apareix un altre doble estàndard, aquest cop relacionat amb la seva utilitat. Quan parlen de persones joves, la IA generativa destaca funcions com ara la creativitat, l’aprenentatge, l’entreteniment o la producció de continguts. A les persones joves, els ofereixen tips, és a dir, consells. Quan parla de persones grans, en canvi, el llenguatge canvia: apareixen termes com ara assistència, simplificació, ajuda, sovint associats a salut, acompanyament o a dificultats tecnològiques.

 

La mateixa acció –buscar informació, fer servir una eina digital– la interpreten de manera diferent: els joves «exploren» o «creixen»; les persones grans «necessiten suport». És un exemple clar del que coneixem com a edatisme benèvol: no necessàriament hostil, però sí paternalista i limitador.

 

Amb el gènere s’observa una dinàmica similar. Les consultes de les dones s’associen a cures, salut emocional o dinàmiques familiars; les dels homes, a finances, tecnologia o estratègia. Són estereotips de gènere reciclats en format algorítmic.

 

La IA no crea els biaixos, però els amplifica

 

Els nostres resultats no indiquen que les IA generatives tinguin prejudicis per si mateixes. Al cap i a la fi, són màquines programades per humans i nodrides per continguts que, almenys fins ara, els han generat els humans. Posen en evidència, però, que la IA generativa aprèn de dades, discursos i pràctiques socials ja existents. Si l’edatisme és invisible en la societat, també ho serà en aquests sistemes, que reprodueixen tant els valors de qui ha creat les màquines com els valors dels continguts a partir dels quals aprenen.

 

El problema és que, en reproduir aquests imaginaris amb una aparença d’objectivitat, la IA generativa té el poder de consolidar i amplificar desigualtats. Quan una màquina associa sistemàticament la vellesa amb dependència i la joventut amb competència, està participant activament en la construcció d’una realitat social esbiaixada, i està promovent la injustícia algorítmica.

 

Per això és insuficient pensar la IA generativa com un fenomen únicament tècnic. Cal entendre-la com el que és: un mirall sociotècnic que reflecteix –i reorganitza– les nostres jerarquies culturals.

 

Fer visibles aquests biaixos és el primer pas per qüestionar-los. També en l’era de la IA generativa, l’edat importa. Ara bé, la discriminació per edat en el món digital és un dels biaixos menys estudiats, i amb aquesta recerca contribuïm a analitzar un fenomen que, per sort, cada vegada desperta més interès, com ja hem vist en alguna contribució prèvia en aquesta mateixa revista (Rosales i Linares-Lanzman, 2024).

 

Declaració d’ús IA generativa:

Per a l’elaboració d’aquest text, s’ha emprat ChatGPT. Les autores són les úniques responsables del text lliurat.

 

Nota:

Una versió d’aquest article està disponible també en italià.

 

Per saber-ne més:

BELOTTI, Francesca; FERNÁNDEZ-ARDÈVOL, Mireia; BOZAN, Veysel; COMUNELLO, Francesca; MULARGIA, Simone (2026). «Double standards of generative AI chatbots: Unveiling (digital) ageism versus sexism through sociological interviews». Big Data & Society, vol. 13, no. 1. DOI: https://doi.org/10.1177/20539517261419407

ROSALES, Andrea; LINARES-LANZMAN, Juan (2024). «Sí, les ‘apps’ de cites discriminen als usuaris grans». COMeIN Revista dels Estudis de Ciències de la Informació i de la Comunicació, no. 142. DOI: https://doi.org/10.7238/c.n142.2425

 

Imatge de Portada:

Il·lustració creada per image_gen a partir del text de l’article. Font: ChatGPT (1-3-2026).

 

Citació recomanada

FERNÁNDEZ-ARDÈVOL, Mireia; BELOTTI, Francesca. «Quan la IA generativa és ‘políticament correcta’… però només a mitges». COMeIN [en línia], febrer 2026, no. 162. ISSN: 1696-3296. DOI: https://doi.org/10.7238/c.n163.2618

intel·ligència artificial;  edatisme;  recerca;  cultura digital;