Volvía hace unas semanas de un congreso relacionado con la divulgación científica donde habíamos estado tratando, como uno de los temas relevantes, el uso de la inteligencia artificial (IA) generativa. Pensaba, no por primera vez, que su capacidad –no solo como herramienta ofimática, sino como fuente de información y tratamiento de datos– podía ser una gran aliada para la investigación. Pero, como con cada ganancia tecnológica, hay que darle la vuelta y plantearse qué consecuencias puede tener y si son las que queremos (o cómo podemos revertir aquello que no podemos controlar). Pero vayamos por partes.
En los últimos años, la IA generativa ha irrumpido con fuerza en el ámbito académico, ofreciendo nuevas posibilidades para la producción de conocimiento. Su capacidad para procesar grandes volúmenes de información, generar texto coherente y agilizar la redacción ha suscitado tanto entusiasmo como preocupación. Uno de los principales dilemas que plantea esta tecnología es cómo afecta a la producción científica: ¿tendría que servir para hacer mejor ciencia o solo para hacer más? ¿Ya es esto lo que quieren (o queremos)?
En efecto, hay una posibilidad real de que la IA generativa se convierta en un acelerador de la hiperproducción académica, alimentando una burbuja de contenido que no contribuya significativamente al conocimiento. Si hasta ahora queríamos o podíamos hacer dos o tres artículos de impacto cada año, ¿la IA generativa nos permitirá hacer cuatro o cinco? En este artículo defendemos que su auténtica utilidad rae en la mejora de la calidad del trabajo científico, no en el aumento exponencial del número de publicaciones. Mejor que sean igualmente dos o tres, pero mejores, con más impacto, con más profundidad y que puedan ser referentes para nuestra comunidad. Esta reflexión, que no es sencilla, nos interpela sobre nuestra medida del éxito académico y es, de hecho, paralela a la que también ha suscitado la aplicación de los criterios y cimientos de la ciencia abierta a las políticas científicas, que tiene que servir para mejorar la accesibilidad y la calidad de la investigación, pero no para inundar el ecosistema académico con documentos de baja relevancia, con el riesgo de que se aporte más ruido documental que calidad.
Debemos tener en cuenta, como contexto, que la academia hace tiempo que sufre la conocida dinámica de «publicar o morir», según la cual la cantidad de publicaciones a menudo pesa más que su impacto real. La IA generativa podría agravar esta tendencia (reflejada en la imagen de debajo) al permitir a los investigadores generar más artículos con menos esfuerzo, pero sin necesariamente mejorar ni la profundidad ni la relevancia. Cómo decíamos, si hasta ahora un investigador publicaba dos artículos al año, con la ayuda de la IA podría llegar a cinco, pero esto no significa que estos cinco artículos aporten más conocimiento que los dos anteriores.

‘The evolution of academia’
Fuente: Pedromics/Facebook
IA y ciencia abierta en la dicotomía calidad-cantidad
En ciencia, como en la música, la reiteración excesiva sin una aportación significativa puede convertir el discurso en ruido. Si nos centramos en producir más, sin garantizar que lo que producimos sea mejor, corremos el riesgo de llenar las revistas científicas de versiones redundantes de una misma idea, con variaciones mínimas y con un valor real muy limitado.
La experiencia en la implementación de la filosofía de la ciencia abierta nos ofrece un paralelo claro. En teoría, su finalidad es democratizar el acceso al conocimiento y mejorar la calidad de la investigación mediante la transparencia y la colaboración. Sin embargo, la apertura indiscriminada de datos y publicaciones sin mecanismos de control de calidad podría dar lugar a un volumen ingente de información que no siempre resulta ni útil ni fiable.
El mismo riesgo existe con la IA generativa: si se usa para automatizar la generación de textos sin una reflexión profunda, se corre el peligro de crear un ruido académico similar al que se puede encontrar en algunos repositorios de ciencia abierta donde la cantidad (y la obligatoriedad de estar en ellos, por lo demás necesaria) prima sobre la calidad. El acceso abierto tiene que servir para ofrecer mejor ciencia, de mejor calidad, no solo más ciencia, del mismo modo que la IA generativa tendría que ayudar a hacer artículos más rigurosos y muy argumentados, no solo a escribirlos más rápido.
En este sentido, si queremos que la IA generativa sea una aliada para la ciencia, quizás habría que adoptar un nuevo paradigma en el que la calidad prevalezca claramente sobre la cantidad, donde el impacto y no el peso forme parte del pacto y del consenso. Esto implica redefinir los criterios de evaluación académica, incentivando el valor real de una contribución científica en vez del simple recuento de publicaciones. Quizás no hace falta una redefinición tan clara (y tan costosa) como la que ha afectado al factor de impacto como medida de las cosas, pero sí para ajustar a la baja el impacto de la IA generativa.
Este cambio de mentalidad ya se empezó a manifestar en iniciativas como la Declaración de San Francisco sobre la Evaluación de la Investigación (DORA), que promueve la valoración del trabajo científico basándose en su contribución real y no en métricas cuantitativas secundarias, como sería el continente del artículo y no el contenido, como poco a poco se empieza ya a considerar. Una aplicación responsable de la IA generativa tendría que encajar en esta visión, ayudando a los investigadores a producir estudios más sólidos, mejor argumentados y con un impacto real en la comunidad académica.
Así pues, la IA generativa tiene un gran potencial para mejorar la ciencia, pero solo si se utiliza con la intención de hacerla mejor y no simplemente más abundante. Igual que con la ciencia abierta, el objetivo tendría que ser aumentar la calidad, la transparencia, la reproductibilidad y el rigor de la investigación, en vez de generar un volumen incontrolado de contenido académico.
Escuchando de nuevo la canción Slowly del gracienc Aute, me recuerda aquella idea del ritmo lento, y me viene a la mente que esto ya lo había pensado en algún momento. Finalmente, me viene un recuerdo, sí, ya había pensado algo parecido. Busco en la memoria digital de COMeIN y sí, hace doce años, apostaba por el slow publishing. Continuaremos apostando por ello.
Imagen de portada:
Ilustración de Pixabay/Pexels.
Citación recomendada
LÓPEZ-BORRULL, Alexandre. «La inteligencia artificial generativa: una herramienta no para hacer más ciencia, sino para hacerla mejor». COMeIN [en línea], abril 2025, no. 153. ISSN: 1696-3296. DOI: https://doi.org/10.7238/c.n153.2530