La irrupción de la inteligencia artificial generativa (IAGen) ha transformado en tiempo récord la forma como estudiamos, trabajamos y nos comunicamos. Desde el lanzamiento de ChatGPT a finales de 2022, el debate sobre sus implicaciones éticas, educativas y profesionales no ha dejado de crecer. En la educación superior en comunicación corporativa esta tecnología plantea una pregunta crucial: ¿cómo aprovechar su potencial sin renunciar al pensamiento crítico ni a la creatividad humana?
Desde el máster universitario de Comunicación Corporativa, Protocolo y Eventos de la Universitat Oberta de Catalunya (UOC), hemos preguntado al alumnado cuáles son sus percepciones y usos de las nuevas herramientas de IA. Los resultados, publicados en la revista Cuadernos.info, muestran una actitud mayoritariamente positiva, aunque también consciente de sus limitaciones.
Para conocer la opinión del estudiantado del máster universitario de Comunicación Corporativa, Protocolo y Eventos sobre la IAGen, se lanzó una encuesta entre mayo y julio de 2024, un año y medio después de la irrupción de ChatGPT. Se recibieron 127 respuestas de los 322 estudiantes matriculados. Casi la totalidad de los alumnos encuestados (97,6 %) afirmó conocer alguna herramienta de IAGen y más del 70 % ya la había utilizado. ChatGPT encabezó la lista con un 69,3 % de usuarios, muy por delante de otras opciones como Copilot o DALL·E. Otras herramientas, como Perplexity, Midjourney, Runway, Descript, Designer, Fliki y Future Tools, fueron menos conocidas y, en consecuencia, utilizadas con menor frecuencia.
El alumnado comentó que la motivación principal para utilizar estas herramientas es tanto académica como profesional: más de la mitad las usa para mejorar su desempeño laboral, y un 72,4 % cree que en los próximos tres años dominar la IAGen será imprescindible en el sector de la comunicación corporativa y la organización de eventos. Los futuros profesionales, de hecho, perciben la IA como un factor que condicionará su empleabilidad. En esta línea, el reciente estudio de Dircom (2025) también pone de manifiesto que casi el 80 % de los profesionales de la comunicación corporativa en activo considera que la integración ética y efectiva de la inteligencia artificial será el reto principal en los próximos años.
Ventajas evidentes, riesgos latentes
Los beneficios percibidos por el alumnado del máster son claros: el 88,2 % considera que la IAGen les ayuda a ahorrar tiempo, el 80,7 % cree que mejora sus habilidades digitales y el 69,83 % valora su capacidad para aportar ideas nuevas o puntos de vista alternativos. No obstante, este entusiasmo se combina con dosis de prudencia.
La mayoría reconoce que los resultados generados por estas herramientas pueden ser inexactos (90,5 %), sesgados (75,5 %) o carentes de empatía (82,3 %). Y un 32,74 % teme depender en exceso de la tecnología. Curiosamente, los estudiantes con más experiencia en IA son también los más críticos, lo que sugiere que el conocimiento práctico fomenta una mirada más reflexiva.
La alfabetización en IA, un nuevo reto formativo
Estos hallazgos plantean un desafío urgente para la educación superior universitaria: integrar la alfabetización en IA en los planes de estudio. No basta, pues, con enseñar a usar estas herramientas; sino que se hace necesario formar profesionales capaces de entender cómo funcionan estos sistemas, evaluar críticamente sus resultados y aplicar criterios éticos en su uso.
El informe de la Commission on Public Relations Education ya subraya la necesidad de incorporar la IA en la formación en relaciones públicas. Así, se recomienda incluir en la educación de la disciplina competencias digitales, ética de los datos y comprensión del sesgo algorítmico de la IA.
Ante este escenario, prohibir la IAGen no parece realista; en cambio, utilizarla como herramienta de aprendizaje –para fomentar el análisis, la creatividad o la autoevaluación– puede convertirse en una oportunidad en el plano formativo. Esto implica enseñar a formular buenas indicaciones (prompt engineering), analizar críticamente los textos generados, detectar sesgos y distinguir entre información veraz y errores factuales. También focalizarse en el proceso de elaboración de los ejercicios académicos y no solo en los entregables. A nivel ético, también se recomienda aplicar las directrices de las asociaciones y colegios profesionales, que están empezando a incluir menciones sobre el uso correcto de la IA en sus códigos deontológicos.
IA e integridad académica
Los resultados de la investigación muestran una madurez creciente entre el estudiantado del máster: combina el entusiasmo por la innovación con una conciencia crítica de los riesgos. Esta actitud resulta prometedora, ya que indica que el alumnado no busca reemplazar su propio aprendizaje, sino potenciarlo. En paralelo, es importante reforzar la integridad académica, la cual exige garantizar un uso responsable y ético de estas herramientas. Emplearlas de manera inapropiada –por ejemplo, en actividades en las que su uso no está permitido o sin la debida citación en aquellas en las que sí se autoriza– puede constituir una conducta irregular en el marco de la evaluación.
Deberemos acompañar a los futuros comunicadores corporativos en su aprendizaje para gestionar la transparencia y la autoría en este entorno, en el que la IA existe y está impactando las dinámicas de trabajo. El estudio demuestra que el alumnado está preparado para este cambio. Ahora nos toca a los docentes y a la universidad saber acompañarlo.
Para saber más:
ESTANYOL, Elisenda; FERNÁNDEZ-ARDÈVOL, Mireia; LÓPEZ-BORRULL, Alexandre; FERNÁNDEZ-DE-CASTRO, Pedro; COSTA GÁLVEZ, Lola (2025). «Perception and use of generative AI among corporate communication students in higher education: adjusting expectations». Cuadernos.Info, n.º 62, págs. 250–272. DOI: https://doi.org/10.7764/cdi.62.89632
Imagen de portada:
Foto de Pexels / Google DeepMind
Citación recomendada
ESTANYOL, Elisenda. «Aprender a comunicar con la IA generativa: perspectivas desde el máster en Comunicación Corporativa». COMeIN [en línea], noviembre 2025, no. 159. ISSN: 1696-3296. DOI: https://doi.org/10.7238/c.n159.2577



