El Reuters Institute for the Study of Journalism indica que la inteligencia artificial (IA) será una de las tendencias de este 2023. En paralelo, a lo largo de los últimos meses se ha producido una explosión de herramientas de IA, también por parte de la ciudadanía, y como periodistas este hecho nos obliga a profundizar en ello para entender y aprovechar sus potencialidades. En este escenario, entrevistamos a Patricia Ventura, doctora en Medios, Comunicación y Cultura por la Universidad Autónoma de Barcelona, así como consultora y especialista en ética e inteligencia artificial.
Candela Ollé (CO): En el informe Algoritmos en las redacciones: Retos y recomendaciones para dotar la inteligencia artificial de los valores éticos del periodismo (Ventura-Pocino, 2021), publicado por el CIC, señalas que la IA tiene que «colaborar para que el periodismo recupere la centralidad en la definición de la agenda, porque un uso ético de la tecnología también puede contribuir a recuperar la confianza de la ciudadanía, cada vez más consciente de los problemas de la mediación algorítmica». ¿La IA es una amenaza para la profesión o una oportunidad? ¿Crees que la IA será clave para mejorar la confianza y la calidad periodística?
Patricia Ventura (PV): La adopción responsable de la inteligencia artificial (IA) puede contribuir a que el periodismo recupere la confianza, porque el uso ético de la tecnología contribuye a generar confianza. Aun así, puede ser una amenaza si no nos apropiamos de ello con criterio ético. Por ejemplo, la automatización de los contenidos sin supervisión puede dar lugar a contenido sesgado; un exceso de personalización puede desnaturalizar el medio, porque una de las funciones básicas del periodismo es precisamente ofrecer una visión comunitaria sobre temas de interés común; o una mala gestión de los datos personales puede contribuir a minar todavía más la confianza en los medios. Defendemos que la IA puede ser una oportunidad siempre que sepamos cómo ponerla al servicio de la misión del periodismo de calidad.
CO: La primera etapa de digitalización de las redacciones fue durante la década de 1990, pero en los últimos meses ha habido un boom de herramientas de IA. Herramientas que también están teniendo una gran aceptación entre la ciudadanía, más allá de periodistas y comunicadores. Herramientas que incluyen procesamiento de lenguaje natural, transcripción automatizada, análisis de sentimientos, análisis de imágenes y vídeos, chatbots y asistentes de voz, así como visualización de datos. ¿Es imparable el impulso de la IA y el surgimiento continuado de nuevas herramientas? ¿Qué herramientas destacarías y los motivos para ello?
[Según esta información del Colegio de Periodistas de Cataluña, estas son algunas de las herramientas de IA que pueden ser empleadas:
- Procesamiento de lenguaje natural: permite analizar grandes volúmenes de texto, identificar patrones y extraer información relevante. Los nombres comerciales son: NLTK, spaCy y Stanford NLP.
- Transcripción automatizada: ayudan a transcribir automáticamente grabaciones de audio y vídeo, y ahorrar así tiempo. Algunos ejemplos son: Otter.ai, Temi y Descript.
- Análisis de sentimientos: analizan los datos de las redes sociales y otros contenidos en línea para determinar el sentimiento predominante sobre un tema concreto. Por ejemplo, Brandwatch, Hootsuite Insights y RapidMiner.
- Análisis de imágenes y vídeos: detectan imágenes y vídeos manipulados, identifican objetos y a personas en contenido visual, e incluso generan subtítulos y transcripciones. Algunas son: Google Cloud Vision, Amazon Rekognition y Microsoft Azure Cognitive Services.
- Chatbots y asistentes de voz: automatizan algunas de las tareas repetitivas, como responder preguntas frecuentes o preparar entrevistas. Las más conocidas son: Chatfuel, Dialogflow y Alexa Skills Kit.
- Visualización de datos: crean gráficos interactivos y facilitan la comprensión de datos complejos. Por ejemplo, Tableau, Datawrapper y Google Data Studio.]
PV: Últimamente ha habido un boom de herramientas que ya existían, pero no eran tan accesibles, y esto se produce por la democratización del acceso del ChatGPT. Se ha extendido el debate sobre el futuro, sobre qué implicarán estas herramientas en nuestras vidas y sobre los cambios que se producirán. Esto es positivo porque somos más conscientes de ello y nos plantea una serie de debates en el periodismo, la educación, así como en otros muchos sectores afectados.
Ahora que el debate está tan presente, ojalá empecemos a preguntarnos qué sentido tiene la innovación tecnológica que se está llevando a cabo y nos demos cuenta de la necesidad de dotarla de sentido. Y este sentido no puede ser otro que el hecho de que más personas tengan mayores oportunidades y el cuidado del medio ambiente. Debemos preguntarnos hasta qué punto las innovaciones tecnológicas nos ayudan a resolver grandes problemas; quizás no dejarnos impresionar tanto y empezar a liderar culturalmente esta innovación tecnológica. En este nivel pensamos que el periodismo tiene un papel muy importante en la configuración de una ciudadanía crítica.
Todas las herramientas que mencionas tienen un gran potencial y, está demostrado, se usan. Según la investigación realizada, las que más valoran las profesionales de la comunicación son las que liberan de aquellas tareas repetitivas y farragosas, como las transcripciones de las entrevistas. Me interesan especialmente las que ayudan a hacer un periodismo que antes no era posible hacer. Por ejemplo, gracias al procesamiento del lenguaje natural y a otras herramientas, se pudieron llevar a cabo investigaciones como Pandora papers. La IA permitió analizar en tiempo récord una ingente cantidad de documentos, que ocupaban terabytes. Humanamente no hubiera sido posible llevarla a cabo en el tiempo que se hizo. Es un caso muy claro sobre cómo poner la IA al servicio de la misión del periodismo.
CO: ¿Hasta qué punto la personalización puede ayudar a los medios –tanto para recuperar la confianza como para ganar nuevas audiencias–? Hay otros retos y oportunidades. ¿Cuáles destacarías?
PV: La personalización es una de las aplicaciones de la IA que más valora el sector, porque permite ofrecer contenidos más relevantes. Por ejemplo, si una persona nunca consulta las noticias deportivas, pero en cambio no se pierde ninguna novedad literaria, tendrá sentido ofrecerle, en una caja de recomendaciones, o en una aplicación o en un boletín personalizado, algún contenido relacionado con aquello que más le puede interesar. Esto no puede llevarnos a perder de vista, y tratamos de argumentarlo en el informe del CIC sobre cómo hacer una apropiación responsable de la IA, que una de las funciones del periodismo es exponer la diversidad, para que las personas puedan tomar mejores decisiones. Por lo tanto, debemos vigilar y no personalizar hasta el extremo, y esto simplemente significa ofrecer y recomendar contenidos, pero no dejar de mostrar la agenda del día, por ejemplo. En caso contrario, corremos el riesgo de contribuir a ubicar a la ciudadanía en burbujas de información y, por tanto, de contribuir a la polarización y a la fractura social.
CO: Uno de los aspectos claves es el enfoque ético a la hora de utilizar la tecnología en las redacciones. ¿Cuáles son los principales retos éticos sobre el uso de la inteligencia artificial para hacer periodismo? ¿Qué nos puedes decir al respecto? ¿Se está haciendo bien? ¿Qué hay que mejorar?
PV: Algunos ya los hemos mencionado. Pérdida de calidad generalizada ante un acceso de automatización, riesgo de errores en los contenidos o sesgos por una falta de supervisión. Un exceso de personalización (por las razones expuestas en la respuesta anterior), temas relacionados con la privacidad de los datos de nuestras personas usuarias… Tenemos que aprender a manejar más datos y es importante la transparencia para comunicar cómo los usamos. También a la hora de explicar si la IA opera en nuestro contenido. Sobre todo, cuando generamos textos o contenidos audiovisuales con IA. Por otro lado, tenemos el reto de cómo usar la IA para ofrecer productos más éticos, en este sentido, existen ejemplos para verificar la información o detectar los propios sesgos en el producto informativo.
Es curioso, porque hace muchos años que se usan herramientas de IA, pero en los equipos editoriales de los medios de comunicación no existía la conciencia y, por tanto, hay poca reflexión hecha al respecto. Por eso, el informe del CIC es el primero que se ha hecho y se llevó a cabo precisamente para ofrecer herramientas a los medios de comunicación para poder elaborar sus propios códigos de conducta a la hora de adoptar estas herramientas con criterio editorial. Lo que sí que detectamos es mucho interés en hacer las cosas bien, no cabe ningún tipo de duda. El problema es que la IA promete productividad sin fin y la optimización de los procesos, y en nuestro sector, con poco músculo económico, corremos el riesgo de optimizar tanto que acabemos desequilibrando la balanza. Es clave saber cómo se acabará respondiendo a la pregunta sobre si el ahorro que supone la automatización se acabará destinando a hacer un periodismo más humano, que valore la empatía, la relación con las fuentes, el estilo propio, etc. Una de las preguntas clave podría ser cómo lo humano nos puede ayudar a singularizar el producto periodístico. La máquina no funciona en términos de «¿por qué la ciudadanía tendría que saber esto?» o «¿cuál es la pregunta incómoda que tendría que hacer?». Tampoco tiene criterio oral ni percibe el entorno como nosotros. Queda margen para el buen periodismo.
CO: ¿Cuál es, en síntesis, el estado de la cuestión de la IA en Cataluña? Si tienes datos de España, también los puedes comentar.
PV: Ya hace bastantes años que se usa la IA en las redacciones, pero no se ha hablado demasiado hasta ahora de ello. Es común la automatización de publicaciones en las redes sociales, la detección de tendencias de conversación en la red para después identificar temas noticiables; ya hace tiempo que se usa la generación automatizada de textos. Algunos periodistas no han sido demasiado conscientes porque recaen en equipos técnicos.
En Cataluña, se usan en medios más grandes, principalmente, aunque también en locales. Las aplicaciones más comunes son la detección de temas noticiables en la fase previa de creación de contenido, en función de las tendencias que se detectan en la red y después en la fase de distribución, con motores de recomendación y otros que tienen la finalidad de optimizar las suscripciones.
CO: Y, para acabar, ¿cuáles son las recomendaciones para comunicadores, periodistas y medios de IA?
Lo más importante es preguntarnos para qué queremos estas herramientas, y que este «para qué» esté guiado por la misión del periodismo y sus principios éticos. A grandes rasgos, es recomendable supervisar los procesos desde el diseño y velar por la calidad de los datos con los que se alimentan los sistemas. La transparencia resulta fundamental. Hasta donde se pueda, hay que dar a conocer a los usuarios dónde está presente la IA, en especial, en el contenido sintético. También es importante hacer una gestión responsable de los datos, respetar la privacidad de las personas usuarias y ser transparente sobre el modo en que las usamos. Así mismo, es recomendable medir el grado de personalización, porque un exceso podría socavar el pluralismo o perjudicar a personas vulnerables. En el informe del CIC profundizamos en todos estos, y en otros más, aspectos que debemos considerar a la hora de crear un código de conducta propio para la adopción responsable de la inteligencia artificial en el periodismo.
CO: Muchas gracias, Patricia, por concedernos esta entrevista.
El periodismo y los profesionales que lo ejercen se encuentran en otro momento clave, puesto que deben conservar los valores de la profesión, continuar recuperando la confianza de la audiencia y, al mismo tiempo, adaptarse a las novedades que la IA les brinda, para poder hacer información de calidad.
Para saber más:
COLEGIO DE PERIODISTAS DE CATALUÑA (2023, enero). «Tendències i prediccions del periodisme, mitjans i tecnologia pel 2023». Colegio de Periodistas de Cataluña [en línea]. Disponible en: https://www.periodistes.cat/actualitat/noticies/tendencies-i-prediccions-del-periodisme-mitjans-i-tecnologia-pel-2023
COLEGIO DE PERIODISTAS DE CATALUÑA (2023, febrero). «Recursos i eines d'intel·ligència artificial per a periodistes». Colegio de Periodistas de Cataluña [en línea]. Disponible en: https://www.periodistes.cat/actualitat/noticies/recursos-i-eines-dintelligencia-artificial-periodistes
VENTURA-POCINO, Patricia (2021). Algoritmos en las redacciones: Retos y recomendaciones para dotar a la inteligencia artificial de los valores éticos del periodismo. Consejo de la información de Cataluña (CIC) [en línea]. Disponible en: https://fcic.periodistes.cat/wp-content/uploads/2022/03/algorismes_a_les_redaccions_ESP_.pdf
Citación recomendada
OLLÉ, Candela. «Patricia Ventura: “Tenemos el reto de cómo usamos la IA para hacer productos más éticos”». COMeIN [en línea], abril 2023, no. 131. ISSN: 1696-3296. DOI: https://doi.org/10.7238/c.n131.2325
Profesora de los Estudios de la Información y de la Comunicación UOC y project manager de la red Maredata
@CandelaOlle