Número 99 (maig de 2020)

'Fake news' y coronavirus (y II): las redes sociales ante la desinformación

Alexandre López-Borrull

Conforme la crisis de salud pública provocada por la COVID-19 ha ido avanzando, la desinformación se ha convertido en un elemento central en el debate social, científico y, sobre todo últimamente, político. Así como hace unos días en un artículo en esta misma revista tratamos de arrojar un poco de luz sobre el tipo de rumores falsos que se difundían y el posible perfil de las personas que los generaban, en este de hoy –acabado de redactar el 4 de mayo (estos días hay que contextualizar más que nunca)– trataremos de dar ejemplos de la respuesta a la desinformación.

Nos interesan sobre todo los actores que más responsabilidad y respuesta pueden tener en la lucha contra la difusión de información falsa: las grandes plataformas tecnológicas, en concreto las cinco principales redes sociales generalistas (Facebook, Twitter, YouTube, WhatsApp e Instagram) y añadimos el buscador entre buscadores, Google, con una visión eurocéntrica.

 

Plataformas, modelos de negocio y modelos de servicio público

 

Hay que recordar una y otra vez que las redes sociales son entornos digitales privados donde hay unas reglas, así como unos derechos y unos deberes (las plataformas, también). Así, las compañías pueden establecer sus propias normas de funcionamiento, pero estas no pueden nunca contradecir las leyes que rigen un determinado territorio, que son siempre de aplicación. Sí, en este contexto ya hace tiempo que también se sabe que internet es una suma de territorios (con sus leyes) que intercambian información y la hacen circular de jurisdicción a jurisdicción. Pues bien, a nivel general lo primero que hay que considerar –como repito a menudo– es que la verdad no es el modelo de negocio de las plataformas, sino que lo es el engagement, la fidelización y la creación de comunidad, pues es a través de estos por lo que los usuarios se vuelven más y más activos. En este estadio es cuando más confianza cogen en la herramienta y comparten más contenidos, aspecto clave para que los usuarios entren y lo hagan de forma repetida.

 

Por lo tanto, es un pez que se muerde la cola. Si no hay información nueva y que no se puede encontrar en ningún otro lugar, deja de tener interés para otros usuarios, que ya no entran, no comparten nuevos contenidos y, a la vez, no generan interacciones con otros contenidos. Así, poco a poco, como aquel bar que parecía el más cool, deja de estar de moda y la gente se pasa esporádicamente, y lo hace en una forma que ya no permite generar la misma actividad económica. Recordemos MySpace. En toda esta visión, la experiencia es la fuerza motriz y la desinformación, una amenaza a futuro. Sin embargo, siguen siendo muchos los estudios que dicen que la gente se informa habitualmente en las redes sociales. Como decíamos, la presencia de desinformación no hará sino alejar a los usuarios, los anunciantes y la verdad.

 

Teniendo todo esto muy presente, ya desde el principio Google, Twitter y Facebook participaron en 2018 en el grupo de alto nivel en fake news y desinformación en línea de la Comisión Europea, grupo en el que participó desde el primer momento Clara Jiménez Cruz (Maldita.es). De aquel grupo y el trabajo dentro de la Comisión Europea salió un documento clave de 2018, La lucha contra la desinformación en línea: un enfoque europeo, que marca la hoja de ruta. La publicación del documento señala unas obligaciones por parte de las tecnológicas, a las que se pide un compromiso activo para poder ser corresponsables en la lucha contra las fake news.

 

Código de prácticas en desinformación, un paso firme en el ámbito europeo

 

Posteriormente, de ese trabajo surgieron un código de prácticas en desinformación, unos estándares de autorregulación voluntarios a los que se añadió desde el primer momento Google, Facebook, Twitter y, más adelante, Microsoft, entre otros. De los compromisos, se muestra la adhesión al código y una hoja de ruta por parte de cada empresa sobre cómo llegar. Gracias a aquel trabajo realizado se pusieron sobre la mesa cinco compromisos clave: 1) analizar la ubicación de anuncios; 2) mejorar la transparencia de la publicidad política; 3) reforzar la integridad de los servicios, haciendo especial hincapié en las campañas de desinformación, el uso masivo de bots y las cuentas falsas; 4) empoderar a los consumidores para mayor pluralidad de contenidos; 5) reforzar los ámbitos de investigación en colaboración con el mundo de la investigación.

 

De aquella aplicación del código y de lo que están haciendo actualmente las grandes plataformas en relación con la crisis del coronavirus, quisiera destacar las siguientes acciones:

 

a) Compromiso claro y explícito para luchas contra la infodemia

 

En un gesto inequívoco, las principales plataformas (ver la firma en la figura 1) hicieron una declaración conjunta de la seriedad con la que se toman la desinformación y su voluntad de trabajar en coordinación con las agencias gubernamentales de salud de los Estados. Cabe decir que, desde el principio, la OMS ha estado colaborando con varias empresas del sector, justo desde el momento que anunció que había dos graves peligros: la pandemia sanitaria y la infodemia provocada por la sobreabundancia de información, mucha de la cual era falsa. También en EE.UU. se ha informado de reuniones entre el Gobierno y las principales plataformas para generar sinergias.

img-article1-alopezbo99 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Figura 1: Declaración conjunta sobre la COVID-19 de plataformas y redes sociales. Fuente: https://twitter.com/fbnewsroom/status/1239703497479614466 

 

b) Tener enlaces claros con información de calidad

 

Una de las formas más eficaces para la combatir la desinformación es gestionar tú mismo contenidos de valor y veracidad. Así, por ejemplo, Facebook ha creado el Coronavirus (COVID-19) Information Center, que se puede seguir y que abastece de contenidos verificados (ver figura 2) y recomendaciones. Por ejemplo, para ubicación enlaza a la web del Ministerio de Sanidad y el Departamento de Salud de la Generalitat.

img-article2-alopezbo99

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Figura 2: Portal del Coronavirus Information Center de Facebook. Fuente: https://www.facebook.com/coronavirus_info/?page_source=bookmark 

 

c) Reconducir búsquedas sobre la COVID-19 a sitios verificados

 

En el caso de Google, de forma excepcional, lo que hace es generar un portal de respuesta en el caso de las búsquedas más habituales con relación a la enfermedad. Así, abastece de contenidos, envía a contenidos geolocalizados de la Administración y medios de comunicación destacados, de forma que se haga más difícil que se prioricen contenidos no fiables.

img-article3-alopezbo99 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Figura 3: Captura de una búsqueda en Google. Fuente: Google

 

d) Preservando la desinformación para entender mejor el futuro

 

El pasado 22 de abril, en una iniciativa muy interesante, más de 75 organizaciones y personas hacían una petición pública conjunta liderada por el Center for Democracy & Technology en las plataformas para que se preserve todo aquel contenido que haya sido moderado de forma automatizada. Según la llamada, se entiende que la crisis necesita información precisa, pero que también el contraste de contenidos y la propia dinámica del conocimiento científico hará muy difícil entender la crisis con parte de los contenidos borrados. También afirman que la crisis es una oportunidad global y relevante para entender cómo fluye la información (sobre todo la desinformación) y de qué forma se puede combatir. A la vez, piden que haya informes transparentes de lo que se está borrando y los motivos.

 

Desde mi punto de vista, Twitter ha mostrado un alto compromiso de transparencia y apertura. Ha ido dando información de las cuentas detectadas y borradas. A principios de abril afirmaba que había identificado cerca de un millón y medio de cuentas sospechosas de haber manipulado información sobre el coronavirus. Recientemente, ha declarado que abrirá sus datos para que se puedan estudiar los tweets sobre la COVID-19.

 

e) Hacer más difícil la viralización de contenidos y apostar por grupos de verificación

 

En cuanto a comunicación política, podemos decir que este ha sido uno de los episodios más relevantes. Como sabemos, WhatsApp puso más difícil la viralización de contenidos con el fin de detener aquellos que fueran falsos. Recordemos que estudios como el de Vosougui y otros ya decían en 2018 que, en épocas de inseguridad, los contenidos falsos corren más y más rápido. Para intentar ralentizarlos, WhatAspp ha puesto dificultades a que se reenvíen contenidos de forma indiscriminada. Esto lo hizo a nivel mundial unos días después de que el Gobierno español se refiriera a ello como una necesidad.

 

Este hecho, junto con que la matriz Facebook (Facebook, Messenger, WhatsApp, Instagram) apueste por trabajar con verificadores como Newtral o Maldita han hecho que VOX aprovechara para denunciar la censura y pidiera pasar a Telegram a los usuarios de sus redes y canales. Personalmente, después del episodio donde cerraron unos días su cuenta de Twitter, creo que es algo que ya querían llevar a cabo para ir a herramientas con menor control y menos focos por parte de los Estados, para poder seguir estando en el límite entre la libertad de expresión, la calumnia y la desinformación.

 

Lo más problemático de esta situación es que situaría a los dos principales grupos especializados en verificación (Maldita, Newtral) fuera de la neutralidad y con un sesgo ideológico. Sin duda, un problema para el ecosistema de medios y verificadores.

 

f) Eliminar, eliminar y eliminar contenido no verificado, sesgado o directamente falso

 

Algoritmos y curadores de contenidos de las plataformas han hecho un trabajo ingente para borrar todo lo que podía conducir a tomar decisiones erróneas y contraproducentes para la salud. En este sentido, destacaría que YouTube ha ido borrando vídeos con falsas curas, teorías de la conspiración y desinformación en general. En el ámbito catalán, hay que destacar que actuó a petición del Consejo del Audiovisual de Cataluña contra algunos de los vídeos colgados por Josep Pàmies.

 

El problema se hace más complejo cuando también Twitter se ha visto en la necesidad, por sus normas, de borrar tweets del presidente brasileño Bolsonaro y el venezolano Maduro sobre cuidados no verificados. No entro en el debate sobre si Trump debería haber recibido la misma acción, pero sí vale la pena reflexionar a futuro sobre cómo se puede proteger a la ciudadanía si su propio presidente es el que desinforma sobre cuidados o la enfermedad misma.

 

He dejado sin mencionar otras medidas asociadas a donaciones de las empresas o sus ingentemente ricos dueños para centrarme en la parte más asociada a la desinformación. Finalmente, cabe decir que percibo que la preocupación por la desinformación está remitiendo desde que se ha iniciado el desconfinamiento y la gente ha seguido medios de comunicación para tener claro qué, quién, cuándo, y cómo podrá empezar a tener una (nueva, dicen) normalidad. Los aprendizajes que están llevando a cabo las redes sociales y la ciudadanía nos han de dar más y mejores respuestas, porque, aunque la alfabetización mediática e informacional es clave a medio y largo plazo, ahora mismo seguimos necesitando soluciones a corto plazo. Seguiremos reflexionando, aquí y en las redes sociales.

 

Cita recomendada

LÓPEZ-BORRULL, Alexandre. 'Fake news' y coronavirus (y II): las redes sociales ante la desinformación. COMeIN [en línea], mayo 2020, no. 99. ISSN: 1696-3296. DOI: https://doi.org/10.7238/c.n99.2036

comunicación política;  medios sociales;  periodismo; 
Números anteriores
Comparte
??? addThis.titol.compartir ???