Número 71 (noviembre de 2017)

'Homo Facebookis': ventanas conceptuales, posverdad y burbuja algorítmica

Pablo Lara

Es cada vez más frecuente encontrarnos en las redes sociales con mensajes que consideramos, a nivel individual y personal, como tóxicos. Antes de reaccionar delante de estos contenidos con alguna señal, ya sea mostrando agrado o, en caso contrario, desagrado, es necesario disponer de aquellos famosos cien segundos de respiración profunda.  

Algunos coaches indican que solo cuatro segundos bastan para tomar una decisión importante, en este caso creemos insuficiente el tiempo propuesto, debido al incesante bombardeo al emisor (lector) para emitir un juicio rápido delante de un post que puede ser considerado como incendiario, injurioso, insultante… Es de tal magnitud la presión psicológica que es insoportable el retraerse de contestar impulsivamente.
 
¿Por qué tenemos esa presión?, ¿qué nos hace ser impulsivos?, ¿por qué nos sentimos atacados?
 
Esta presión e incapacidad de esperar y pensar las consecuencias se debe a diferentes circunstancias que explicaremos más adelante (ventanas conceptuales, posverdad y filtro burbuja), pero se enfatiza y afecta principalmente a personas que en algún momento adoptan rasgos de una especie que en este artículo denominaremos Homo Facebookis
 
El Homo Facebookis se caracteriza por la incontinencia de contestar delante de un comentario general en la red que no está dirigido a él personalmente y que este considera que atenta contra su verdad/razón. Incluso podemos afirmar que existen ciertos perfiles que consideran que deben expresar y propagar su mensaje en las redes sociales, cuando estos no son relevantes en sus grupos sociales más cercanos (familiar, de amistad, del trabajo). En resumen, el Homo Facebookis opina sin ser preguntado, y además este expone su limitación de razonamiento frente a situaciones complejas y deja evidencias de su incoherencia respecto a otros momentos o situaciones futuras de su vida personal y profesional. Conviene alertar de que en las redes no existe el derecho al olvido de forma natural. Recordemos que fue necesario crear unas normas de derecho al olvido en las redes sociales por la Unión Europea. 
 
 
¿Qué sucede en las redes sociales para alcanzar el estado Homo Facebookis? Podemos establecer que está basado en tres conceptos: los marcos o ventanas conceptuales, la posverdad y la burbuja algorítmica.
 
1. Marcos o ventanas conceptuales 
El marco conceptual es una de las piedras angulares en la generación de los mensajes difundidos en las redes sociales. Consiste en generar un discurso que interactúe con la forma de pensar de un colectivo y que las palabras filtren de forma inconsciente y natural para establecer una relación de afinidad entre emisor y receptor validando la argumentación sin necesidad de razonamiento.
 
El autor Lakoff, en el libro No pienses en un elefante establece un relato de cómo actúan los think tanks para inculcar una idea política. Según Lakoff, la generación de marcos conceptuales permite «activar estructuras mentales inconscientes, que mueven nuestros comportamientos y nos impiden atender a la racionalidad de nuestros intereses, o a los meros datos de la realidad».
 
2. Posverdad
Es un tema que daría para escribir muchas páginas y es la siguiente pieza del engranaje. Se basa en construir un argumento que convence al interactuar directamente con las emociones. Según Wikipedia, la posverdad «describe la situación en la cual, a la hora de crear y modelar opinión pública, los hechos objetivos tienen menos influencia que las apelaciones a las emociones y a las creencias personales». Se resume como la idea de que «el que algo aparente ser verdad es más importante que la propia verdad». Por este motivo es tan importante el punto anteriormente señalado de los marcos conceptuales que den cabida a las medias verdades, presunción de culpabilidad, manipulación de las fuentes de información, entre otras.
 
Las mentiras como tales son fáciles de destapar y señalar, el problema se agrava cuando son medias verdades, es decir, ocultan una parte del relato que podría cambiar el sentido de aquello que se expresa. Actualmente en las redes sociales están hiperexplotadas las medias verdades. Consiste en seleccionar las palabras, imágenes y aplicarlo en nuestro contexto, omitiendo información relevante que podría hacer tambalear que esas palabras o imágenes se corresponden a un contexto opuesto y que se ha omitido intencionadamente.
 
Por otro lado, las fuentes, ya sean datos y/o información son la base de esta posverdad. La construcción de un relato viene dada por la información que recibe y aquella que el receptor sabe. Delante de este bombardeo solo se escoge aquella que no modifica nuestro criterio. Ya en 1979 el autor Mocovici afirmaba que la «multiplicidad y desigualdad cualitativa entre las fuentes de información, en relación a la cantidad de campos de interés, vuelven precarios los vínculos entre los juicios y, en consecuencia, compleja la tarea de buscar todas las informaciones y relacionarlas».
 
3. Burbuja algorítmica
Las redes sociales con sus algoritmos son responsables de aquello que leemos, escuchamos y vemos. Nos generan una burbuja de intereses pues conocen nuestras preferencias, nuestras amistades, nuestros gustos, nuestros pensamientos… y alimentan esas preferencias para que no las abandonemos. 
 
El autor Pariser afirma que «cada uno de nosotros vive en un universo de información personalizada, una burbuja a la que solo acceden las noticias que se ajustan a nuestros intereses y preferencias, limitando la exposición a ideas, opiniones y realidades ajenas».
 
Para ello recordemos la campaña de EE. UU., cuando el algoritmo determinaba el perfil de votante la información que le mostraba era diferente y siempre a favor del pensamiento del perfil político, generando una burbuja de información. 
 
 
En España se estima que existen 22,13 millones de usuarios de Facebook. Si utilizamos la regla de Pareto del 80-20 e imaginamos que solo el 20% publica y solo una vez al día serían 4,43 millones de mensajes. ¿Cómo es que solo recibimos recomendaciones de aquello que nos interesa?¿Cómo podemos indicar que es mayoritario el pensamiento? 
 
Los comentarios solo son recomendaciones del algoritmo de Facebook. Es decir, el gran amigo Facebook destaca y recomienda contenidos en los cuales mostramos interés, sin detenerse a averiguar sin son falsos o medias verdades. Las redes sociales viven de mover información, que muestran según patrones de aprendizaje (machine learning) creando una burbuja que hace más lejanos e inaccesibles los puntos de vista diferentes.
 
A modo de conclusión: las ventanas conceptuales, la posverdad y la burbuja algorítmica atacan directamente a nuestro sentido de la percepción y convierten en verdad todo aquello que coincide con nuestro sentimiento.
 
Es difícil imaginar la exposición de nuestro mensaje en la redes sociales cuando comentamos o expresamos nuestro pensamiento más vulnerable. Para ello, debemos tener en cuenta que los ciberciudadanos no son iguales ante las redes sociales, y pueden ser clasificados por razón de nacimiento, raza, sexo, religión, opinión (política, social, afectiva…) o cualquier otra condición o circunstancia personal o social que favorezca el consumo de información y, en consecuencia, ayude a enriquecer las arcas de los propietarios de las redes sociales.
 
Para saber más:
 
Grijelmo, Á. (2012). La información del silencio. Cómo se miente contando hechos verdaderos. Taurus.
 
Moscovici, S. (1979). El psicoanálisis, su imagen y su público. Buenos Aires: Amorrut.
 
Rubio Hancock, J. (2017). “De la red social a la burbuja social: por qué todo el mundo te da la razón en Facebook”. Verne. El País
 
Lakoff, G. (2017). No pienses en un elefante. Atalaya.
 
Pariser, E. (2017). El filtro burbuja: cómo la web decide lo que leemos y lo que pensamos. Taurus.

 

Cita recomendada

LARA, Pablo. 'Homo Facebookis': ventanas conceptuales, posverdad y burbuja algorítmica. COMeIN [en línea], noviembre 2017, núm. 71. ISSN: 1696-3296. DOI: https://doi.org/10.7238/c.n71.1767

medios sociales;  gestión de la información; 
Números anteriores
Comparte