Secciones
Servicios
Destacamos
El viernes 8 de noviembre, antes del día de las elecciones y a punto de comenzar la jornada de reflexión, en la que teóricamente se prohíbe la difusión de mensajes políticos, algunas de las etiquetas más utilizadas en Twitter hacían referencia a un pucherazo de Pedro Sánchez. El sistema para difundir esto empieza a ser habitual. Una legión de cuentas falsas, con bots que repican automáticamente una serie de mensajes determinadas, empieza a difundir el bulo, que acaba retuiteado por personas corrientes que lo lanzan, por Whatsapp, Facebook y otros medios, hacia sus amigos y seguidores virtuales. «Todos los partidos utilizan bots», contaba la investigadora de la Universidad de Valladolid Dafne Calvo en este otro podcast.
«Los bots políticos son aquellos que nacen con un interés partidista o político concreto, que pueden hacer el boicot a un candidato determinado, o marcar agenda creando debates que interesan a la gente que los programa, o puede ayudar a visibilizar y dar importancia a una cuenta concreta, siguiéndola o retuiteando sus mensajes». Pueden convertir en tendencia una etiqueta, por ejemplo. O anegar la red de ruido para tapar otros mensajes. Suman 'retuits' a mensajes de políticos determinados.
«Los bots facilitan los procesos de desinformación, porque ayudan a la viralización de los bulos, pero además, al cruzarse con perfiles segmentados, son capaces de orientar estas noticias partidistas y polarizadas hacia las personas que son susceptibles de creérselas», añade Dafne Calvo.
De nuevo emerge aquí el asunto de la segmentación del público, a partir de sus datos, para influir de un modo más marcado en su opinión o en las acciones que vaya a emprender, como vimos en el episodio anterior.
Vuelve a difundirse un vídeo en el que se dice que Pedro Sánchez está haciendo un pucherazo en el voto por correo, pero es de 2015 y está relacionado con el PP de Melilla. No te lo creas: https://t.co/TBDrdMKhnl pic.twitter.com/FD2FeAQA9g
Newtral (@Newtral) November 8, 2019
Por si fuera poco, se añade otra variable a la ecuación. Si acudimos a Twitter podemos detectar con facilidad qué cuentas y de qué tipo están hablando sobre el presunto «pucherazo de Pedro Sánchez». Perfiles sin foto, con el nombre de usuario por defecto, que solo retuitean o publican con emoticonos mientras citan otro tuit... Síntomas de que ahí hay bot encerrado. Pero hay lugares en los que no podemos adentrarnos si no tenemos invitación. Esto es: grupos de Whatsapp, páginas cerradas de Facebook… Lugares en los que la difusión de bulos se hace a espaldas de cualquier ojo crítico. Es cierto que hay quienes denuncian este tipo de páginas y que se cierran, pero también es verdad que volver a reabrirlas, o inaugurar otras similares, es igualmente sencillo.
Noticia Relacionada
Algunas de estas páginas difusoras de bulos y patrañas cobran apariencia, además, de medios de comunicación, con titulares sesgados en los que omiten datos relevantes o con un lenguaje soez y ofensivo. La colaboración de algunos verificadores con Facebook ha permitido eliminar muchos de sus contenidos falsos, que se compartían con fluidez en esta red social.
La labor de los bots consigue llevar a la conversación real temas que no formaban parte de ella. Pero hay otro aliado poderoso para la difusión de todo tipo de patrañas, especialmente las que tienen que ver con las pseudociencias: los algoritmos.
Kevin Slavin explica en este vídeo TED cómo los algoritmos configuran cada vez más el mundo que vemos. Interpretan los gustos, las aficiones y las ideas de cada cual y sugieren un cierto contenido. ¿Qué pasará cuando predigan si una película funcionará o no antes de que se haga?.
Estos mismos algoritmos juegan en contra del usuario en el asunto de los bulos. Un caso que lo ejemplifica es el de los vídeos que tratan de demostrar que la Tierra, en realidad, es plana y no esférica, y que todo obedece a un supuesto complot universal –no se sabe con qué fin, eso sí– para engañarnos. Un tal Oliver, con 400.000 suscriptores en su canal de Youtube, es uno de los propagadores de estas tesis, e incluso se ha animado a escribir un libro sobre el tema. Sus teorías se desmontan fácilmente con unos mínimos conocimientos, pero el lenguaje que utiliza, las imágenes y los argumentos pueden resultar convincentes para un profano con pocas ganas de buscar explicaciones. Si ves sus vídeos y te suscribes a su canal, pronto empezarás a recibir sugerencias de otros vídeos similares que, a su vez, te conducirán a más contenidos de la misma índole. De ahí los algoritmos te acabarán por derivar a algún vídeo en el que se enlazarán grupos de Facebook sobre la Tierra plana, y el algoritmo de Facebook identificará que esos son tus gustos y te mostrará cada vez más comentarios, posts y vídeos sobre ello.
Aquí entran en juego otros componentes. Y tienen que ver con algo que no es nuevo, sino que se conoce desde hace mucho tiempo en el terreno de la comunicación: las teorías de la información.
Una es la 'agenda setting', o quién es el que decide qué temas nos interesan. Antes eran los periodistas, los directores de programas de radio o televisión. Personas que, por encima del clic, consideran que debes informarte además de lo que ocurre en Siria, aunque te pille muy lejos y teóricamente no te importe demasiado. Ahora son los algoritmos, con los efectos que explicábamos antes.
Otra de estas teorías es la de los usos y gratificaciones. En resumen, dice que tendemos a confiar en un determinado medio de comunicación, por ejemplo, porque nos satisface. Coincide con nuestra ideología, por ejemplo, y eso nos 'gratifica'. Dicho en simple: si eres del Barça no compras el Marca, sino el Sport. Del mismo modo actúan las redes sociales. Los 'me gusta' nos reconfortan y reafirman nuestra manera de pensar. Y a partir de ahí configuramos quiénes forman parte de esa red social, llevando los usos y gratificaciones al extremo. Cerramos la entrada a los tuiteros que piensan diferente a nosotros, seguimos únicamente a los 'nuestros'.
La tercera teoría es la espiral del silencio. Si la mayoría parece pensar de una determinada manera, quienes opinan de otro modo tienden a guardar silencio para no convertirse en la nota discordante. Llevado a las redes sociales, de nuevo, si es tendencia la crítica a un cantante, no nos posicionaremos a su favor salvo que seamos presidentes del club de fans y lo ponga en nuestra bio.
Todas estas cuestiones se unen en las redes sociales y nos llevan a lo que Eli Pariser llama 'el filtro burbuja'. Empiezo a seguir solo a aquellas personas que piensan como yo, bloqueo aquello que me disgusta porque contraviene mis ideas y poco a poco creo un ecosistema que reafirma continuamente mis creencias y me radicaliza en ellas. Si a eso le uno el funcionamiento de algoritmos como el de Youtube, que me recomiendan continuamente vídeos similares a los que ya he visto y me han gustado, mi burbuja es cada vez más cerrada hacia el exterior. En ese contexto, sucumbir a los bulos es muchísimo más sencillo. El pensamiento crítico del individuo se anula.
Noticia Relacionada
Noticia Relacionada
Noticia Relacionada
¿Ya eres suscriptor/a? Inicia sesión
Publicidad
Publicidad
Mikel Labastida y Leticia Aróstegui (diseño)
Óscar Beltrán de Otálora y Gonzalo de las Heras
Esta funcionalidad es exclusiva para suscriptores.
Reporta un error en esta noticia
Comentar es una ventaja exclusiva para suscriptores
¿Ya eres suscriptor?
Inicia sesiónNecesitas ser suscriptor para poder votar.