_
_
_
_
_

Los ‘bots’ contaminaron el 1 de octubre con un millón de tuits

Un nuevo estudio ratifica la campaña de manipulación intencionada con mensajes automatizados masivos en las redes sociales sobre la consulta ilegal en Cataluña

Javier Salas
News stories about the Catalonia independence issue.
News stories about the Catalonia independence issue.

Durante los días críticos en torno al 1 de octubre en Cataluña del pasado año, fecha de la consulta ilegal independentista, la situación social se crispó notablemente y las redes no quedaron al margen. En Twitter se sufrió esta alteración como consecuencia de las decisiones políticas y policiales, pero allí aparecieron unos actores malintencionados para contaminar más el ambiente y echar sal en las heridas, como informó EL PAÍS. Un nuevo estudio ratifica que los bots, cuentas para la difusión masiva automatizada, fueron responsables de una de cada cuatro publicaciones que se produjeron aquellos días. Los mensajes fueron especialmente dirigidos hacia cuentas relevantes de la esfera independentista, con textos cargados de negatividad y con un resultado notable: el grupo partidario de la independencia dirigió hacia los bots cien veces más interacciones que los constitucionalistas. El nuevo estudio se ha publicado este jueves, el mismo día que Twitter ha decidido prohibir la difusión robotizada para evitar la manipulación.

Más información
La red de injerencia rusa sitúa Cataluña entre sus prioridades para debilitar Europa
La trama rusa empleó redes chavistas para agravar la crisis catalana
La gran cizaña de los cíborgs
La oscura utilización de Facebook y Twitter como armas de manipulación política

“Hemos identificado la presencia de una campaña de manipulación basada en bots incluso en el contexto de este destacado evento de agitación social en España”, asegura Emilio Ferrara, de la Universidad del Sur de California, uno de los mayores especialistas en este fenómeno.

Ferrara destapó en noviembre de 2016 el uso rebaños de cuentas automatizadas para contaminar la conversación en Twitter durante la campaña presidencial de EE UU, algo que ahora está fuera de toda duda. Este especialista, que recientemente adelantó el uso de estas prácticas en las elecciones francesas de 2017, asegura que la campaña en torno al 1 de octubre es similar a esas otras operaciones. Su estudio, que ha sido enviado a una revista científica para su revisión por otros especialistas y está ya disponible para ser leído en Arxiv, analizó cuatro millones de tuits procedentes de un millón de cuentas publicados en la red social entre el 22 de septiembre y el 3 de octubre de 2017.

Los bots, estas cuentas que pretenden pasar por humanas, aunque son controladas como rebaños de forma opaca, cargaron desde áreas periféricas de la red social contra personas “influyentes de ambos grupos, sobre todo bombardeando a los independentistas con contenido negativo y violento, manteniendo e inflando la inestabilidad”. “Estos resultados cuantifican la influencia potencialmente peligrosa de bots políticos durante los procesos de votación”, concluyen los autores en su estudio: “Su uso inapropiado puede tener efectos dramáticos”.

Los bots actuaron contra personas influyentes de ambos grupos, "sobre todo bombardeando a los independentistas con contenido negativo y violento"

El esfuerzo por intoxicar la conversación fue notable, dado que los robots produjeron el 23,6% de las publicaciones (casi un millón de tuits), el 19% de las interacciones y, lo más relevante, el 38,8% de las respuestas, “sugiriendo que, durante este evento, los bots prefirieron esta forma de respuestas específicas”. Las respuestas, además de notificarse a la persona aludida, ganan mucha visibilidad si aparecen debajo de tuits con mucha difusión, como sucede con personajes destacados en eventos tan destacados. Estos hallazgos, según los autores, resaltan la “influencia potencial sobre los usuarios humanos ejercida por los agentes controlados por software y por sus programadores ocultos”. Los manipuladores de las máquinas apuntaron estratégicamente: dirigieron su actividad contra los usuarios más conectados, es decir, los que desempeñan un papel más influyente en el sistema.

Pero aunque las cuentas fraudulentas trataron de afectar a ambas facciones, consiguieron influir mucho más en la independentista: hasta 100 veces más, según este trabajo. “Por la forma en que se diseñan los bots, hemos descubierto que los dos grupos no interactúan con ellos de la misma manera. El grupo independentista parece responder al contenido de los bots mucho más que el constitucionalista, lo que significa que está más influenciado por ellos”, explica por email otro de los autores del estudio, Manlio De Domenico, director del CoMuNe Lab.

De Domenico, que trabajó en la Universidad Rovira i Virgili de Tarragona los últimos cuatro años, plantea un ejemplo: “Imagine que otros usuarios le contactan en Twitter y le envían continuamente contenido. Y supongamos que no identifica que esos usuarios son cuentas automatizadas, porque están tan camuflados que parecen humanos. Y entonces comienzas a confiar en el contenido que te envían: esto significa que los bots ejercen cierta influencia sobre usted. En resumen: los bots no viven por sí solos, son controlados por otra persona y, por lo tanto, de forma práctica, aunque indirecta, estás siendo manipulado”. Aunque nos creamos infalibles, las evidencias muestran que algunos bots actuales hacen muy bien su trabajo engañando a la comunidad tuitera.

El esfuerzo por intoxicar fue notable, dado que los bots produjeron el 23,6% de las publicaciones (casi un millón de tuits), el 19% de las interacciones y el 38,8% de las respuestas

Para analizar la forma en que los mensajes automatizados influyeron en la conversación, los investigadores estudiaron las palabras asociadas a las etiquetas que se usaban tanto entre el grupo de partidarios de la independencia de Cataluña como en el de sus detractores. De este modo, descubrieron que para los independentistas las asociaciones negativas “provienen exclusivamente de las interacciones de bots, destacando que actúan sobre los humanos reforzando la inestabilidad y el contenido impulsado por el odio”. “El objetivo es claro, maximizar la difusión de un tipo específico de conceptos negativos”, resume De Domenico. ¿Lo consiguieron? Según su análisis de los sentimientos expresados en los millones de tuits analizados, se produjo una “drástica caída” desde emociones positivas hacia negativas entre 300.000 usuarios, “debido al intercambio entre facciones opuestas o más bien a la influencia de no humanos”.

El estudio no afronta la pregunta del millón, ¿quién y por qué querría intoxicar de este modo la convivencia en un escenario ya de por sí tan polarizado? De Domenico se muestra convencido de que se trata de una campaña orquestada al observar la forma en que interactúan estas cuentas, muy distinta a la que realizan grupos humanos. “Se muestran más como un ejército dedicado a interactuar principalmente con personas. No puedo probarlo, pero es un fuerte indicio de que los bots no están autoorganizados: están controlados”, asegura. Ferrara advierte de que es uno de los fenómenos más difíciles de detectar: “Lamentablemente, a menudo no tenemos la capacidad de entender quién está detrás de ellos. Creo que sería muy difícil encontrar evidencia irrefutable de coordinación en la mayoría de las campañas de bots”. Ferrara coincide en que el feed de Twitter "no contiene información suficiente para determinar quién está detrás de una cuenta y los bots no son una excepción".

Esteban Moro, investigador del MIT Media Lab ajeno a este estudio, considera que las principales dudas que deja abiertas son la influencia real de esta campaña de bots y de dónde provenía. "Lo más interesante", asegura, "es que el trabajo demuestra que hubo bots dirigidos a los dos bandos y que tal y como dice el artículo los bots de los independentistas se crearon para dirigir a ese grupo mensajes de odio, que inspiraran violencia o lucha, o de reafirmación de la inestabilidad". No obstante, para Moro "está claro que quien organizó a esos bots lo hizo con un algoritmo muy claro".

En cualquier caso, más allá de todas estas dudas, los robustos hallazgos de este trabajo proporcionan evidencia cuantitativa de que estas cuentas fraudulentas trataron de influir y contaminar la conversación social en España. Algo que para los investigadores es otro aviso que obliga a estar alerta ante otra “contribución peligrosa para reforzar la difusión de la violencia desde las plataformas on line hacia el mundo real”, por lo que es necesario desarrollar más técnicas para “desenmascarar la manipulación social de los bots”.

Regístrate gratis para seguir leyendo

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte
_

Sobre la firma

Javier Salas
Jefe de sección de Ciencia, Tecnología y Salud y Bienestar. Cofundador de MATERIA, sección de ciencia de EL PAÍS, ejerce como periodista desde 2006. Antes, trabajó en Informativos Telecinco y el diario Público. En 2021 recibió el Premio Ortega y Gasset.

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_