En la Universidad de Princeton acaban de desarrollar una técnica para rastrear campañas de desinformación extranjera en línea en tiempo real. Este hallazgo ayudará a mitigar los intentos de interferencia externa en las elecciones estadounidenses de 2020, reportó Primer Informe.
El Político
Los investigadores desarrollaron un método para usar el aprendizaje automático e identificar cuentas maliciosas de internet, o trolls, analizando su comportamiento pasado.
El modelo se desarrollo investigando campañas de desinformación pasadas de China, Rusia y Venezuela que se libraron contra Estados Unidos en torno a las elecciones de 2016.
El equipo identificó los patrones de comportamiento de las cuentas que participaban en las campañas y analizaron las publicaciones en Twitter y Reddit y los hipervínculos, o URL, que incluían.
Cuando pusieron a prueba el modelo, pudieron comprobar su efectividad. Pudo identificar publicaciones y cuentas que formaban parte de una campaña de influencia extranjera, incluidas las de cuentas que nunca antes se habían utilizado.
El modelo, que debe ser perfeccionado, sienta las bases para desarrollar un sistema de monitoreo en tiempo real que exponga la intromisión extranjera en la política estadounidense.
Los investigadores se enfocaron en estudiar las coincidencias entre una publicación y el hipervínculo que contenía. Para tener una influencia real, las operaciones coordinadas requieren un intenso intercambio de información humana y basada en bots.
Combinaron datos sobre campañas troll de Twitter y Reddit con un rico conjunto de datos en publicaciones de usuarios políticamente comprometidos y usuarios promedio recopilados durante muchos años por el Centro de Política y Redes Sociales de la Universidad de Nueva York.
Algoritmo contra los trolls
El equipo estudió información de Twitter y Reddit disponible públicamente de trolls chinos, rusos y venezolanos. En total, se analizaron 8.000 cuentas y más de 7 millones de publicaciones desde finales de 2015 hasta 2019.
El equipo consideró las características de la publicación en sí, como el tiempo, el recuento de palabras o si el dominio URL mencionado es un sitio web de noticias.
También analizaron lo que llamaron «metacontenido», es decir, cómo los mensajes en una publicación se relacionaban con otra información compartida en ese momento. Los investigadores vieron que podíamos usar la máquina para replicar la intuición humana de que «algo sobre esta publicación parece fuera de lugar».
Por ejemplo: Los enlaces URL son usados por igual tanto por trolls como por usuarios comunes. Pero los trolls tienden a mencionar a diferentes usuarios en tales publicaciones, tratando de atraer la atención de su audiencia en una nueva dirección. Esas anomalías son detectadas por el algoritmo.
En todas las pruebas, el experimento logro efectivamente diferenciar cuáles publicaciones eran y cuáles no no eran parte de una operación de influencia.
En algunos países, los patrones eran más fáciles de detectar que otros. Los trolls venezolanos solo retuitearon ciertas personas y temas, por lo que son fáciles de detectar. Los rusos y chinos fueron mejores para hacer que su contenido se viera orgánico, pero también se los pudo encontrar.
Con información de Tech Xplore.