Un equipo de investigación dirigido por la Universidad de Princeton ha desarrollado una técnica para rastrear campañas de desinformación extranjera en línea en tiempo real, lo que podría ayudar a mitigar la interferencia externa en las elecciones estadounidenses de 2020.
Los investigadores desarrollaron un método para utilizar el aprendizaje automático para identificar cuentas maliciosas de internet, o trolls, en función de su comportamiento anterior. Avances científicos , el modelo investigó campañas de desinformación pasadas de China, Rusia y Venezuela que se libraron contra Estados Unidos antes y después de las elecciones de 2016.
El equipo identificó los patrones de estas campañas y luego analizó las publicaciones en Twitter y Reddit y los hipervínculos o URL que incluyeron. Después de ejecutar una serie de pruebas, descubrieron que su modelo era efectivo para identificar publicaciones y cuentas que eran parte de una influencia extranjeracampaña, incluidas las de cuentas que nunca antes se habían utilizado.
Esperan que los ingenieros de software puedan desarrollar su trabajo para crear un sistema de monitoreo en tiempo real para exponer la influencia extranjera en la política estadounidense.
"Lo que nuestra investigación significa es que usted puede estimar en tiempo real cuánto de eso hay y de qué están hablando", dijo Jacob N. Shapiro, profesor de política y asuntos internacionales en la Escuela Pública de Princetony Asuntos Internacionales: "No es perfecto, pero obligaría a estos actores a ser más creativos y posiblemente a detener sus esfuerzos. Solo puedes imaginar lo mejor que podría ser esto si alguien se esfuerza por optimizarlo".
Shapiro y el investigador asociado de investigación Meysam Alizadeh realizaron el estudio con Joshua Tucker, profesor de política en la Universidad de Nueva York, y Cody Buntain, profesor asistente de informática en el Instituto de Tecnología de Nueva Jersey.
El equipo comenzó con una pregunta simple: utilizando solo características basadas en contenido y ejemplos de actividad de campaña de influencia conocida, ¿podría mirar otro contenido y decir si una publicación dada era parte de una campaña de influencia?
Eligieron investigar una unidad conocida como un "par postURL", que es simplemente una publicación con un hipervínculo. Para tener una influencia real, las operaciones coordinadas requieren el intercambio de información intensa impulsada por humanos y bots. El equipo teorizó que pueden aparecer publicaciones similarescon frecuencia a través de plataformas a lo largo del tiempo.
Combinaron datos sobre campañas troll de Twitter y Reddit con un rico conjunto de datos en publicaciones de usuarios políticamente comprometidos y usuarios promedio recopilados durante muchos años por el Centro de Política y Redes Sociales de Nueva York CSMaP. Los datos troll incluyeron Twitter y Reddit disponibles públicamentedatos de trolls chinos, rusos y venezolanos por un total de 8,000 cuentas y 7.2 millones de publicaciones desde finales de 2015 hasta 2019.
"No podríamos haber llevado a cabo el análisis sin ese conjunto de datos de comparación de línea de base de tweets ordinarios", dijo Tucker, codirector de CSMaP. "Lo usamos para entrenar el modelo para distinguir entre tweets de campañas de influencia coordinadas y aquellosde usuarios comunes "
El equipo consideró las características de la publicación en sí, como el tiempo, el recuento de palabras o si el dominio URL mencionado es un sitio web de noticias. También analizaron lo que llamaron "metacontenido" o cómo se relacionaba el mensaje en una publicaciónotra información compartida en ese momento por ejemplo, si una URL estaba en los 25 principales dominios políticos compartidos por los trolls.
"La idea de Meysam sobre el metacontenido fue clave", dijo Shapiro. "Vio que podíamos usar la máquina para replicar la intuición humana de que 'algo sobre esta publicación parece fuera de lugar'. Tanto los trolls como las personas normales a menudo incluyen noticias localesURL en sus publicaciones, pero los trolls tienden a mencionar a diferentes usuarios en dichas publicaciones, probablemente porque están tratando de atraer la atención de su audiencia en una nueva dirección. Metacontent permite que el algoritmo encuentre tales anomalías ".
El equipo probó su método exhaustivamente, examinando el rendimiento mes a mes en cinco tareas de predicción diferentes en cuatro campañas de influencia. En casi todas las 463 pruebas diferentes, estaba claro qué publicaciones eran y no eran parte de una operación de influencia, lo que significa quelas características basadas en contenido pueden ayudar a encontrar campañas de influencia coordinadas en las redes sociales.
En algunos países, los patrones eran más fáciles de detectar que otros. Los trolls venezolanos solo retuitearon a ciertas personas y temas, lo que los hizo fáciles de detectar. Los trolls rusos y chinos fueron mejores para hacer que su contenido se viera orgánico, pero también podrían sera principios de 2016, por ejemplo, los trolls rusos a menudo se vinculaban a URL de extrema derecha, lo que era inusual dados los otros aspectos de sus publicaciones y, a principios de 2017, se vinculaban a sitios web políticos de formas extrañas.
En general, la actividad de los trolls rusos se hizo más difícil de encontrar a medida que pasaba el tiempo. Es posible que grupos de investigación u otros capten la información falsa, marquen las publicaciones y obliguen a los trolls a cambiar sus tácticas o enfoques, aunque los rusos también parecen tenerproducido menos en 2018 que en años anteriores.
Si bien la investigación muestra que no hay un conjunto estable de características que encontrarán esfuerzos de influencia, también muestra que el contenido de trolls casi siempre será diferente en formas detectables. En un conjunto de pruebas, los autores muestran que el método puede encontrar nunca antescuentas usadas que forman parte de una campaña en curso. Y aunque las plataformas de redes sociales eliminan regularmente cuentas asociadas con campañas de desinformación extranjeras, los hallazgos del equipo podrían conducir a una solución más efectiva.
"Cuando las plataformas prohíben estas cuentas, no solo dificulta la recopilación de datos para encontrar cuentas similares en el futuro, sino que le indica al actor de desinformación que deben evitar el comportamiento que condujo a la eliminación", dijo Buntain.Este mecanismo permite [a la plataforma] identificar estas cuentas, alejarlas del resto de Twitter y hacer que parezca que estos actores continúan compartiendo su material de desinformación ".
El trabajo destaca la importancia de la investigación interdisciplinaria entre la ciencia social y la informática, así como la importancia de financiar los archivos de datos de investigación.
"El pueblo estadounidense merece comprender cuánto están haciendo los países extranjeros para influir en nuestra política", dijo Shapiro. "Estos resultados sugieren que proporcionar ese conocimiento es técnicamente factible. Lo que actualmente nos falta es la voluntad política y la financiación, yeso es una parodia "
El método no es una panacea, advirtieron los investigadores. Requiere que alguien ya haya identificado la actividad reciente de la campaña de influencia para aprender. Y cómo las diferentes características se combinan para indicar cambios de contenido cuestionables a lo largo del tiempo y entre campañas.
El documento, "Las características basadas en el contenido predicen las operaciones de influencia de las redes sociales", aparecerá en Avances científicos .
Fuente de la historia :
Materiales proporcionado por Escuela de Asuntos Públicos e Internacionales de Princeton . Original escrito por B. Rose Huber. Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cite esta página :