Un equipo de investigadores, incluido el profesorado de la Universidad de Binghamton, ha desarrollado algoritmos de aprendizaje automático que pueden identificar con éxito a los agresores y agresores en Twitter con un 90 por ciento de precisión.
Las herramientas efectivas para detectar acciones dañinas en las redes sociales son escasas, ya que este tipo de comportamiento a menudo es de naturaleza ambigua y / o se exhibe a través de comentarios y críticas aparentemente superficiales. Con el objetivo de abordar esta brecha, un equipo de investigación con el informático Jeremy de la Universidad de BinghamtonBlackburn analizó los patrones de comportamiento exhibidos por los usuarios abusivos de Twitter y sus diferencias con otros usuarios de Twitter.
"Creamos rastreadores: programas que recopilan datos de Twitter a través de una variedad de mecanismos", dijo Blackburn. "Recopilamos tweets de usuarios de Twitter, sus perfiles, así como cosas relacionadas con la red social, como a quién siguen yquien los sigue "
Luego, los investigadores realizaron el procesamiento del lenguaje natural y el análisis de sentimientos en los propios tweets, así como una variedad de análisis de redes sociales sobre las conexiones entre los usuarios. Los investigadores desarrollaron algoritmos para clasificar automáticamente dos tipos específicos de comportamiento ofensivo en línea, es decir, ciberacosoy ciberagresión. Los algoritmos fueron capaces de identificar a los usuarios abusivos en Twitter con una precisión del 90 por ciento. Se trata de usuarios que participan en comportamientos de acoso, por ejemplo, aquellos que envían amenazas de muerte o hacen comentarios racistas a los usuarios.
"En pocas palabras, los algoritmos 'aprenden' a diferenciar entre matones y usuarios típicos al sopesar ciertas características a medida que se muestran más ejemplos", dijo Blackburn.
Si bien esta investigación puede ayudar a mitigar el acoso cibernético, es solo un primer paso, dijo Blackburn.
"Uno de los mayores problemas con los problemas de seguridad cibernética es el daño que se está haciendo a los humanos, y es muy difícil de" deshacer ", dijo Blackburn". Por ejemplo, nuestra investigación indica que el aprendizaje automático se puede utilizar para detectar automáticamenteusuarios que son ciberbullies y, por lo tanto, podrían ayudar a Twitter y otras plataformas de redes sociales a eliminar usuarios problemáticos. Sin embargo, dicho sistema es en última instancia reactivo: no previene inherentemente las acciones de intimidación, solo identifica que se llevan a cabo a gran escala. Y la triste verdad es queque incluso si se eliminan las cuentas de acoso escolar, incluso si se eliminan todos sus ataques anteriores, las víctimas todavía vieron y fueron potencialmente afectadas por ellos ".
Blackburn y su equipo actualmente están explorando técnicas de mitigación proactivas para hacer frente a las campañas de acoso.
Fuente de la historia :
Materiales proporcionados por Universidad de Binghamton . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cite esta página :