Internet ofrece el potencial para el diálogo constructivo y la cooperación, pero las conversaciones en línea con demasiada frecuencia degeneran en ataques personales. Con la esperanza de que esos ataques puedan evitarse, los investigadores de la Universidad de Cornell han creado un modelo para predecir qué conversaciones civiles podrían cambiar y descarrilar.
Después de analizar cientos de intercambios entre editores de Wikipedia, los investigadores desarrollaron un programa de computadora que busca señales de advertencia en el idioma utilizado por los participantes al comienzo de una conversación, como preguntas repetidas o directas o el uso de la palabra "usted"- para predecir qué conversaciones civiles iniciales irían mal.
Los primeros intercambios que incluyeron saludos, expresiones de gratitud, setos como "parece", y las palabras "yo" y "nosotros" tenían más probabilidades de seguir siendo civiles, encontró el estudio.
"Hay millones de tales discusiones que tienen lugar todos los días, y no es posible monitorearlas todas en vivo. Un sistema basado en este hallazgo podría ayudar a los moderadores humanos a dirigir mejor su atención", dijo Cristian Danescu-Niculescu-Mizil,profesor asistente de ciencias de la información y coautor del artículo "Conversaciones perdidas: detección de signos tempranos de fracaso conversacional".
"Nosotros, como humanos, tenemos la intuición de si una conversación está a punto de salir mal, pero a menudo es solo una sospecha. No podemos hacerlo el 100 por ciento del tiempo. Nos preguntamos si podemos construir sistemas para replicar oincluso ir más allá de esta intuición ", dijo Danescu-Niculescu-Mizil.
El modelo de computadora, que también consideraba la Perspectiva de Google, una herramienta de aprendizaje automático para evaluar la "toxicidad", era correcta alrededor del 65 por ciento de las veces. Los humanos adivinaron correctamente el 72 por ciento de las veces.
Las personas pueden probar su propia capacidad para adivinar qué conversaciones se descarrilarán en un cuestionario en línea.
El estudio analizó 1.270 conversaciones que comenzaron civilmente pero que degeneraron en ataques personales, recogidas de 50 millones de conversaciones en 16 millones de páginas de "conversación" de Wikipedia, donde los editores discuten artículos u otros temas. Examinaron los intercambios en pares, comparando cada conversación que terminó malcon uno que tuvo éxito en el mismo tema, por lo que los resultados no fueron sesgados por temas delicados como la política.
El documento está coescrito con la estudiante de doctorado en ciencias de la información Cornell Justine Zhang; los estudiantes de doctorado en ciencias de la computación Jonathan P. Chang y Yiqing Hua; Lucas Dixon y Nithum Thain de Jigsaw; y Dario Taraborelli de WikimediaFundación.
Los investigadores esperan que este modelo pueda usarse para rescatar conversaciones en riesgo y mejorar el diálogo en línea, en lugar de prohibir a usuarios específicos o censurar ciertos temas. Algunos carteles en línea, como los hablantes no nativos de inglés, pueden no darse cuenta de que pueden ser percibidos comoagresivo, y los empujones de tal sistema podrían ayudarlos a autoajustarse.
"Si tengo herramientas que encuentran ataques personales, ya es demasiado tarde, porque el ataque ya sucedió y la gente ya lo ha visto", dijo Chang. "Pero si entiendes que esta conversación va en una mala dirección y toma medidasentonces, eso podría hacer que el lugar sea un poco más acogedor ".
Fuente de la historia :
Materiales proporcionado por Universidad de Cornell . Nota: El contenido puede ser editado por estilo y longitud.
Cite esta página :