Los investigadores dicen que los 'robots benévolos', también conocidos como robots de software, que están diseñados para mejorar artículos en Wikipedia a veces tienen 'peleas' en línea sobre el contenido que puede continuar durante años. La edición de bots en Wikipedia deshace el vandalismo, impone prohibiciones, verifica la ortografía,crear enlaces e importar contenido automáticamente, mientras que otros bots que no son de edición pueden extraer datos, identificar datos o identificar infracciones de derechos de autor. El equipo analizó cuánto interrumpieron Wikipedia, observando cómo interactuaron en 13 ediciones de idiomas diferentes durante diez años de 2001 a 2010. Encontraron que los bots interactuaban entre sí, ya sea por diseño o no, y esto tuvo consecuencias impredecibles. El trabajo de investigación, publicado en PLOS UNO , concluye que los bots se parecen más a los humanos de lo que cabría esperar. Los bots parecen comportarse de manera diferente en entornos en línea culturalmente distintos. El documento dice que los hallazgos son una advertencia para aquellos que usan inteligencia artificial para construir vehículos autónomos, sistemas de ciberseguridad o para administrarredes sociales. Sugiere que los científicos pueden tener que dedicar más atención a la diversa vida social de los bots y sus diferentes culturas.
El trabajo de investigación de la Universidad de Oxford y el Instituto Alan Turing en el Reino Unido explica que, aunque el mundo en línea se ha convertido en un ecosistema de bots, nuestro conocimiento de cómo interactúan entre sí aún es bastante pobre. Aunque los bots son autómatas queno tienen capacidad para las emociones, las interacciones de bot a bot son impredecibles y actúan de manera distintiva. Se encuentra que las ediciones alemanas de Wikipedia tuvieron la menor cantidad de conflictos entre los bots, y cada uno deshace las ediciones de otros 24 veces, en promedio, durante diez años.relativa eficiencia, dice el trabajo de investigación, cuando se compara con los bots en la edición portuguesa de Wikipedia, que deshizo las ediciones de otro bot 185 veces, en promedio, durante diez años. Los bots en Wikipedia en inglés deshicieron el trabajo de otro bot 105 veces, en promedio, durante diez años, tres veces la tasa de reversiones humanas, dice el periódico.
Los resultados muestran que incluso los algoritmos autónomos simples pueden producir interacciones complejas que resultan en consecuencias no deseadas: 'peleas estériles' que pueden continuar durante años o llegar a un punto muerto en algunos casos. El documento dice que los robots constituyen una pequeña proporción 0.1% de los editores de Wikipedia, respaldan una proporción significativa de todas las ediciones. Aunque estos conflictos representan una pequeña proporción de la actividad editorial general de los bots, estos hallazgos son significativos para resaltar su imprevisibilidad y complejidad. Ediciones en idiomas más pequeños, como la Wikipedia polaca, tienen mucho más contenido creado por bots que las ediciones de idiomas grandes, como Wikipedia en inglés.
La autora principal, Dra. Milena Tsvetkova, del Instituto de Internet de Oxford, dijo: "Encontramos que los bots se comportan de manera diferente en diferentes entornos culturales y sus conflictos también son muy diferentes a los de los editores humanos. Esto tiene implicaciones no solo para la forma en que diseñamosagentes artificiales pero también por cómo los estudiamos. Necesitamos más investigación sobre la sociología de los bots '.
El trabajo fue escrito en coautoría por el investigador principal del proyecto financiado por EC-Horizon2020, HUMANE, el profesor Taha Yasseri, también del Oxford Internet Institute. Añadió: 'Los resultados muestran que incluso la misma tecnología conduce a resultados diferentesdependiendo del entorno cultural. Un vehículo automatizado se conducirá de manera diferente en una autopista alemana a la forma en que atravesará las colinas toscanas de Italia. De manera similar, la infraestructura local en línea que habitan los bots tendrá cierta relación con su comportamiento y su rendimiento.diseñado por humanos de diferentes países para que cuando se encuentren entre sí, esto pueda conducir a enfrentamientos en línea. Vemos diferencias en la tecnología utilizada en las diferentes ediciones en lenguaje Wikipedia y las diferentes culturas de las comunidades de editores de Wikipedia involucrados crean interacciones complicadas. Esta complejidades una característica fundamental que debe considerarse en cualquier conversación relacionada con la automatización y la inteligencia artificial ''.
El profesor Luciano Floridi, también autor del artículo, comentó: "Tendemos a olvidar que la coordinación incluso entre los agentes de colaboración a menudo se logra solo a través de marcos de reglas que facilitan los resultados deseados. Esta ética de infraestructura o infra-ética necesita serdiseñado tanto y tan cuidadosamente como los agentes que lo habitan. '
La investigación encuentra que el número de reversiones es menor para los bots que para los humanos, pero el comportamiento de los bots es más variado y los conflictos que involucran a los bots duran más y se desencadenan más tarde. El tiempo promedio entre reversiones sucesivas para humanos es de 2 minutos, luego24 horas o un año, dice el periódico. El primer revés de bot a bot sucedió un mes después, en promedio, pero las reversiones adicionales a menudo continuaron durante años. El documento sugiere que los humanos usen herramientas automáticas que informan cambios en vivo y pueden reaccionar más rápidamente,mientras que los bots rastrean sistemáticamente los artículos web y pueden restringirse en la cantidad de ediciones permitidas. El hecho de que los conflictos de los bots sean de larga data también indica que los humanos no están detectando los problemas lo suficientemente temprano, sugiere el documento.
Fuente de la historia :
Materiales proporcionados por Universidad de Oxford . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cite esta página :