La vida diaria durante una pandemia significa distanciamiento social y encontrar nuevas formas de conectarse de forma remota con amigos, familiares y compañeros de trabajo. Y a medida que nos comunicamos en línea y por mensaje de texto, la inteligencia artificial podría desempeñar un papel en mantener nuestras conversaciones encaminadas, segúnnueva investigación de la Universidad de Cornell.
Los seres humanos que tenían conversaciones difíciles dijeron que confiaban en sistemas artificialmente inteligentes, las sugerencias de respuesta "inteligentes" en los textos, más que las personas con las que estaban hablando, según un nuevo estudio, "AI como una zona de deformación moral: los efectos deComunicación de AI mediada sobre atribución y confianza ", publicado en línea en la revista Computadoras en el comportamiento humano .
"Descubrimos que cuando las cosas salen mal, las personas asumen la responsabilidad que de otro modo habría sido designada a su compañero humano y designan algo de eso al sistema de inteligencia artificial", dijo Jess Hohenstein, estudiante de doctorado en el campo de las ciencias de la información.y el primer autor del artículo: "Esto introduce un potencial para tomar IA y usarla como mediadora en nuestras conversaciones".
Por ejemplo, el algoritmo podría notar que las cosas van cuesta abajo al analizar el lenguaje utilizado y luego sugerir estrategias de resolución de conflictos, dijo Hohenstein.
El estudio fue un intento de explorar las innumerables formas, tanto sutiles como significativas, de que los sistemas de IA, como las respuestas inteligentes, están alterando la forma en que los humanos interactúan. Elegir una respuesta sugerida no es exactamente lo que pretendía decir, pero le ahorra algo deescribir, podría estar alterando fundamentalmente el curso de sus conversaciones, y sus relaciones, dijeron los investigadores.
"La comunicación es tan fundamental para la forma en que formamos percepciones mutuas, cómo formamos y mantenemos relaciones, o cómo podemos lograr cualquier cosa trabajando juntos", dijo el coautor Malte Jung, profesor asistente de ciencias de la información y directordel laboratorio Robots in Groups, que explora cómo los robots alteran la dinámica del grupo.
"Este estudio cae dentro de la agenda más amplia de comprender cómo estos nuevos sistemas de IA alteran nuestra capacidad de interactuar", dijo Jung. "A menudo pensamos en cómo el diseño de los sistemas afecta la forma en que interactuamos con ellos, pero menos estudios se centran enla cuestión de cómo las tecnologías que desarrollamos afectan la forma en que las personas interactúan entre sí "
Además de arrojar luz sobre cómo las personas perciben e interactúan con las computadoras, el estudio ofrece posibilidades para mejorar la comunicación humana, con una sutil orientación y recordatorios de la IA.
Hohenstein y Jung dijeron que buscaban explorar si la IA podría funcionar como una "zona de deformación moral", el equivalente tecnológico de la zona de deformación de un automóvil, diseñada para deformarse para absorber el impacto del choque.
"Hay un mecanismo físico en la parte delantera del automóvil diseñado para absorber la fuerza del impacto y asumir la responsabilidad de minimizar los efectos del choque", dijo Hohenstein. "Aquí vemos que el sistema de inteligencia artificial absorbe parte de la responsabilidad moral"
La investigación fue parcialmente apoyada por la National Science Foundation.
Fuente de la historia :
Materiales proporcionado por Universidad de Cornell . Original escrito por Melanie Lefkowitz. Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cita esta página :