En un mercado en línea como Airbnb, los perfiles de los anfitriones pueden significar la diferencia entre una habitación reservada y una vacante. ¿Demasiado animado, demasiado largo, demasiados signos de exclamación? El lenguaje es fundamental en la búsqueda de un usuario de confianza y autenticidad, factores cruciales encualquier intercambio en línea.
Con tanto en juego, ¿deberían los anfitriones de Airbnb confiar en un algoritmo para escribir sus perfiles por ellos?
Eso depende, según una nueva investigación de Cornell y la Universidad de Stanford. Si todos usan perfiles generados algorítmicamente, los usuarios confían en ellos. Sin embargo, si solo algunos anfitriones eligen delegar responsabilidades de escritura a la inteligencia artificial, es probable que se desconfíe de ellos. Los investigadores facturaroneste es el "efecto replicante", un guiño a la película "Blade Runner".
"Los participantes buscaban señales que se sintieran mecánicas versus un lenguaje que se sintiera más humano y emocional", dijo Maurice Jakesch, estudiante de doctorado en ciencias de la información en Cornell Tech y autor principal de "Comunicación mediada por IA: cómo la percepción que perfila el textofue escrito por AI Affects Trustworthiness ", que se presentará en la Conferencia ACM sobre factores humanos en sistemas informáticos, del 4 al 9 de mayo en Glasgow, Escocia.
"Tenían sus propias teorías sobre cómo se vería un perfil generado por IA", dijo Jakesch. "Si hubiera errores ortográficos graves en un perfil, dirían que es más humano, mientras que si el perfil de alguien se ve desarticulado o sin sentido,asumieron que era AI ".
La inteligencia artificial revolucionará las tecnologías del lenguaje natural y la forma en que los humanos interactúan entre sí. Las personas ya experimentan algunas comunicaciones mediadas por inteligencia artificial: Gmail escanea el contenido de nuestros correos electrónicos que llegan y genera "respuestas inteligentes" sugeridas con un solo clic y una nueva generaciónde las ayudas para la escritura no solo corrige nuestros errores de ortografía, sino que pule nuestro estilo de escritura.
"Estamos comenzando a ver los primeros casos de inteligencia artificial operando como mediador entre humanos, pero es una cuestión de: '¿La gente quiere eso?'", Dijo Jakesch. "Podríamos encontrarnos en una situación en la que la IA mediadala comunicación está tan extendida que se convierte en parte de la forma en que las personas evalúan lo que ven en línea ".
En el estudio, los investigadores buscaron explorar si los usuarios confían en representaciones generadas o optimizadas algorítmicamente, particularmente en mercados en línea. El equipo llevó a cabo tres experimentos y reclutó a cientos de participantes en Amazon Mechanical Turk para evaluar perfiles de Airbnb reales generados por humanos. En algunosEn los casos, se les hizo creer a los participantes que algunos o todos los perfiles se generaron a través de un sistema de inteligencia artificial automatizado. Luego se les pidió a los participantes que le dieran a cada perfil una puntuación de confiabilidad.
Cuando se les dijo que estaban viendo todos los perfiles generados por humanos o todos los generados por IA, los participantes no parecían confiar más en uno que en el otro. Calificaron los perfiles generados por humanos y por IA casi de la misma manera.
Pero eso cambió cuando se informó a los participantes que estaban viendo un conjunto mixto de perfiles. Dejados para decidir si los perfiles que estaban leyendo fueron escritos por un humano o un algoritmo, los usuarios desconfiaban de los que creían que eran generados por una máquina.
"Cuanto más creían los participantes que un perfil fue generado por IA, menos tendían a confiar en el anfitrión, aunque los perfiles que calificaron fueron escritos por los anfitriones reales", escribieron los autores.
¿Qué tiene de malo el uso de la comunicación mediada por IA? Como lo expresó un participante del estudio, los perfiles generados por IA "pueden ser útiles pero también un poco vagos. Lo que me hace preguntarme de qué otras cosas serán perezosos".
A medida que la IA se vuelve más común y poderosa, las pautas fundamentales, la ética y la práctica se vuelven vitales, dijeron los investigadores. Sus hallazgos sugieren que hay formas de diseñar herramientas de comunicación de IA que mejoren la confianza de los usuarios humanos. Para empezar, dijo Jakesch, las empresas podrían agregarun emblema en todo el texto producido por la IA, como algunos medios de comunicación ya utilizan en el contenido creado por algoritmos. Vale la pena explorar ahora las directrices y normas de diseño y políticas para el uso de la comunicación mediada por IA, añadió.
"El valor de estas tecnologías dependerá de cómo se diseñen, cómo se comuniquen a las personas y si somos capaces de establecer un ecosistema saludable a su alrededor", dijo. "Viene con una serie de nuevas cuestiones éticas: ¿Es aceptable que mi asistente algorítmico genere una versión más elocuente de mí? ¿Está bien que un algoritmo les diga buenas noches a mis hijos en mi nombre? Estas son preguntas que deben discutirse ".
El artículo fue coautor con Mor Naaman, profesor asociado de ciencia de la información en el Instituto Jacobs Technion-Cornell en Cornell Tech; Xiao Ma, estudiante de doctorado en ciencia de la información en Cornell Tech; y Megan French y Jeffrey T. Hancock deStanford.
Fuente de la historia :
Materiales proporcionado por Universidad de Cornell . Nota: el contenido se puede editar por estilo y longitud.
cite esta página :