Las personas pueden mostrarse reacias a dar su información personal a los sistemas de inteligencia artificial IA a pesar de que los sistemas la necesitan para brindar servicios más precisos y personalizados, pero un nuevo estudio revela que la forma en que los sistemas solicitan información alos usuarios pueden marcar la diferencia.
En un estudio, los investigadores de Penn State informan que los usuarios respondieron de manera diferente cuando las IA se ofrecieron a ayudar al usuario o le pidieron ayuda. Esta respuesta influyó en si el usuario confiaba en la IA con su información personal. Agregaron que estas presentacionesde la inteligencia artificial podría diseñarse de manera que aumente la confianza de los usuarios y aumente su conciencia sobre la importancia de la información personal.
Los investigadores, que presentaron sus hallazgos hoy en la Conferencia ACM CHI virtual de 2021 sobre factores humanos en sistemas informáticos, la principal conferencia internacional de investigación de interacción humano-computadora, encontraron que las personas que están familiarizadas con la tecnología, los usuarios avanzados, prefierenLas IA que necesitan ayuda, o que buscan ayuda, mientras que los usuarios no expertos tenían más probabilidades de preferir las IA que se presentan a sí mismas como buscadores de ayuda y proveedores de ayuda al mismo tiempo.
A medida que las IA se vuelven cada vez más omnipresentes, los desarrolladores necesitan crear sistemas que puedan relacionarse mejor con los humanos, dijo S. Shyam Sundar, profesor James P. Jimirro de Efectos en los Medios en la Facultad de Comunicaciones Donald P. Bellisario y codirector de MediosLaboratorio de Investigación de Efectos.
"Es necesario que reconsideremos cómo los sistemas de IA se comunican con los usuarios humanos", dijo Sundar. "Esto ha salido a la superficie porque hay una creciente preocupación sobre cómo los sistemas de IA están comenzando a dominar nuestras vidas y saber más.sobre nosotros de lo que nos damos cuenta. Por lo tanto, dadas estas preocupaciones, puede ser mejor si comenzamos a cambiar de los guiones de diálogo tradicionales a una comunicación más colaborativa y cooperativa que reconozca la agencia del usuario ".
¿Estás aquí para ayudar?
Los investigadores dijeron que los diálogos tradicionales de IA generalmente ofrecen presentaciones que enmarcan su papel como ayudantes.
De hecho, los usuarios avanzados pueden sentirse desanimados por la forma en que las IA se comunican normalmente con los usuarios, lo que puede parecerles condescendiente, dijo Sundar, quien también es afiliado del Instituto de Ciencias Computacionales y de Datos ICDS de Penn State. Por ejemplo, los investigadores citan la solicitud de Facebook de información de cumpleaños para que su IA pueda brindar una experiencia adecuada a la edad de sus usuarios.
"Las IA parecen tener una actitud paternalista en la forma en que hablan con el usuario; parecen decirles a los usuarios que están aquí para ayudarlo y que debe brindarles su información para obtener los beneficios", dijo Sundar.
Por otro lado, cuando un sistema de IA pide ayuda a los usuarios, se considera social. Según Mengqi Liao, estudiante de doctorado en comunicación masiva y autor principal del artículo, los usuarios avanzados encontraron que la IA que busca ayuda tieneinteligencia social, denominada por los investigadores como presencia social.
"Tiene sentido que si alguien está buscando ayuda, ese es un comportamiento inherentemente social y de naturaleza muy interpersonal", dijo Liao. "Esta presencia social, a su vez, conduce a una mayor confianza y aumenta la intención de proporcionar a la IA másinformación personal. Los usuarios avanzados también otorgaron a las IA que buscaban ayuda evaluaciones más altas sobre su desempeño a pesar de que ofrecen el mismo resultado que otras IA ".
Liao agregó que cuando el sistema busca ayuda y les dice a los usuarios que puede ayudarlos en el futuro, los usuarios no avanzados tienen menos preocupaciones sobre la privacidad.
IA ética
Los investigadores dijeron que el estudio ofrece a los diseñadores una forma ética de aumentar la confianza en las máquinas sin intentar engañar a las personas para que proporcionen su información personal.
"Creemos que estos hallazgos también pueden ser útiles para los diseñadores que quieran incorporar tácticas para combatir los sistemas de inteligencia artificial que se aprovechan de los usuarios", dijo Liao. "Por ejemplo, descubrimos que la presencia tanto de la búsqueda de ayuda como de la ayuda-proporcionar señales puede generar preocupaciones sobre la privacidad entre los usuarios avanzados. Por lo tanto, la simple implementación de ambas señales en las explicaciones a los usuarios avanzados puede hacer que estén más atentos a su información personal ".
Para los usuarios no avanzados, los diseñadores podrían agregar señales de búsqueda de ayuda que reducirán la presencia social y los alentarán a estar más atentos a su información personal, agregó Liao.
Los investigadores reclutaron a 330 participantes de una plataforma de investigación de microtareas en línea. Los participantes fueron asignados al azar a un sitio web simulado que representa una de cuatro condiciones experimentales: una condición de búsqueda de ayuda, una condición de prestación de ayuda, tanto la búsqueda de ayuda como la ayudaproporcionar condiciones y una condición de control. En la condición de búsqueda de ayuda, la IA ofreció una explicación por escrito de que necesitaba la ayuda de los usuarios y su información personal para mejorar y crecer. En la condición de proporcionar ayuda, explicó que podría utilizar información personal enviadainformación para ayudar al usuario a encontrar artículos de noticias. La tercera condición contenía señales tanto para buscar ayuda como para proporcionar ayuda. El control no ofreció ninguna explicación.
Los investigadores también estudiaron si habría diferencias en la forma en que una IA se refiere a sí misma, y encontraron que la gente confía menos en ella cuando se refiere a sí misma como "yo" en comparación con "este sistema".
La investigación futura puede incluir investigar el uso de IA en otros contextos que son de naturaleza más sensible, como la recopilación de información financiera y médica, para determinar cómo estas introducciones podrían afectar la vigilancia de los usuarios sobre la protección de esta información.
Fuente de la historia :
Materiales proporcionado por Penn State . Original escrito por Matt Swayne. Nota: el contenido se puede editar por estilo y longitud.
cite esta página :