Recientemente, científicos informáticos del Instituto de Tecnologías de la USC ICT se propusieron evaluar en qué condiciones los humanos emplearían tácticas de negociación engañosas. A través de una serie de estudios, encontraron que si los humanos adoptarían una gama de técnicas engañosas y furtivas dependía tanto desobre la experiencia previa de negociación de los humanos en la negociación, así como si se emplearon agentes virtuales para negociar en su nombre. Los hallazgos contrastan con estudios anteriores y muestran que cuando los humanos usan intermediarios en forma de agentes virtuales, se sienten más cómodos empleandotécnicas más engañosas de las que normalmente usarían al negociar por sí mismos.
El autor principal del artículo sobre estos estudios, Johnathan Mell, dice: "Queremos comprender las condiciones en las que las personas actúan de manera engañosa, en algunos casos simplemente dándoles un agente de inteligencia artificial que pueda hacer el trabajo sucio por ellos".
Hoy en día, los agentes virtuales se emplean en casi todas partes, desde licitadores automáticos en sitios como eBay hasta asistentes virtuales en teléfonos inteligentes. Un día, estos agentes podrían trabajar en nuestro nombre para negociar la venta de un automóvil, defender un aumento o inclusoresolver una disputa legal.
Mell, quien realizó la investigación durante sus estudios de doctorado en informática en la USC, dice: "Saber diseñar experiencias y agentes artificiales que pueden actuar como algunos de los más tortuosos entre nosotros es útil para aprender a combatir esas técnicas envida real."
Los investigadores están ansiosos por comprender cómo estos agentes virtuales o bots podrían cumplir nuestras órdenes y comprender cómo se comportan los humanos al implementar estos agentes en su nombre.
Gale Lucas, profesor asistente de investigación del Departamento de Ciencias de la Computación de la Facultad de Ingeniería de la USC Viterbi y de la USC ICT, así como el autor correspondiente del estudio publicado en el Revista de investigación en inteligencia artificial dice: "Queríamos predecir cómo las personas van a responder de manera diferente a medida que esta tecnología esté disponible y nos llegue más ampliamente".
El equipo de investigación, formado por Mell, Sharon Mozgai, Jonathan Gratch y Lucas, llevó a cabo tres experimentos separados, centrándose en las condiciones en las que los seres humanos optarían por una serie de comportamientos éticamente dudosos. Estos comportamientos incluían regateos duros presiones agresivas,mentiras manifiestas, retención de información, uso manipulador de emociones negativas fingir enojo, así como construcción de simpatía y apelación mediante el uso de la simpatía. Parte de estos experimentos involucraron negociaciones con agentes virtuales no humanos y programación de agentes virtuales como sus representantes.
Los investigadores encontraron que las personas estaban dispuestas a participar en técnicas engañosas en las siguientes condiciones :
Diga los autores, "La forma en que los humanos dicen que tomarán decisiones y la forma en que realmente toman decisiones rara vez están alineadas". Cuando las personas programaron agentes virtuales para tomar decisiones, actuaron de manera similar como si hubieran contratado a un abogado como representante y a través deeste representante virtual, estaban más dispuestos a recurrir a tácticas engañosas.
"Es posible que las personas con menos experiencia no estén seguras de que puedan usar las técnicas o se sientan incómodas, pero no tienen problemas para programar un agente para que lo haga", dice Lucas.
Otros resultados: cuando los humanos interactuaban con un agente virtual que era justo, eran más justos, pero cuando el agente virtual era más amable o desagradable en términos de sus manifestaciones emocionales, los participantes no cambiaban su disposición a participar en prácticas engañosas.
Los investigadores también obtuvieron algunas ideas sobre el comportamiento humano en general.
En comparación con su disposición a respaldar las técnicas más engañosas, incluidas las mentiras abiertas, la retención de información y el uso manipulador de emociones negativas, "las personas realmente no tienen ningún problema en ser amables para obtener lo que quieren o en ser difíciles de conseguir esoquieren ", dice Lucas, lo que sugiere que estas técnicas aparentemente menos engañosas son consideradas más aceptables moralmente por los participantes.
El trabajo tiene implicaciones para la ética en el uso de la tecnología y para los futuros diseñadores. Los investigadores dicen: "Si los humanos, a medida que adquieren más experiencia, se vuelven más engañosos, los diseñadores de bots podrían dar cuenta de esto".
Lucas señala: "A medida que la gente usa a los agentes para hacer sus ofertas, es posible que veamos que sus ofertas pueden volverse un poco menos éticas".
Mell agrega: "Aunque ciertamente no queremos que las personas sean menos éticas, queremos comprender cómo actúan realmente las personas, razón por la cual experimentos como estos son tan importantes para crear agentes artificiales reales, similares a los humanos".
Fuente de la historia :
Materiales proporcionado por Universidad del Sur de California . Original escrito por Amy Blumenthal. Nota: el contenido se puede editar por estilo y longitud.
Referencia de la revista :
cite esta página :