Las computadoras pueden jugar una ronda bastante mala de ajedrez y mantenerse al día con sus mejores contrapartes humanas en otros juegos de suma cero. ¿Pero enseñarles a cooperar y comprometerse en lugar de competir?
Con la ayuda de un nuevo algoritmo creado por los profesores de informática de BYU Jacob Crandall y Michael Goodrich, junto con colegas del MIT y otras universidades internacionales, el compromiso y la cooperación con las máquinas no solo es posible, sino que a veces es incluso más efectivo que entre los humanos.
"El objetivo final es que comprendamos las matemáticas detrás de la cooperación con las personas y qué atributos necesita la inteligencia artificial para desarrollar habilidades sociales", dijo Crandall, cuyo estudio fue publicado recientemente en Comunicaciones de la naturaleza . "La IA necesita poder respondernos y articular lo que está haciendo. Tiene que poder interactuar con otras personas".
Para el estudio, los investigadores programaron máquinas con un algoritmo llamado S # y las ejecutaron a través de una variedad de juegos de dos jugadores para ver qué tan bien cooperarían en ciertas relaciones. El equipo probó máquina-máquina, humano-máquina y humano-interacciones humanas. En la mayoría de los casos, las máquinas programadas con S # superaron a los humanos para encontrar compromisos que beneficien a ambas partes.
"Dos humanos, si fueran honestos el uno con el otro y leales, lo habrían hecho tan bien como dos máquinas", dijo Crandall. "De hecho, aproximadamente la mitad de los humanos mintió en algún momento. Así que esencialmente, este algoritmo en particularestá aprendiendo que las características morales son buenas. Está programado para no mentir, y también aprende a mantener la cooperación una vez que emerge ".
Los investigadores fortalecieron aún más la capacidad de las máquinas para cooperar al programarlas con una variedad de frases de "charla barata". En las pruebas, si los participantes humanos cooperaran con la máquina, la máquina podría responder con un "¡Dulce. Nos estamos haciendo ricos!"o "Acepto tu última propuesta". Si los participantes intentaran traicionar la máquina o no llegar a un acuerdo con ellos, podrían encontrarse con un "¡Maldito seas!" que habla basura. "¡Pagarás por eso!" oincluso un "en tu cara!"
Independientemente del juego o el emparejamiento, la charla barata duplicó la cantidad de cooperación. Y cuando las máquinas usaban charla barata, sus contrapartes humanas a menudo no podían decir si jugaban un humano o una máquina.
Los resultados de la investigación, espera Crandall, podrían tener implicaciones a largo plazo para las relaciones humanas.
"En la sociedad, las relaciones se rompen todo el tiempo", dijo. "Las personas que fueron amigas durante años de repente se convierten en enemigos. Debido a que la máquina a menudo es realmente mejor para alcanzar estos compromisos que nosotros, potencialmente puede enseñarnosotros cómo hacerlo mejor "
Fuente de la historia :
Materiales proporcionado por Universidad Brigham Young . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cita esta página :