Los científicos de la Universidad de Hertfordshire en el Reino Unido han desarrollado un concepto llamado Empoderamiento para ayudar a los robots a proteger y servir a los humanos, mientras se mantienen a salvo.
Los robots se están volviendo más comunes en nuestros hogares y lugares de trabajo y parece que esto continuará. Muchos robots tendrán que interactuar con humanos en situaciones impredecibles. Por ejemplo, los autos autónomos deben mantener seguros a sus ocupantes, mientras protegen el automóvil dedaño. Los robots que cuidan a los ancianos deberán adaptarse a situaciones complejas y responder a las necesidades de sus propietarios.
Recientemente, pensadores como Stephen Hawking han advertido sobre los peligros potenciales de la inteligencia artificial, y esto ha provocado una discusión pública. "La opinión pública parece oscilar entre el entusiasmo por el progreso y la minimización de los riesgos, al miedo directo", dice Daniel Polani,un científico involucrado en la investigación, que se publicó recientemente en Fronteras en robótica e IA .
Sin embargo, el concepto de máquinas "inteligentes" que se vuelven locas y encienden a sus creadores humanos no es nuevo. En 1942, el escritor de ciencia ficción Isaac Asimov propuso sus tres leyes de robótica, que rigen cómo los robots deberían interactuar con los humanos. En pocas palabras,Estas leyes establecen que un robot no debe dañar a un humano, ni permitir que un humano sea dañado. Las leyes también tienen como objetivo garantizar que los robots obedezcan las órdenes de los humanos y protejan su propia existencia, siempre que esto no cause daño a un humano.humano.
Las leyes tienen buenas intenciones, pero están abiertas a malas interpretaciones, especialmente porque los robots no entienden el lenguaje humano matizado y ambiguo. De hecho, las historias de Asimov están llenas de ejemplos en los que los robots malinterpretaron el espíritu de las leyes, con trágicas consecuencias.
Un problema es que el concepto de "daño" es complejo, específico del contexto y es difícil de explicar claramente a un robot. Si un robot no comprende "daño", ¿cómo pueden evitar causarlo? "Nos dimos cuenta de quepodríamos usar diferentes perspectivas para crear un "buen" comportamiento del robot, en general de acuerdo con las leyes de Asimov ", dice Christoph Salge, otro científico involucrado en el estudio.
El concepto que desarrolló el equipo se llama Empoderamiento. En lugar de tratar de hacer que una máquina entienda preguntas éticas complejas, se basa en que los robots siempre buscan mantener abiertas sus opciones ". Empoderamiento significa estar en un estado donde tiene la mayor influencia potencialen el mundo que puedes percibir ", explica Salge." Entonces, para un robot simple, esto podría estar volviendo a su estación de energía de forma segura, y no quedarse atascado, lo que limitaría sus opciones de movimiento.como el robot, esto no solo incluiría movimiento, sino que podría incorporar una variedad de parámetros, lo que daría como resultado unidades más humanas ".
El equipo codificó matemáticamente el concepto de Empoderamiento, para que pueda ser adoptado por un robot. Mientras que los investigadores desarrollaron originalmente el concepto de Empoderamiento en 2005, en un desarrollo clave reciente, expandieron el concepto para que el robot también busque mantener unEmpoderamiento del ser humano: "Queríamos que el robot viera el mundo a través de los ojos del ser humano con el que interactúa", explica Polani. "Mantener al humano seguro consiste en que el robot actúe para aumentar el empoderamiento del ser humano".
"En una situación peligrosa, el robot trataría de mantener al humano vivo y sin lesiones", dice Salge. "No queremos que los robots nos protejan de forma opresiva para minimizar cualquier posibilidad de daño, queremos vivir enun mundo donde los robots mantienen nuestro Empoderamiento "
Este concepto de Empoderamiento altruista podría impulsar robots que se adhieran al espíritu de las tres leyes de Asimov, desde autos autónomos hasta mayordomos de robots. "En última instancia, creo que el Empoderamiento podría formar una parte importante del comportamiento ético general de los robots".dice Salge.
Fuente de la historia :
Materiales proporcionados por fronteras . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cita esta página :