Hacer que los robots hagan cosas no es fácil: generalmente los científicos tienen que programarlos explícitamente o hacer que comprendan cómo los humanos se comunican a través del lenguaje.
¿Pero qué pasaría si pudiéramos controlar los robots de manera más intuitiva, usando solo gestos con las manos y ondas cerebrales?
Un nuevo sistema encabezado por investigadores del Laboratorio de Ciencias de la Computación e Inteligencia Artificial CSAIL del MIT tiene como objetivo hacer exactamente eso, permitiendo a los usuarios corregir instantáneamente los errores del robot con nada más que señales cerebrales y el movimiento de un dedo.
Partiendo del trabajo anterior del equipo centrado en actividades simples de elección binaria, el nuevo trabajo amplía el alcance a las tareas de opción múltiple, abriendo nuevas posibilidades de cómo los trabajadores humanos podrían administrar equipos de robots.
Al monitorear la actividad cerebral, el sistema puede detectar en tiempo real si una persona nota un error cuando un robot realiza una tarea. Usando una interfaz que mide la actividad muscular, la persona puede hacer gestos con las manos para desplazarse y seleccionar la opción correctapara que el robot ejecute.
El equipo demostró el sistema en una tarea en la que un robot mueve un taladro eléctrico a uno de los tres posibles objetivos en el cuerpo de un avión simulado. Es importante destacar que mostraron que el sistema funciona en personas que nunca antes se había visto, lo que significa que las organizacionespodría implementarlo en entornos del mundo real sin necesidad de capacitarlo en los usuarios.
"Este trabajo que combina la retroalimentación EEG y EMG permite interacciones naturales entre humanos y robots para un conjunto más amplio de aplicaciones de las que hemos podido hacer antes de usar solo la retroalimentación EEG", dice Daniela Rus, directora de CSAIL, quien supervisó el trabajo ".incluida la retroalimentación muscular, podemos usar gestos para ordenar espacialmente al robot, con muchos más matices y especificidad ".
El candidato a doctorado Joseph DelPreto fue autor principal en un artículo sobre el proyecto junto con Rus, el ex asociado postdoctoral de CSAIL, Andrés F. Salazar-Gómez, el ex científico de investigación de CSAIL Stephanie Gil, el investigador Ramin M. Hasani y el profesor de la Universidad de Boston Frank H.Guenther. El artículo se presentará en la conferencia Robotics: Science and Systems RSS que tendrá lugar en Pittsburgh la próxima semana.
Interacción intuitiva humano-robot
En la mayoría de los trabajos anteriores, los sistemas generalmente solo podían reconocer las señales cerebrales cuando las personas se entrenaban para "pensar" de manera muy específica pero arbitraria y cuando el sistema se entrenaba en tales señales. Por ejemplo, un operador humano podría tener que mirar diferentespantallas luminosas que corresponden a diferentes tareas del robot durante una sesión de entrenamiento.
No es sorprendente que tales enfoques sean difíciles de manejar para las personas de manera confiable, especialmente si trabajan en campos como la construcción o la navegación que ya requieren una concentración intensa.
Mientras tanto, el equipo de Rus aprovechó el poder de las señales cerebrales llamadas "potenciales relacionados con errores" ErrP, que los investigadores descubrieron que ocurren naturalmente cuando las personas notan errores. Si hay un ErrP, el sistema se detiene para que el usuario pueda corregirlo; si no, continúa.
"Lo mejor de este enfoque es que no hay necesidad de capacitar a los usuarios para que piensen de manera prescrita", dice DelPreto. "La máquina se adapta a usted y no al revés".
Para el proyecto, el equipo usó "Baxter", un robot humanoide de Rethink Robotics. Con la supervisión humana, el robot pasó de elegir el objetivo correcto el 70 por ciento del tiempo a más del 97 por ciento del tiempo.
Para crear el sistema, el equipo aprovechó el poder de la electroencefalografía EEG para la actividad cerebral y la electromiografía EMG para la actividad muscular, colocando una serie de electrodos en el cuero cabelludo y el antebrazo de los usuarios.
Ambas métricas tienen algunas deficiencias individuales: las señales de EEG no siempre son detectables de manera confiable, mientras que las señales de EMG a veces pueden ser difíciles de asignar a movimientos que son más específicos que "moverse hacia la izquierda o hacia la derecha". Sin embargo, la fusión de los dos permite másbiodetección robusta y hace posible que el sistema funcione en nuevos usuarios sin capacitación.
"Al observar las señales musculares y cerebrales, podemos comenzar a percibir los gestos naturales de una persona junto con sus decisiones rápidas sobre si algo va mal", dice DelPreto. "Esto ayuda a que la comunicación con un robot se parezca más a la comunicacióncon otra persona "
El equipo dice que algún día podrían imaginar que el sistema sería útil para los ancianos o los trabajadores con trastornos del lenguaje o movilidad limitada.
"Nos gustaría alejarnos de un mundo donde las personas tienen que adaptarse a las limitaciones de las máquinas", dice Rus. "Enfoques como este muestran que es muy posible desarrollar sistemas robóticos que son una extensión más natural e intuitivade nosotros."
Video: http://www.youtube.com/watch?v=_Or8Lt3YtEA&feature=youtu.be
El proyecto fue financiado, en parte, por la Compañía Boeing.
Fuente de la historia :
Materiales proporcionado por Instituto de Tecnología de Massachusetts, CSAIL . Original escrito por Adam Conner-Simons. Nota: El contenido puede ser editado por estilo y longitud.
Cita esta página :