Incluso a medida que los robots autónomos mejoren para hacer las cosas por su cuenta, aún habrá muchas circunstancias en las que los humanos podrían necesitar intervenir y tomar el control. El nuevo software desarrollado por científicos informáticos de la Universidad de Brown permite a los usuarios controlar robots de forma remota utilizando la realidad virtual, que ayuda a los usuarios a sumergirse en los alrededores de un robot a pesar de estar físicamente a kilómetros de distancia.
El software conecta los brazos y pinzas de un robot, así como sus cámaras y sensores integrados al hardware de realidad virtual estándar a través de Internet. Usando controladores portátiles, los usuarios pueden controlar la posición de los brazos del robot para realizar tareas de manipulación complejas solomoviendo sus propios brazos. Los usuarios pueden entrar en la piel metálica del robot y obtener una vista del entorno en primera persona, o pueden caminar alrededor del robot para examinar la escena en tercera persona, lo que sea más fácil para realizar la tarea en cuestiónLos datos transferidos entre el robot y la unidad de realidad virtual son lo suficientemente compactos como para ser enviados a través de Internet con un retraso mínimo, lo que permite a los usuarios guiar a los robots desde grandes distancias.
"Creemos que esto podría ser útil en cualquier situación en la que necesitemos algo de manipulación hábil, pero donde la gente no debería hacerlo", dijo David Whitney, un estudiante graduado en Brown que codirigió el desarrollo del sistema."Tres ejemplos en los que estábamos pensando específicamente eran desactivar bombas, trabajar dentro de una instalación nuclear dañada u operar el brazo robótico en la Estación Espacial Internacional".
Whitney co-dirigió el trabajo con Eric Rosen, un estudiante universitario en Brown. Ambos trabajan en el laboratorio Brown's Humans to Robots, dirigido por Stefanie Tellex, profesora asistente de ciencias de la computación. Un documento que describe el sistema y evalúa su usabilidadfue presentado esta semana en el Simposio Internacional sobre Investigación en Robótica en Chile.
Vea el video del sistema en uso aquí: http://www.youtube.com/watch?v=e3jUbQKciC4
Incluso los robots altamente sofisticados a menudo se controlan de forma remota utilizando algunos medios poco sofisticados, a menudo un teclado o algo así como un controlador de videojuego y un monitor bidimensional. Eso funciona bien, dicen Whitney y Rosen, para tareas como conducir un robot con ruedasalrededor o volando un dron, pero puede ser problemático para tareas más complejas.
"Para cosas como operar un brazo robótico con muchos grados de libertad, los teclados y los controladores de juegos simplemente no son muy intuitivos", dijo Whitney. Y mapear un entorno tridimensional en una pantalla bidimensional podría limitar la percepción deel espacio que habita el robot.
Whitney y Rosen pensaron que la realidad virtual podría ofrecer una opción más intuitiva e inmersiva. Su software une un robot de investigación Baxter con un HTC Vive, un sistema de realidad virtual que viene con controladores manuales. El software utiliza los sensores del robot para crear un puntomodelo de nube del robot en sí y sus alrededores, que se transmite a una computadora remota conectada al Vive. Los usuarios pueden ver ese espacio en el auricular y prácticamente caminar dentro de él. Al mismo tiempo, los usuarios ven video en vivo de alta definiciónde las cámaras de muñeca del robot para obtener vistas detalladas de las tareas de manipulación que se realizarán.
Para su estudio, los investigadores demostraron que podían crear una experiencia inmersiva para los usuarios mientras mantenían la carga de datos lo suficientemente pequeña como para que pudiera ser transportada a través de Internet sin un retraso molesto. Un usuario en Providence, RI, por ejemplo, pudopara realizar una tarea de manipulación, el apilamiento de vasos de plástico uno dentro de los otros, utilizando un robot a 41 millas de distancia en Cambridge, Massachusetts.
En estudios adicionales, 18 usuarios novatos pudieron completar la tarea de apilar vasos un 66 por ciento más rápido en realidad virtual en comparación con una interfaz tradicional de teclado y monitor. Los usuarios también informaron que disfrutaban más de la interfaz virtual, y encontraron las tareas de manipulaciónser menos exigente en comparación con el teclado y el monitor.
Rosen cree que la mayor velocidad en la realización de la tarea se debió a la intuición de la interfaz de realidad virtual.
"En realidad virtual, las personas pueden mover el robot como mueven sus cuerpos, y así pueden hacerlo sin pensarlo", dijo Rosen. "Eso permite a las personas concentrarse en el problema o la tarea en cuestión sin el aumento de la carga cognitivade tratar de descubrir cómo mover el robot "
Los investigadores planean continuar desarrollando el sistema. La primera iteración se centró en una tarea de manipulación bastante simple con un robot que estaba parado en el entorno. Les gustaría probar tareas más complejas y luego combinar la manipulación con la navegación.También me gusta experimentar con autonomía mixta, donde el robot realiza algunas tareas por su cuenta y el usuario se hace cargo de otras tareas.
Los investigadores han hecho que el sistema esté disponible gratuitamente en la web github.com/h2r/ros_reality .Esperan que otros investigadores de robótica lo intenten y lo tomen en sus propias direcciones.
Además de Whitney, Rosen y Tellex, otros autores del artículo fueron Elizabeth Phillips, investigadora postdoctoral de Brown's Humanity Centered Robotics Initiative, y George Konidaris, como profesor asistente de ciencias de la computación. El trabajo fue financiado en parte por la DefensaAgencia de Proyectos de Investigación Avanzada DARPA W911NF-15-1-0503, YFA: D15AP00104, YFA: GR5245014 y D15AP00102 y NASA GR5227035.
Fuente de la historia :
Materiales proporcionado por Universidad de Brown . Nota: El contenido puede ser editado por estilo y longitud.
Cita esta página :