Antes de que un brazo robótico pueda alcanzar un espacio reducido o recoger un objeto delicado, el robot necesita saber con precisión dónde está su mano. Investigadores del Instituto de Robótica de la Universidad Carnegie Mellon han demostrado que una cámara conectada a la mano del robot puede crear rápidamenteun modelo tridimensional de su entorno y también ubica la mano dentro de ese mundo tridimensional.
Hacerlo con cámaras imprecisas y brazos tambaleantes en tiempo real es difícil, pero el equipo de CMU descubrió que podían mejorar la precisión del mapa al incorporar el brazo en sí como sensor, utilizando el ángulo de sus articulaciones para determinar mejor la posturade la cámara. Esto sería importante para una serie de aplicaciones, incluidas las tareas de inspección, dijo Matthew Klingensmith, un estudiante de doctorado en robótica.
Los investigadores presentarán sus hallazgos el 17 de mayo en la Conferencia Internacional IEEE sobre Robótica y Automatización en Estocolmo, Suecia. Siddhartha Srinivasa, profesor asociado de robótica, y Michael Kaess, profesor asistente de investigación de robótica, se unieron a Klingensmith en el estudio.
La colocación de una cámara u otro sensor en la mano de un robot se ha vuelto factible a medida que los sensores se han vuelto más pequeños y más eficientes en cuanto al consumo de energía, dijo Srinivasa. Eso es importante, explicó, porque los robots "generalmente tienen cabezas que consisten en un palo con uncámara ". No pueden inclinarse como lo haría una persona para tener una mejor vista del espacio de trabajo.
Pero un ojo en la mano no es muy bueno si el robot no puede ver su mano y no sabe dónde está su mano en relación con los objetos en su entorno. Es un problema compartido con robots móviles que deben operar en unentorno desconocido. Una solución popular para los robots móviles se llama localización y mapeo simultáneos, o SLAM, en el que el robot junta la entrada de sensores como cámaras, radares láser y odometría de rueda para crear un mapa tridimensional del nuevo entorno yaveriguar dónde está el robot dentro de ese mundo tridimensional.
"Hay varios algoritmos disponibles para construir estos mundos detallados, pero requieren sensores precisos y una cantidad ridícula de cómputo", dijo Srinivasa.
Esos algoritmos a menudo suponen que se sabe poco sobre la pose de los sensores, como podría ser el caso si la cámara fuera de mano, dijo Klingensmith. Pero si la cámara está montada en un brazo de robot, agregó, la geometría del brazorestringirá cómo se puede mover.
"El seguimiento automático de los ángulos de las articulaciones permite que el sistema produzca un mapa de alta calidad incluso si la cámara se mueve muy rápido o si algunos de los datos del sensor faltan o son engañosos", dijo Klingensmith.
Los investigadores demostraron su Movimiento de robot articulado para SLAM ARM-SLAM usando una cámara de pequeña profundidad conectada a un brazo manipulador liviano, el Kinova Mico. Al usarlo para construir un modelo 3-D de una estantería, descubrieron queprodujeron reconstrucciones equivalentes o mejores a otras técnicas de mapeo.
"Todavía tenemos mucho que hacer para mejorar este enfoque, pero creemos que tiene un enorme potencial para la manipulación de robots", dijo Srinivasa. Toyota, la Oficina de Investigación Naval de EE. UU. Y la Fundación Nacional de Ciencias respaldaron esta investigación.
Fuente de la historia :
Materiales proporcionado por Universidad Carnegie Mellon . Original escrito por Byron Spice. Nota: El contenido puede ser editado por estilo y longitud.
Cita esta página :