Hace ocho años, el grupo de investigación de Ted Adelson en el Laboratorio de Ciencias de la Computación e Inteligencia Artificial CSAIL del MIT dio a conocer una nueva tecnología de sensores, llamada GelSight, que utiliza el contacto físico con un objeto para proporcionar un mapa tridimensional notablemente detallado de su superficie.
Ahora, al montar sensores GelSight en las pinzas de brazos robóticos, dos equipos del MIT han dado a los robots una mayor sensibilidad y destreza. Los investigadores presentaron su trabajo en dos documentos en la Conferencia Internacional sobre Robótica y Automatización la semana pasada.
En un artículo, el grupo de Adelson usa los datos del sensor GelSight para permitir que un robot juzgue la dureza de las superficies que toca, una habilidad crucial si los robots domésticos manejan objetos cotidianos.
En el otro, el grupo de locomoción de robots de Russ Tedrake en CSAIL utiliza sensores GelSight para permitir que un robot manipule objetos más pequeños de lo que era posible anteriormente.
El sensor GelSight es, de alguna manera, una solución de baja tecnología para un problema difícil. Consiste en un bloque de caucho transparente, el "gel" de su nombre, una de las cuales está recubierta con pintura metálica.Cuando la cara recubierta de pintura se presiona contra un objeto, se ajusta a la forma del objeto.
La pintura metálica hace que la superficie del objeto sea reflectante, por lo que su geometría se vuelve mucho más fácil de inferir para los algoritmos de visión por computadora. Montados en el sensor opuesto a la cara recubierta de pintura del bloque de goma hay tres luces de colores y una sola cámara.
"[El sistema] tiene luces de colores en diferentes ángulos, y luego tiene este material reflectante, y al observar los colores, la computadora ... puede descubrir la forma tridimensional de lo que es esa cosa", explicaAdelson, profesor de ciencias de la visión de John y Dorothy Wilson en el Departamento de Ciencias del Cerebro y Cognitivas.
En ambos conjuntos de experimentos, se montó un sensor GelSight en un lado de una pinza robótica, un dispositivo similar a la cabeza de una pinza, pero con superficies de agarre planas en lugar de puntas puntiagudas.
puntos de contacto
Para un robot autónomo, medir la suavidad o la dureza de los objetos es esencial para decidir no solo dónde y qué tan difícil es agarrarlos, sino también cómo se comportarán cuando se muevan, apilen o coloquen en diferentes superficies. La detección táctil también podría ayudar a los robots a distinguirobjetos que se parecen.
En trabajos anteriores, los robots han intentado evaluar la dureza de los objetos colocándolos en una superficie plana y empujándolos suavemente para ver cuánto dan. Pero esta no es la forma principal en que los humanos miden la dureza. Más bien, nuestros juicios parecense basará en el grado en que cambia el área de contacto entre el objeto y nuestros dedos a medida que lo presionamos. Los objetos más suaves tienden a aplanarse más, aumentando el área de contacto.
Los investigadores del MIT adoptaron el mismo enfoque. Wenzhen Yuan, un estudiante graduado en ingeniería mecánica y primer autor del artículo del grupo de Adelson, utilizó moldes de confitería para crear 400 grupos de objetos de silicona, con 16 objetos por grupo. En cada grupo,los objetos tenían las mismas formas pero diferentes grados de dureza, que Yuan midió usando una escala industrial estándar.
Luego presionó un sensor GelSight contra cada objeto manualmente y registró cómo el patrón de contacto cambió con el tiempo, esencialmente produciendo una película corta para cada objeto. Para estandarizar el formato de datos y mantener manejable el tamaño de los datos, extrajo cinco cuadrosde cada película, espaciados uniformemente en el tiempo, que describe la deformación del objeto que se presionó.
Finalmente, alimentó los datos a una red neuronal, que buscaba automáticamente correlaciones entre los cambios en los patrones de contacto y las mediciones de dureza. El sistema resultante toma cuadros de video como entradas y produce puntajes de dureza con una precisión muy alta. Yuan también realizó una seriede experimentos informales en los que los sujetos humanos palparon frutas y verduras y las clasificaron según su dureza. En cada caso, el robot equipado con GelSight llegó a la misma clasificación.
A Yuan se le unen en el papel sus dos asesores de tesis, Adelson y Mandayam Srinivasan, un investigador científico senior en el Departamento de Ingeniería Mecánica; Chenzhuo Zhu, un estudiante de la Universidad de Tsinghua que visitó el grupo de Adelson el verano pasado; y Andrew Owens, quienhizo su doctorado en ingeniería eléctrica y ciencias de la computación en el MIT y ahora es un postdoctorado en la Universidad de California en Berkeley.
Vistas obstruidas
El documento del Robot Locomotion Group nació de la experiencia del grupo con el Robotics Challenge DRC de la Agencia de Proyectos de Investigación Avanzada de Defensa, en el que equipos académicos y de la industria compitieron para desarrollar sistemas de control que guiarían a un robot humanoide a través de una serie de tareasrelacionado con una emergencia hipotética.
Normalmente, un robot autónomo utilizará algún tipo de sistema de visión por computadora para guiar su manipulación de objetos en su entorno. Dichos sistemas pueden proporcionar información muy confiable sobre la ubicación de un objeto, hasta que el robot lo recoja. Especialmente si el objetoes pequeño, gran parte será ocluido por la pinza del robot, lo que hace que la estimación de la ubicación sea mucho más difícil. Por lo tanto, exactamente en el punto en el que el robot necesita conocer la ubicación del objeto con precisión, su estimación se vuelve poco confiable. Este fue el problema del equipo del MITenfrentado durante la RDC, cuando su robot tuvo que levantar y encender un taladro eléctrico.
"Puede ver en nuestro video para la RDC que pasamos dos o tres minutos encendiendo el taladro", dice Greg Izatt, un estudiante graduado en ingeniería eléctrica y ciencias de la computación y primer autor del nuevo artículo. "Seríamucho mejor si tuviéramos una actualización precisa y actualizada de dónde estaba ese simulacro y dónde estaban nuestras manos en relación con él ".
Es por eso que el Robot Locomotion Group recurrió a GelSight. Izatt y sus coautores: Tedrake, el Profesor Toyota de Ingeniería Eléctrica e Informática, Aeronáutica y Astronáutica e Ingeniería Mecánica; Adelson; y Geronimo Mirano, otro estudiante graduado enEl grupo de Tedrake diseñó algoritmos de control que utilizan un sistema de visión por computadora para guiar la pinza del robot hacia una herramienta y luego convertir la estimación de ubicación en un sensor GelSight una vez que el robot tiene la herramienta en la mano.
En general, el desafío con este enfoque es conciliar los datos producidos por un sistema de visión con los datos producidos por un sensor táctil. Pero GelSight está basado en la cámara, por lo que su salida de datos es mucho más fácil de integrar con datos visuales quedatos de otros sensores táctiles.
En los experimentos de Izatt, un robot con una pinza equipada con GelSight tuvo que agarrar un destornillador pequeño, sacarlo de una funda y devolverlo. Por supuesto, los datos del sensor GelSight no describen el destornillador completo, solo unUn pequeño parche, pero Izatt descubrió que, siempre que la estimación del sistema de visión de la posición inicial del destornillador fuera precisa en unos pocos centímetros, sus algoritmos podrían deducir qué parte del destornillador estaba tocando el sensor GelSight y así determinar la posición del destornilladoren la mano del robot.
Fuente de la historia :
Materiales proporcionado por Instituto de Tecnología de Massachusetts . Nota: El contenido puede ser editado por estilo y longitud.
Cite esta página :