Los robots de cocina son una visión popular del futuro, pero si un robot de hoy trata de agarrar un elemento básico de la cocina, como una taza de medir transparente o un cuchillo brillante, probablemente no podrá hacerlo. Los objetos transparentes y reflectantes son elcosas de pesadillas de robots.
Los robotistas de la Universidad Carnegie Mellon, sin embargo, informan el éxito con una nueva técnica que han desarrollado para enseñar a los robots a recoger estos objetos problemáticos. La técnica no requiere sensores sofisticados, entrenamiento exhaustivo u orientación humana, pero se basa principalmente en uncámara a color. Los investigadores presentarán este nuevo sistema durante la conferencia virtual de la Conferencia Internacional sobre Robótica y Automatización de este verano.
David Held, profesor asistente del Instituto de Robótica de CMU, dijo que las cámaras de profundidad, que emiten luz infrarroja sobre un objeto para determinar su forma, funcionan bien para identificar objetos opacos. Pero la luz infrarroja pasa directamente a través de objetos claros y se dispersa de las superficies reflectantes.Por lo tanto, las cámaras de profundidad no pueden calcular una forma precisa, lo que resulta en formas en gran parte planas o llenas de agujeros para objetos transparentes y reflectantes.
Pero una cámara en color puede ver objetos transparentes y reflectantes, así como también opacos. Por lo tanto, los científicos de CMU desarrollaron un sistema de cámara en color para reconocer formas basadas en el color. Una cámara estándar no puede medir formas como una cámara de profundidad, pero los investigadores no obstantepudieron entrenar el nuevo sistema para imitar el sistema de profundidad e inferir implícitamente la forma para agarrar objetos. Lo hicieron usando imágenes de cámara de profundidad de objetos opacos combinados con imágenes en color de esos mismos objetos.
Una vez entrenado, el sistema de cámara en color se aplicó a objetos transparentes y brillantes. Basado en esas imágenes, junto con cualquier información escasa que una cámara de profundidad pudiera proporcionar, el sistema podría captar estos objetos desafiantes con un alto grado de éxito.
"A veces echamos de menos", reconoció Held, "pero en su mayor parte hizo un trabajo bastante bueno, mucho mejor que cualquier sistema anterior para captar objetos transparentes o reflectantes".
El sistema no puede recoger objetos transparentes o reflectantes tan eficientemente como los objetos opacos, dijo Thomas Weng, un estudiante de doctorado en robótica. Pero es mucho más exitoso que los sistemas de cámaras de profundidad por sí solos. Y el aprendizaje de transferencia multimodal utilizadoentrenar el sistema fue tan efectivo que el sistema de color demostró ser casi tan bueno como el sistema de cámara de profundidad para recoger objetos opacos.
"Nuestro sistema no solo puede recoger objetos transparentes y reflectantes individuales, sino que también puede agarrar dichos objetos en pilas desordenadas", agregó.
Otros intentos de agarre robótico de objetos transparentes se han basado en sistemas de entrenamiento basados en intentos de agarre exhaustivamente repetidos, del orden de 800,000 intentos, o en etiquetado humano costoso de objetos.
El sistema CMU usa una cámara comercial RGB-D que es capaz de imágenes en color RGB e imágenes en profundidad D. El sistema puede usar este sensor único para clasificar objetos reciclables u otras colecciones de objetos, algunos opacos, otrostransparente, algo reflexivo.
Video: http://www.youtube.com/watch?v=Gny7NfmqyOk&feature=emb_logo
Fuente de la historia :
Materiales proporcionado por Universidad Carnegie Mellon . Original escrito por Byron Spice. Nota: El contenido puede ser editado por estilo y longitud.
Cita esta página :