El grupo de John Leonard en el Departamento de Ingeniería Mecánica del MIT se especializa en SLAM, o localización y mapeo simultáneos, la técnica mediante la cual los robots autónomos móviles mapean sus entornos y determinan sus ubicaciones.
La semana pasada, en la conferencia de Ciencia y Sistemas de Robótica, los miembros del grupo de Leonard presentaron un nuevo documento que demuestra cómo SLAM se puede utilizar para mejorar los sistemas de reconocimiento de objetos, que será un componente vital de los futuros robots que deben manipular los objetos a su alrededor.ellos de manera arbitraria.
El sistema usa información SLAM para aumentar los algoritmos de reconocimiento de objetos existentes. Su rendimiento debería continuar mejorando a medida que los investigadores de visión por computadora desarrollen un mejor software de reconocimiento, y los robotistas desarrollen un mejor software SLAM.
"Considerando el reconocimiento de objetos como una caja negra, y considerando a SLAM como una caja negra, ¿cómo los integra de una manera agradable?", Pregunta Sudeep Pillai, un estudiante graduado en ciencias de la computación e ingeniería y primer autor del nuevo artículo."¿Cómo incorporas probabilidades desde cada punto de vista a lo largo del tiempo? Eso es realmente lo que queríamos lograr".
Sin embargo, a pesar de trabajar con SLAM y algoritmos de reconocimiento de objetos existentes, y a pesar de usar solo la salida de una cámara de video normal, el rendimiento del sistema ya es comparable al de los sistemas robóticos de reconocimiento de objetos especiales que tienen en cuenta las mediciones de profundidad comoasí como información visual.
Y, por supuesto, debido a que el sistema puede fusionar información capturada desde diferentes ángulos de cámara, funciona mucho mejor que los sistemas de reconocimiento de objetos que intentan identificar objetos en imágenes fijas.
límites de dibujo
Pillai dice que antes de arriesgarse a adivinar qué objetos contiene una imagen, los sistemas de reconocimiento de objetos más nuevos primero intentan identificar los límites entre los objetos. Sobre la base de un análisis preliminar de las transiciones de color, dividirán una imagen en regiones rectangularesque probablemente contengan objetos de algún tipo. Luego ejecutarán un algoritmo de reconocimiento solo en los píxeles dentro de cada rectángulo.
Para obtener un buen resultado, un sistema clásico de reconocimiento de objetos puede tener que volver a dibujar esos rectángulos miles de veces. Desde algunas perspectivas, por ejemplo, dos objetos que se encuentran uno al lado del otro podrían verse como uno, particularmente si tienen colores similaresEl sistema tendría que probar la hipótesis que los agrupa, así como las hipótesis que los tratan por separado.
Sin embargo, debido a que un mapa SLAM es tridimensional, hace un mejor trabajo al distinguir objetos que están cerca uno del otro que el análisis de perspectiva única. El sistema ideado por Pillai y Leonard, profesor de ingeniería mecánica y oceánica, utilizael mapa SLAM para guiar la segmentación de las imágenes capturadas por su cámara antes de alimentarlas al algoritmo de reconocimiento de objetos. De este modo, se pierde menos tiempo en hipótesis espurias.
Más importante, los datos SLAM permiten que el sistema correlacione la segmentación de imágenes capturadas desde diferentes perspectivas. El análisis de segmentos de imagen que probablemente representan los mismos objetos desde diferentes ángulos mejora el rendimiento del sistema.
Imagen perfecta
Utilizando el aprendizaje automático, otros investigadores han construido sistemas de reconocimiento de objetos que actúan directamente sobre mapas 3D SLAM detallados creados a partir de datos capturados por cámaras, como Microsoft Kinect, que también realizan mediciones de profundidad. Pero a diferencia de esos sistemas, Pillai yEl sistema de Leonard puede explotar el vasto cuerpo de investigación sobre reconocedores de objetos entrenados en imágenes de perspectiva única capturadas por cámaras estándar.
Además, el rendimiento del sistema de Pillai y Leonard ya es comparable al de los sistemas que usan información de profundidad. Y es mucho más confiable en exteriores, donde los sensores de profundidad como el Kinect, que dependen de la luz infrarroja, son prácticamente inútiles.
El nuevo artículo de Pillai y Leonard describe cómo SLAM puede ayudar a mejorar la detección de objetos, pero en el trabajo en curso, Pillai está investigando si la detección de objetos puede ayudar a SLAM de manera similar. Uno de los desafíos centrales en SLAM es lo que los robotistas llaman "cierre de bucle".El robot construye un mapa de su entorno, puede encontrarse en algún lugar donde ya ha estado, ingresando a una habitación, por ejemplo, desde una puerta diferente. El robot debe ser capaz de reconocer las ubicaciones visitadas previamente, para poder fusionar los datos de mapeo adquiridos deperspectivas diferentes.
El reconocimiento de objetos podría ayudar con ese problema. Si un robot ingresa a una sala para encontrar una mesa de conferencias con una computadora portátil, una taza de café y una computadora portátil en un extremo, podría inferir que es la misma sala de conferencias donde anteriormenteidentificó una computadora portátil, una taza de café y una libreta muy cerca.
Fuente de la historia :
Materiales proporcionado por Instituto de Tecnología de Massachusetts . Nota: El contenido puede ser editado por estilo y longitud.
Cita esta página :