Una nueva técnica desarrollada por el MIT permite a los robots identificar rápidamente objetos ocultos en una nube tridimensional de datos, que recuerda cómo algunas personas pueden entender una imagen de "Ojo Mágico" densamente estampada si la observan de la manera correcta.
Los robots suelen "ver" su entorno a través de sensores que recopilan y traducen una escena visual en una matriz de puntos. Piense en el mundo de, bueno, "The Matrix", excepto que los números 1 y 0 que ve el personaje de ficción Neo sonreemplazado por puntos, muchos puntos, cuyos patrones y densidades delinean los objetos en una escena en particular.
Las técnicas convencionales que intentan seleccionar objetos de tales nubes de puntos, o nubes de puntos, pueden hacerlo con velocidad o precisión, pero no con ambas.
Con su nueva técnica, los investigadores dicen que un robot puede seleccionar con precisión un objeto, como un animal pequeño, que de otro modo está oculto dentro de una densa nube de puntos, a los pocos segundos de recibir los datos visuales. El equipo dice que la técnica puedese puede usar para mejorar una serie de situaciones en las que la percepción de la máquina debe ser rápida y precisa, incluidos los automóviles sin conductor y los asistentes robóticos en la fábrica y en el hogar.
"Lo sorprendente de este trabajo es que si te pido que encuentres un conejito en esta nube de miles de puntos, no hay forma de que puedas hacer eso", dice Luca Carlone, profesora asistente de aeronáutica y astronáutica y miembro deLaboratorio de Sistemas de Información y Decisión LIDS del MIT: "Pero nuestro algoritmo puede ver el objeto a través de todo este desorden. Así que estamos llegando a un nivel de rendimiento sobrehumano en la localización de objetos".
Carlone y el estudiante graduado Heng Yang presentarán detalles de la técnica a finales de este mes en la conferencia Robótica: Ciencia y Sistemas en Alemania.
"Fallando sin saber"
Los robots actualmente intentan identificar objetos en una nube de puntos comparando un objeto de plantilla, una representación tridimensional de un objeto, como un conejo, con una representación de nube de puntos del mundo real que puede contener ese objeto.La imagen de la plantilla incluye "características" o colecciones de puntos que indican curvaturas o ángulos característicos de ese objeto, como la oreja o la cola del conejito. Los algoritmos existentes primero extraen características similares de la nube de puntos de la vida real, luego intentan combinar esas características ylas características de la plantilla, y finalmente rotar y alinear las características con la plantilla para determinar si la nube de puntos contiene el objeto en cuestión.
Pero los datos de la nube de puntos que se transmiten al sensor de un robot incluyen invariablemente errores, en forma de puntos que están en la posición incorrecta o espaciados incorrectamente, lo que puede confundir significativamente el proceso de extracción y coincidencia de características. Como consecuencia, los robots puedenhacer una gran cantidad de asociaciones incorrectas, o lo que los investigadores llaman "valores atípicos" entre las nubes de puntos, y finalmente identificar erróneamente los objetos o extrañarlos por completo
Carlone dice que los algoritmos de última generación pueden separar las malas asociaciones de las buenas una vez que las características han sido combinadas, pero lo hacen en "tiempo exponencial", lo que significa que incluso un grupo de computadoras pesadas procesando, tamizandoa través de datos de nubes de puntos densos con algoritmos existentes, no sería capaz de resolver el problema en un tiempo razonable. Estas técnicas, aunque precisas, no son prácticas para analizar conjuntos de datos más grandes y reales que contienen nubes de puntos densos.
Otros algoritmos que pueden identificar rápidamente características y asociaciones lo hacen apresuradamente, creando una gran cantidad de valores atípicos o errores de detección en el proceso, sin ser conscientes de estos errores.
"Eso es terrible si esto se está ejecutando en un automóvil autónomo o en cualquier aplicación crítica para la seguridad", dice Carlone. "Fallar sin saber que está fallando es lo peor que puede hacer un algoritmo".
Una vista relajada
Yang y Carlone idearon una técnica que elimina los valores atípicos en el "tiempo polinomial", lo que significa que puede hacerlo rápidamente, incluso para nubes de puntos cada vez más densas. La técnica puede identificar de forma rápida y precisa objetos ocultos en escenas desordenadas.
Los investigadores primero utilizaron técnicas convencionales para extraer características de un objeto plantilla de una nube de puntos. Luego desarrollaron un proceso de tres pasos para hacer coincidir el tamaño, la posición y la orientación del objeto en una nube de puntos con el objeto plantilla, mientrassimultáneamente identificando asociaciones buenas de características malas.
El equipo desarrolló un algoritmo de "esquema de votación adaptativo" para podar los valores atípicos y hacer coincidir el tamaño y la posición de un objeto. Para el tamaño, el algoritmo hace asociaciones entre la plantilla y las características de la nube de puntos, luego compara la distancia relativa entre las características en una plantilla y las características correspondientesen la nube de puntos Si, por ejemplo, la distancia entre dos entidades en la nube de puntos es cinco veces mayor que la de los puntos correspondientes en la plantilla, el algoritmo asigna un "voto" a la hipótesis de que el objeto es cinco veces más grande que la plantillaobjeto.
El algoritmo hace esto para cada asociación de características. Luego, el algoritmo selecciona aquellas asociaciones que caen bajo la hipótesis del tamaño con la mayoría de los votos, e identifica esas como las asociaciones correctas, mientras elimina las otras. De esta manera, la técnica simultáneamenterevela las asociaciones correctas y el tamaño relativo del objeto representado por esas asociaciones. El mismo proceso se utiliza para determinar la posición del objeto.
Los investigadores desarrollaron un algoritmo separado para la rotación, que encuentra la orientación del objeto plantilla en un espacio tridimensional.
Hacer esto es una tarea computacional increíblemente complicada. Imagínese sosteniendo una taza e intentando inclinarla para que coincida con una imagen borrosa de algo que podría ser esa misma taza. Hay muchos ángulos en los que puede inclinar esa taza,y cada uno de esos ángulos tiene una cierta probabilidad de coincidir con la imagen borrosa.
Las técnicas existentes manejan este problema al considerar cada posible inclinación o rotación del objeto como un "costo": cuanto menor es el costo, más probable es que esa rotación cree una coincidencia precisa entre las características. Cada rotación y costo asociado se representa enun tipo de mapa topográfico, compuesto por múltiples colinas y valles, con elevaciones más bajas asociadas con un menor costo.
Pero Carlone dice que esto puede confundir fácilmente un algoritmo, especialmente si hay múltiples valles y ningún punto más bajo discernible que represente la coincidencia exacta y exacta entre una rotación particular de un objeto y el objeto en una nube de puntos. En cambio, el equipo desarrolló unAlgoritmo de "relajación convexa" que simplifica el mapa topográfico, con un solo valle que representa la rotación óptima. De esta manera, el algoritmo puede identificar rápidamente la rotación que define la orientación del objeto en la nube de puntos.
Con su enfoque, el equipo pudo identificar de forma rápida y precisa tres objetos diferentes, un conejito, un dragón y un Buda, ocultos en nubes de puntos de densidad creciente. También pudieron identificar objetos en la vida realescenas, incluida una sala de estar, en las que el algoritmo pudo detectar rápidamente una caja de cereal y una gorra de béisbol.
Carlone dice que debido a que el enfoque puede funcionar en "tiempo polinomial", se puede ampliar fácilmente para analizar nubes de puntos aún más densas, por ejemplo, con la complejidad de los datos del sensor para automóviles sin conductor.
"Navegación, fabricación colaborativa, robots domésticos, búsqueda y rescate, y autos autónomos es donde esperamos tener un impacto", dice Carlone.
Esta investigación fue apoyada en parte por el Laboratorio de Investigación del Ejército, la Oficina de Investigación Naval y el Programa de Investigación Google Daydream.
Fuente de la historia :
Materiales proporcionado por Instituto de Tecnología de Massachusetts . Original escrito por Jennifer Chu. Nota: El contenido puede ser editado por estilo y longitud.
Cite esta página :