Por el bien de la seguridad, un automóvil autónomo debe rastrear con precisión el movimiento de peatones, bicicletas y otros vehículos a su alrededor. Capacitar esos sistemas de rastreo ahora puede ser más efectivo gracias a un nuevo método desarrollado en la Universidad Carnegie Mellon.
En términos generales, cuantos más datos de carreteras y tráfico estén disponibles para los sistemas de seguimiento de entrenamiento, mejores serán los resultados. Y los investigadores de CMU han encontrado una manera de desbloquear una montaña de datos de conducción autónoma para este propósito.
"Nuestro método es mucho más sólido que los métodos anteriores porque podemos entrenar en conjuntos de datos mucho más grandes", dijo Himangi Mittal, un becario de investigación que trabaja con David Held, profesor asistente en el Instituto de Robótica de CMU.
La mayoría de los vehículos autónomos navegan principalmente basándose en un sensor llamado lidar, un dispositivo láser que genera información en 3D sobre el mundo que rodea al automóvil. Esta información en 3D no son imágenes, sino una nube de puntos. Una forma en que el vehículo tiene sentidoEstos datos se obtienen mediante el uso de una técnica conocida como flujo de escena. Esto implica calcular la velocidad y la trayectoria de cada punto 3D. Los grupos de puntos que se mueven juntos se interpretan a través del flujo de escena como vehículos, peatones u otros objetos en movimiento.
En el pasado, los métodos de vanguardia para entrenar un sistema de este tipo requerían el uso de conjuntos de datos etiquetados: datos de sensores que se han anotado para rastrear cada punto 3D a lo largo del tiempo. Etiquetar manualmente estos conjuntos de datos es laborioso y costosoPor lo tanto, no es sorprendente que existan pocos datos etiquetados. Como resultado, el entrenamiento del flujo de escenas a menudo se realiza con datos simulados, que son menos efectivos, y luego se ajusta con la pequeña cantidad de datos etiquetados del mundo real que existen.
El estudiante de doctorado de Mittal, Held y robótica, Brian Okorn, adoptó un enfoque diferente, utilizando datos sin etiquetar para realizar el entrenamiento de flujo de escena. Debido a que los datos sin etiquetar son relativamente fáciles de generar al montar un lidar en un automóvil y conducir, no hay escasezde eso.
La clave de su enfoque fue desarrollar una forma para que el sistema detecte sus propios errores en el flujo de la escena. En cada instante, el sistema intenta predecir hacia dónde se dirige cada punto 3D y qué tan rápido se mueve. En el siguiente instante,mide la distancia entre la ubicación predicha del punto y la ubicación real del punto más cercano a la ubicación predicha. Esta distancia forma un tipo de error que debe minimizarse.
Luego, el sistema invierte el proceso, comenzando con la ubicación del punto predicho y trabajando hacia atrás para trazar el mapa de regreso al lugar donde se originó el punto. En este punto, mide la distancia entre la posición predicha y el punto de origen real, y la distancia resultante se formael segundo tipo de error.
El sistema entonces trabaja para corregir esos errores.
"Resulta que para eliminar ambos errores, el sistema en realidad necesita aprender a hacer lo correcto, sin que nunca se le diga qué es lo correcto", dijo Held.
Por complicado que parezca, Okorn descubrió que funcionaba bien. Los investigadores calcularon que la precisión del flujo de la escena utilizando un conjunto de entrenamiento de datos sintéticos era solo del 25%. Cuando los datos sintéticos se ajustaron con una pequeña cantidad de datos realesmundial, la precisión aumentó al 31%. Cuando agregaron una gran cantidad de datos sin etiquetar para entrenar el sistema utilizando su enfoque, la precisión del flujo de la escena saltó al 46%.
El equipo de investigación presentó su método en la conferencia Computer Vision and Pattern Recognition CVPR, que se llevó a cabo virtualmente del 14 al 19 de junio. El CMU Argo AI Center for Autonomous Vehicle Research apoyó esta investigación, con el apoyo adicional de una NASA Space TechnologyBeca de investigación.
Fuente de la historia :
Materiales proporcionado por Universidad Carnegie Mellon . Original escrito por Byron Spice. Nota: el contenido se puede editar por estilo y longitud.
cite esta página :