Los buenos conductores anticipan situaciones peligrosas y ajustan su manejo antes de que las cosas se pongan difíciles. Los investigadores de la Universidad de Bonn ahora también quieren enseñar esta habilidad a los autos sin conductor. Presentarán un algoritmo correspondiente en la Conferencia Internacional sobre Visión por Computadora que escelebrada el viernes 1 de noviembre en Seúl. También presentarán un conjunto de datos que utilizaron para entrenar y probar su enfoque. Esto hará que sea mucho más fácil desarrollar y mejorar tales procesos en el futuro.
Una calle vacía, una fila de autos estacionados a un lado: nada que indique que debas tener cuidado. Pero espera: ¿no hay una calle lateral más adelante, medio cubierta por los autos estacionados? Tal vez sea mejor que me levantefuera del acelerador, quién sabe si alguien viene por el costado. Constantemente nos encontramos con situaciones como estas al conducir. Interpretarlas correctamente y sacar las conclusiones correctas requiere mucha experiencia. Por el contrario, los autos sin conductor a veces se comportan como un conductor principianteen su primera lección: "Nuestro objetivo es enseñarles un estilo de conducción más anticipatorio", explica el científico informático Prof. Dr. Jürgen Gall. "Esto les permitiría reaccionar mucho más rápidamente ante situaciones peligrosas".
Gall preside el grupo de trabajo "Visión por computadora" en la Universidad de Bonn, que, en cooperación con sus colegas universitarios del Instituto de Fotogrametría y el grupo de trabajo "Sistemas inteligentes autónomos", está investigando una solución a este problema. Los científicosahora presentamos un primer paso en el camino hacia este objetivo en el simposio principal de la disciplina de Gall, la Conferencia Internacional sobre Visión por Computadora en Seúl. "Hemos refinado un algoritmo que completa e interpreta los llamados datos LiDAR", explica.permite que el automóvil anticipe peligros potenciales en una etapa temprana "
Problema: muy pocos datos
LiDAR es un láser giratorio que se monta en el techo de la mayoría de los automóviles sin conductor. El rayo láser se refleja en los alrededores. El sistema LiDAR mide cuándo la luz reflejada cae sobre el sensor y usa este tiempo para calcular la distancia."El sistema detecta la distancia a alrededor de 120,000 puntos alrededor del vehículo por revolución", dice Gall.
El problema con esto: los puntos de medición se vuelven "diluidos" a medida que aumenta la distancia, el espacio entre ellos se ensancha. Esto es como pintar una cara en un globo: cuando lo infla, los ojos se mueven más y más. Inclusopara un ser humano, por lo tanto, es casi imposible obtener una comprensión correcta de los alrededores a partir de un solo escaneo LiDAR es decir, las mediciones de distancia de una sola revolución ". Hace unos años, la Universidad de Karlsruhe KIT registró grandes cantidades deDatos LiDAR, un total de 43,000 escaneos ", explica el Dr. Jens Behley, del Instituto de Fotogrametría." Hemos tomado secuencias de varias docenas de escaneos y las hemos superpuesto ". Los datos obtenidos de esta manera también contienen puntos que el sensor solo teníaregistrado cuando el automóvil ya había conducido unas pocas docenas de yardas más adelante. En pocas palabras, muestran no solo el presente, sino también el futuro.
"Estas nubes de puntos superpuestas contienen información importante como la geometría de la escena y las dimensiones espaciales de los objetos que contiene, que no están disponibles en un solo escaneo", enfatiza Martin Garbade, quien actualmente está haciendo su doctorado en el Institutoof Computer Science. "Además, hemos etiquetado cada punto en ellos, por ejemplo: hay una acera, hay un peatón y atrás hay un motociclista". Los científicos alimentaron su software con un par de datos: un solo escaneo LiDAR como entrada ylos datos de superposición asociados, incluida la información semántica como salida deseada. Repitieron este proceso para varios miles de tales pares.
"Durante esta fase de entrenamiento, el algoritmo aprendió a completar e interpretar escaneos individuales", explica el profesor Gall. "Esto significaba que podía agregar mediciones faltantes e interpretar lo que se vio en los escaneos". La finalización de la escena ya funciona relativamentebien: el proceso puede completar aproximadamente la mitad de los datos que faltan correctamente. La interpretación semántica, es decir, deducir qué objetos están ocultos detrás de los puntos de medición, no funciona tan bien: aquí, la computadora logra una precisión máxima del 18 por ciento.
Sin embargo, los científicos consideran que esta rama de la investigación todavía está en su infancia. "Hasta ahora, simplemente ha habido una falta de conjuntos de datos extensos con los que entrenar los métodos de inteligencia artificial correspondientes", enfatiza Gall. Estamos cerrando unbrecha aquí con nuestro trabajo. Soy optimista de que podremos aumentar significativamente la tasa de precisión en la interpretación semántica en los próximos años ". Considera que el 50 por ciento es bastante realista, lo que podría tener una gran influencia en la calidad de la conducción autónoma.
Fuente de la historia :
Materiales proporcionados por Universidad de Bonn . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cita esta página :