Es una gran pregunta para muchas personas en ciudades con mucho tráfico como Los Ángeles: ¿cuándo llegarán los autos sin conductor? Pero después de una serie de accidentes de alto perfil en los Estados Unidos, los problemas de seguridad podrían llevar el sueño autónomo a un chirridodetener.
En la USC, los investigadores han publicado un nuevo estudio que aborda un problema de larga data para los desarrolladores de vehículos autónomos: probar los algoritmos de percepción del sistema, que permiten que el automóvil "entienda" lo que "ve".
Al trabajar con investigadores de la Universidad Estatal de Arizona, el nuevo método matemático del equipo puede identificar anomalías o errores en el sistema antes de que el automóvil salga a la carretera.
Los algoritmos de percepción se basan en redes neuronales convolucionales, impulsadas por el aprendizaje automático, un tipo de aprendizaje profundo. Estos algoritmos son notoriamente difíciles de probar, ya que no entendemos completamente cómo hacen sus predicciones. Esto puede conducir a consecuencias devastadoras ensistemas críticos para la seguridad, como los vehículos autónomos.
"Hacer robustos los algoritmos de percepción es uno de los principales desafíos para los sistemas autónomos", dijo el autor principal del estudio, Anand Balakrishnan, estudiante de doctorado en ciencias de la computación de la USC.
"Usando este método, los desarrolladores pueden reducir los errores en los algoritmos de percepción mucho más rápido y usar esta información para entrenar aún más el sistema. De la misma manera que los autos tienen que pasar por pruebas de choque para garantizar la seguridad, este método ofrece una ventajaprueba para detectar errores en sistemas autónomos "
El documento, titulado Especificación y evaluación de métricas de calidad para sistemas de percepción basados en la visión, se presentó en la conferencia Diseño, automatización y prueba en Europa en Italia, el 28 de marzo.
Aprendiendo sobre el mundo
Normalmente, los vehículos autónomos "aprenden" sobre el mundo a través de sistemas de aprendizaje automático, que se alimentan con grandes conjuntos de datos de imágenes de carreteras antes de que puedan identificar objetos por sí mismos.
Pero el sistema puede salir mal. En el caso de un accidente fatal entre un automóvil sin conductor y un peatón en Arizona en marzo pasado, el software clasificó al peatón como un "falso positivo" y decidió que no era necesario detenerse.
"Pensamos, claramente hay algún problema con la forma en que se ha entrenado este algoritmo de percepción", dijo el coautor del estudio, Jyo Deshmukh, profesor de informática de la USC y ex ingeniero de investigación y desarrollo de Toyota, especializado en seguridad de vehículos autónomos.
"Cuando un ser humano percibe un video, hay ciertas suposiciones acerca de la persistencia que usamos implícitamente: si vemos un automóvil dentro de un cuadro de video, esperamos verlo en una ubicación cercana en el siguiente cuadro de video. Esto esuna de varias 'condiciones de cordura' que queremos que satisfaga el algoritmo de percepción antes del despliegue ".
Por ejemplo, un objeto no puede aparecer y desaparecer de un cuadro a otro. Si lo hace, viola una "condición de cordura" o ley básica de la física, lo que sugiere que hay un error en el sistema de percepción.
Deshmukh y su estudiante de doctorado Balakrishnan, junto con el estudiante de doctorado USC Xin Qin y el estudiante de maestría Aniruddh Puranic, se unieron con tres investigadores de la Universidad Estatal de Arizona para investigar el problema.
No hay margen de error
El equipo formuló una nueva lógica matemática, llamada Timed Quality Temporal Logic, y la usó para probar dos herramientas populares de aprendizaje automático, Squeeze Det y YOLO, utilizando conjuntos de datos de video sin procesar de escenas de conducción.
La lógica se perfeccionó con éxito en las instancias de las herramientas de aprendizaje automático que violan las "condiciones de cordura" en varios cuadros en el video. Lo más común es que los sistemas de aprendizaje automático no detectaron un objeto o clasificaron mal un objeto.
Por ejemplo, en un ejemplo, el sistema no reconoció a un ciclista desde atrás, cuando el neumático de la bicicleta parecía una delgada línea vertical. En cambio, clasificó erróneamente al ciclista como peatón. En este caso, el sistema podría fallaranticipar correctamente el próximo movimiento del ciclista, lo que podría provocar un accidente.
Los objetos fantasma, donde el sistema percibe un objeto cuando no hay ninguno, también eran comunes. Esto podría hacer que el automóvil golpee por error en los descansos, otro movimiento potencialmente peligroso.
El método del equipo podría usarse para identificar anomalías o errores en el algoritmo de percepción antes del despliegue en el camino y permite al desarrollador identificar problemas específicos.
La idea es detectar problemas con el algoritmo de percepción en las pruebas virtuales, haciendo que los algoritmos sean más seguros y confiables. Fundamentalmente, debido a que el método se basa en una biblioteca de "condiciones de cordura", no hay necesidad de que los humanos etiqueten los objetos en la pruebaconjunto de datos: un proceso lento y a menudo defectuoso.
En el futuro, el equipo espera incorporar la lógica para volver a entrenar los algoritmos de percepción cuando encuentre un error. También podría extenderse al uso en tiempo real, mientras el automóvil conduce, como un monitor de seguridad en tiempo real.
Fuente de la historia :
Materiales proporcionado por Universidad del Sur de California . Nota: El contenido puede ser editado por estilo y longitud.
Cita esta página :