Dos sistemas recientemente desarrollados para automóviles sin conductor pueden identificar la ubicación y orientación de un usuario en lugares donde el GPS no funciona e identificar los diversos componentes de una escena de la carretera en tiempo real en una cámara o teléfono inteligente normal, realizando el mismo trabajo que los sensoresque cuesta decenas de miles de libras.
Los sistemas separados pero complementarios han sido diseñados por investigadores de la Universidad de Cambridge y las demostraciones están disponibles gratuitamente en línea. Aunque actualmente los sistemas no pueden controlar un automóvil sin conductor, la capacidad de hacer que una máquina 'vea' e identifique con precisión dónde está ylo que está viendo es una parte vital del desarrollo de vehículos autónomos y robótica.
El primer sistema, llamado SegNet, puede tomar una imagen de una escena de la calle que no ha visto antes y clasificarla, clasificando los objetos en 12 categorías diferentes, como carreteras, letreros, peatones, edificios y ciclistas, enen tiempo real. Puede lidiar con entornos de luz, sombra y de noche, y actualmente etiqueta más del 90% de los píxeles correctamente. Los sistemas anteriores que usaban costosos sensores basados en láser o radar no habían podido alcanzar este nivel de precisión mientras operaban en entornos realeshora.
Los usuarios pueden visitar el sitio web de SegNet y cargar una imagen o buscar cualquier ciudad o pueblo en el mundo, y el sistema etiquetará todos los componentes de la escena de la carretera. El sistema ha sido probado con éxito tanto en carreteras como autopistas.
Para los automóviles sin conductor actualmente en desarrollo, los sensores de radar y base son caros; de hecho, a menudo cuestan más que el automóvil en sí. En contraste con los sensores caros, que reconocen objetos a través de una mezcla de radar y LIDAR una detección remotatecnología, SegNet aprende con el ejemplo: fue "entrenado" por un grupo laborioso de estudiantes universitarios de Cambridge, que etiquetaron manualmente cada píxel en cada una de las 5000 imágenes, y cada imagen tardó unos 30 minutos en completarse. Una vez que se terminó el etiquetado,Luego, los investigadores tardaron dos días en 'entrenar' el sistema antes de que se pusiera en práctica.
"Es notablemente bueno reconocer cosas en una imagen, porque ha tenido mucha práctica", dijo Alex Kendall, un estudiante de doctorado en el Departamento de Ingeniería. "Sin embargo, hay un millón de botones que podemos ajustar con precisión"el sistema para que siga mejorando "
SegNet fue entrenado principalmente en carreteras y entornos urbanos, por lo que todavía tiene que aprender a hacerlo en entornos rurales, nevados o desérticos, aunque ha tenido un buen desempeño en las pruebas iniciales para estos entornos.
El sistema aún no se encuentra en el punto en que se puede usar para controlar un automóvil o camión, pero podría usarse como un sistema de advertencia, similar a las tecnologías anticolisión disponibles actualmente en algunos automóviles de pasajeros.
"La visión es nuestro sentido más poderoso y los autos sin conductor también tendrán que ver", dijo el profesor Roberto Cipolla, quien dirigió la investigación. "Pero enseñarle a ver una máquina es mucho más difícil de lo que parece".
De niños, aprendemos a reconocer objetos a través del ejemplo: si se nos muestra un auto de juguete varias veces, aprendemos a reconocer tanto ese auto específico como otros autos similares como el mismo tipo de objeto. Pero con una máquina, esno es tan simple como mostrarle un solo automóvil y luego poder reconocer todos los diferentes tipos de automóviles. Las máquinas hoy en día aprenden bajo supervisión: a veces a través de miles de ejemplos etiquetados.
Hay tres preguntas tecnológicas clave que deben responderse para diseñar vehículos autónomos: dónde estoy, qué me rodea y qué hago a continuación. SegNet responde a la segunda pregunta, mientras que un sistema separado pero complementario responde a la primera mediante el uso de imágenes paradeterminar la ubicación precisa y la orientación.
El sistema de localización diseñado por Kendall y Cipolla se ejecuta en una arquitectura similar a SegNet, y es capaz de localizar a un usuario y determinar su orientación a partir de una sola imagen en color en una escena urbana ocupada. El sistema es mucho más preciso que el GPS y funcionaen lugares donde el GPS no funciona, como en interiores, en túneles o en ciudades donde no hay una señal confiable de GPS.
Se ha probado a lo largo de un tramo de un kilómetro de King's Parade en el centro de Cambridge, y es capaz de determinar tanto la ubicación como la orientación dentro de unos pocos metros y unos pocos grados, que es mucho más preciso que el GPS, una consideración vitalpara automóviles sin conductor. Los usuarios pueden probar el sistema por sí mismos aquí.
El sistema de localización utiliza la geometría de una escena para conocer su ubicación precisa y puede determinar, por ejemplo, si está mirando el lado este u oeste de un edificio, incluso si los dos lados parecen idénticos.
"El trabajo en el campo de la inteligencia artificial y la robótica realmente ha despegado en los últimos años", dijo Kendall. "Pero lo bueno de nuestro grupo es que hemos desarrollado tecnología que utiliza el aprendizaje profundo para determinar dónde estás yqué hay a tu alrededor: esta es la primera vez que se hace esto mediante el aprendizaje profundo "
"A corto plazo, es más probable que veamos este tipo de sistema en un robot doméstico, como una aspiradora robótica, por ejemplo", dijo Cipolla. "Pasará un tiempo antes de que los conductores puedan confiar plenamente en unautomóvil autónomo, pero cuanto más efectivos y precisos podamos hacer estas tecnologías, más cerca estamos de la adopción generalizada de automóviles sin conductor y otros tipos de robótica autónoma ".
Los investigadores presentan detalles de las dos tecnologías en la Conferencia Internacional sobre Visión por Computador en Santiago, Chile.
Fuente de la historia :
Materiales proporcionado por Universidad de Cambridge . La historia original tiene licencia bajo a Licencia Creative Commons . Nota: El contenido puede ser editado por estilo y longitud.
Cita esta página :