Las cámaras inteligentes podrían estar un paso más cerca gracias a una colaboración de investigación entre las universidades de Bristol y Manchester, que han desarrollado cámaras que pueden aprender y comprender lo que están viendo.
Los roboticistas y los investigadores de inteligencia artificial IA saben que existe un problema en la forma en que los sistemas actuales perciben y procesan el mundo. Actualmente todavía están combinando sensores, como cámaras digitales diseñadas para grabar imágenes, con dispositivos informáticos como unidades de procesamiento de gráficos GPU diseñadas para acelerar gráficos para videojuegos.
Esto significa que los sistemas de inteligencia artificial perciben el mundo solo después de registrar y transmitir información visual entre sensores y procesadores. Pero muchas cosas que se pueden ver a menudo son irrelevantes para la tarea en cuestión, como el detalle de las hojas en los árboles de la carretera como un automóvil autónomoSin embargo, en este momento toda esta información es capturada por sensores con meticuloso detalle y enviada atascando el sistema con datos irrelevantes, consumiendo energía y tomando tiempo de procesamiento. Es necesario un enfoque diferente para permitir una visión eficiente para máquinas inteligentes.
Dos artículos de la colaboración de Bristol y Manchester han demostrado cómo la detección y el aprendizaje se pueden combinar para crear cámaras novedosas para sistemas de IA.
Walterio Mayol-Cuevas, profesor de robótica, visión por computadora y sistemas móviles en la Universidad de Bristol e investigador principal PI, comentó: "Para crear sistemas de percepción eficientes, necesitamos traspasar los límites más allá de las formas que hemos estado siguiendo.lejos.
"Podemos tomar inspiración de la forma en que los sistemas naturales procesan el mundo visual; no percibimos todo; nuestros ojos y nuestro cerebro trabajan juntos para darle sentido al mundo y, en algunos casos, los ojos mismos procesan para ayudarel cerebro reduce lo que no es relevante ".
Esto se demuestra por la forma en que el ojo de la rana tiene detectores que detectan objetos parecidos a moscas, directamente en el punto donde se detectan las imágenes.
Los artículos, uno dirigido por la Dra. Laurie Bose y el otro por Yanan Liu en Bristol, han revelado dos refinamientos hacia este objetivo. Al implementar redes neuronales convolucionales CNN, una forma de algoritmo de inteligencia artificial para permitir la comprensión visual, directamente en elplano de la imagen. Las CNN que el equipo ha desarrollado pueden clasificar fotogramas a miles de veces por segundo, sin tener que grabar estas imágenes o enviarlas por la tubería de procesamiento. Los investigadores consideraron demostraciones de clasificación de números escritos a mano, gestos con las manos e incluso clasificación del plancton.
La investigación sugiere un futuro con cámaras de inteligencia artificial dedicadas inteligentes: sistemas visuales que pueden simplemente enviar información de alto nivel al resto del sistema, como el tipo de objeto o evento que tiene lugar frente a la cámara. Este enfoquehacen que los sistemas sean mucho más eficientes y seguros, ya que no es necesario grabar imágenes.
El trabajo ha sido posible gracias a la arquitectura SCAMP desarrollada por Piotr Dudek, profesor de circuitos y sistemas y PI de la Universidad de Manchester, y su equipo. El SCAMP es un chip de cámara-procesador que el equipo describe como PixelProcessor Array PPA. Un PPA tiene un procesador integrado en todos y cada uno de los píxeles que pueden comunicarse entre sí para procesar en forma verdaderamente paralela. Esto es ideal para CNN y algoritmos de visión.
El profesor Dudek dijo: "La integración de la detección, el procesamiento y la memoria a nivel de píxeles no solo permite sistemas de alto rendimiento y baja latencia, sino que también promete hardware de baja potencia y alta eficiencia.
"Los dispositivos SCAMP se pueden implementar con huellas similares a los sensores de cámara actuales, pero con la capacidad de tener un procesador paralelo masivo de uso general justo en el punto de captura de la imagen".
El Dr. Tom Richardson, profesor titular de mecánica de vuelo de la Universidad de Bristol y miembro del proyecto ha estado integrando la arquitectura SCAMP con drones ligeros.
Explicó: 'Lo que es tan emocionante acerca de estas cámaras no es solo la capacidad de aprendizaje automático recién emergente, sino la velocidad a la que funcionan y la configuración liviana.
"¡Son absolutamente ideales para plataformas aéreas de alta velocidad y muy ágiles que pueden aprender literalmente sobre la marcha! '
La investigación, financiada por el Consejo de Investigación en Ingeniería y Ciencias Físicas EPSRC, ha demostrado que es importante cuestionar las suposiciones que existen cuando se diseñan los sistemas de IA. Y cosas que a menudo se dan por sentado, como las cámaras, puede y debe mejorarse hacia el objetivo de máquinas inteligentes más eficientes.
Papeles
'Integración completa de redes convolucionales rápidas en matrices de procesadores de píxeles' por Laurie Bose, Jianing Chen, Stephen J. Carey, Piotr Dudek y Walterio Mayol-Cuevas presentado en la Conferencia Europea de Visión por Computador ECCV 2020
'Inferencia CNN de alta velocidad y peso ligero a través de convoluciones escalonadas en una matriz de procesadores de píxeles' por Yanan Liu, Laurie Bose, Jianing Chen, Stephen J. Carey, Piotr Dudek, Walterio Mayol-Cuevas presentado en la Conferencia Británica de Visión Artificial BMVC 2020
Fuente de la historia :
Materiales proporcionado por Universidad de Bristol . Nota: el contenido se puede editar por estilo y longitud.
cite esta página :