Si eres un fanático de las películas de espías, probablemente te hayas encontrado con escenas en las que los agentes de inteligencia intentan identificar o detectar a un perpetrador utilizando una tecnología sofisticada de mejora de imagen en las imágenes de las cámaras de vigilancia. Mientras que la idea detrás de las cámaras de vigilancia y la detección de objetoses el mismo en la vida real, a diferencia de las películas, a menudo existe una compensación entre el campo de visión de la cámara y su resolución.
Por lo general, se requiere que las cámaras de vigilancia tengan un campo de visión amplio para hacer que la detección de una amenaza sea más probable. Debido a esto, las cámaras omnidireccionales que permiten un rango de captura de 360 grados se han convertido en una opción popular, por la razón obvia de queno dejan un punto ciego, pero también porque su instalación es barata. Sin embargo, estudios recientes sobre el reconocimiento de objetos en cámaras omnidireccionales muestran que los objetos distantes capturados en estas cámaras tienen una resolución bastante pobre, lo que dificulta su identificación.solución obvia, la resolución mínima requerida, según un estudio, es 4K 3840 X 2160 píxeles, lo que se traduce en enormes requisitos de tasa de bits y la necesidad de una compresión de imagen eficiente.
Además, las imágenes omnidireccionales 3D a menudo no se pueden procesar en forma cruda debido a los efectos de distorsión de la lente y deben proyectarse primero en 2D ". Procesamiento continuo bajo altas cargas computacionales incurridas por tareas como la detección de objetos en movimiento combinada con la conversión de un video de 360 gradosa 4K o resoluciones más altas en imágenes 2D es simplemente inviable en términos de rendimiento en la vida real y costos de instalación ", dice el Dr. Chinthaka Premachandra del Instituto de Tecnología de Shibaura SIT, Japón, que investiga el procesamiento de imágenes.
Aborda este tema en su último estudio publicado en Diario de sensores IEEE , El Dr. Premachandra, junto con su colega Masaya Tamaki de SIT, consideraron un sistema en el que se usaría una cámara omnidireccional para ubicar una región de interés mientras que una cámara separada capturaría su imagen de alta resolución, lo que permitiría una identificación de objetos altamente precisasin incurrir en grandes costos de computación. En consecuencia, construyeron una plataforma de cámara híbrida que consta de una cámara omnidireccional y una cámara de giro e inclinación PT con un campo de visión de 180 grados a ambos lados. Por cierto, la cámara omnidireccional en sícompuesto por dos lentes de ojo de pez que forman un sándwich del cuerpo de la cámara, y cada lente cubre un rango de captura de 180 grados.
Los investigadores utilizaron los módulos de cámara Raspberry Pi v2.1 como cámaras PT en las que montaron un módulo de giro e inclinación y conectaron el sistema a una Raspberry Pi 3 Modelo B. Finalmente, conectaron todo el sistema, la cámara omnidireccional, el PTcámaras y la Raspberry Pi, a una computadora personal para el control general.
El flujo operativo fue el siguiente: los investigadores primero procesaron una imagen omnidireccional para extraer una región objetivo, luego de lo cual su información de coordenadas se convirtió en información de ángulo ángulos de giro e inclinación y luego se transfirió a la Raspberry Pi. La Raspberry Pi,a su vez, controló cada cámara PT en función de esta información y determinó si se debía tomar una imagen complementaria.
Los investigadores realizaron principalmente cuatro tipos de experimentos para demostrar el rendimiento en cuatro aspectos diferentes de la plataforma de la cámara y experimentos separados para verificar el rendimiento de captura de imágenes para diferentes ubicaciones de objetos de destino.
Si bien contemplan que podría surgir un problema potencial al capturar objetos en movimiento para los cuales las imágenes complementarias podrían cambiarse debido al retraso en la adquisición de imágenes, han propuesto junto con una posible contramedida: introducir una técnica de filtrado de Kalman para predecir las coordenadas futurasdel objeto al capturar imágenes.
"Esperamos que nuestro sistema de cámaras genere impactos positivos en aplicaciones futuras que empleen imágenes omnidireccionales como robótica, sistemas de seguridad y sistemas de monitoreo", comenta el Dr. Premachandra con entusiasmo.
¿Quién no se emocionaría cuando una cámara adicional puede hacer tanta diferencia?
Fuente de la historia :
Materiales proporcionado por Instituto de Tecnología de Shibaura . Nota: el contenido se puede editar por estilo y longitud.
Referencia de la revista :
cite esta página :