Las cámaras digitales modernas están equipadas con una impresionante variedad de funciones, desde el enfoque automático y la estabilización de imagen hasta panoramas y videos de alta definición. Recientemente, un equipo de ingenieros de la Universidad de Duke ha desbloqueado una capacidad de imagen en 3D de cámaras modernas no reconocida anteriormente simplemente reutilizandosus componentes existentes
Esta nueva capacidad se demostró con éxito en un experimento de laboratorio de prueba de concepto utilizando un pequeño espejo deformable, una superficie reflectante que puede dirigir y enfocar la luz. La investigación demuestra cómo la tecnología equivalente en cámaras digitales modernas, la estabilización de imagen ymódulos de enfoque, podrían aprovecharse para lograr los mismos resultados sin hardware adicional.
El propósito del experimento fue extraer información de profundidad de campo de una imagen de "disparo único", en lugar de las técnicas tradicionales de imágenes en 3D que requieren múltiples imágenes, sin sufrir compensaciones en la calidad de la imagen.cámaras y otras tecnologías ópticas, esta técnica de visualización podría mejorar las funciones básicas, como la estabilización de imagen, y aumentar la velocidad del enfoque automático, lo que mejoraría la calidad de las fotografías.
"Las escenas reales están en tres dimensiones y normalmente se capturan tomando múltiples imágenes enfocadas a varias distancias", dijo Patrick Llull, Duke Imaging and Spectroscopy Program DISP, Duke University. "Una variedad de enfoques de disparo único paraSe ha propuesto mejorar la velocidad y la calidad de la captura de imágenes en 3D en las últimas décadas. Sin embargo, cada enfoque sufre degradaciones permanentes en la calidad de la imagen en 2D y / o la complejidad del hardware ".
El equipo de investigación, dirigido por David Brady, profesor de Duke, pudo superar estos obstáculos, desarrollando un sistema adaptativo que puede extraer con precisión los datos en 3D mientras mantiene la capacidad de capturar una imagen 2D de resolución completa sin un cambio dramático del sistema, como cambiar una lente.
Brady y su equipo presentan sus hallazgos en óptica , un diario de The Optical Society.
Un nuevo camino hacia la tercera dimensión
Los humanos pueden ver en tres dimensiones mediante un proceso conocido como paralaje, en el que la información recibida por cada ojo está ligeramente desviada de la otra. El cerebro puede interpretar y procesar estas señales ligeramente divergentes, reconociendo cómo el desplazamiento aparenteComo se ve por cada ojo, se relaciona con diferentes distancias. Esto permite a los humanos percibir la profundidad.
Las imágenes en 3D tradicionales se basan prácticamente en el mismo principio en el que las imágenes y escenas se graban con dos lentes ligeramente desviadas. Cuando se proyectan o procesan, se restaura la apariencia 3D original. Sin embargo, este proceso de grabación requiere el doble de datos que unImagen en 2D, lo que hace que la fotografía y el video en 3D sean más voluminosos, caros e intensivos en datos.
"Queremos lograr los mismos resultados con el equipo que las personas ya tienen en sus cámaras de mano sin grandes modificaciones de hardware", señaló Llull.
Estabilización para recuperar información en profundidad
Las cámaras digitales modernas, especialmente aquellas con capacidades de video, con frecuencia están equipadas con módulos que eliminan la inestabilidad de las grabaciones. Lo hacen midiendo la inercia o el movimiento de la cámara y la compensan moviendo rápidamente la lente, haciendo múltiples ajustes porsegundo: en el módulo. Este mismo hardware también puede cambiar el proceso de captura de imágenes, registrando información adicional sobre la escena. Con el software y el procesamiento adecuados, esta información adicional puede desbloquear la tercera dimensión que de otro modo estaría oculta.
El primer paso, según los investigadores, es permitir que la cámara grabe información en 3D. Esto se logra programando la cámara para realizar tres funciones simultáneamente: barrer a través del rango de enfoque con el sensor, recolectar luz durante un período establecido detiempo en un proceso llamado integración y activación del módulo de estabilización.
Cuando se activa la estabilización óptica, hace que la lente mueva la imagen en relación con un punto fijo. Esto, junto con un barrido focal del sensor, integra esa información en una sola medición de una manera que conserva los detalles de la imagen mientrasotorgando a cada posición de enfoque una respuesta óptica diferente. Las imágenes que de otro modo se habrían adquirido en varios ajustes focales se codifican directamente en esta medición en función de dónde residen en la profundidad de campo.
Para el trabajo, los investigadores utilizaron un tiempo de exposición relativamente largo para compensar la configuración del equipo. Para emular el funcionamiento de una cámara, fue necesario un divisor de haz para controlar la lente deformable: este paso adicional sacrifica aproximadamente 75porcentaje de la luz recibida. "Cuando se traduce a una cámara totalmente integrada sin divisor de haz, esta pérdida de luz no será un problema y serán posibles tiempos de exposición mucho más rápidos", señaló Llull.
Los investigadores luego procesan una única exposición tomada con esta cámara y obtienen un producto rico en datos conocido como cubo de datos, que es esencialmente un archivo de computadora que incluye tanto la imagen 2D enfocada como un elemento adicional conocido como profundidadmapa. Estos datos de mapas de profundidad, en efecto, describen la posición de enfoque de cada píxel de la imagen. Dado que esta información ya está codificada en la medición individual, es posible construir un mapa de profundidad para toda la escena.
El paso final es procesar la imagen y el mapa de profundidad con un motor de gráficos 3D comercial, similar a los que muestran escenas 3D en videojuegos e imágenes generadas por computadora utilizadas en películas de Hollywood. La imagen resultante se puede usar para determinar el óptimoconfiguración focal para tomas 2D posteriores de resolución completa, como lo hace un algoritmo de enfoque automático, pero desde una sola imagen. Además, se puede utilizar el reenfoque sintético en las imágenes 3D resultantes para mostrar la escena tal como la ve un humano a diferentes profundidades.
Aunque solo se realizó en entornos de laboratorio con tecnologías sustitutas, los investigadores creen que las técnicas que emplearon podrían aplicarse a productos de consumo básicos. El resultado sería un proceso de autoenfoque más eficiente, así como la tercera dimensión añadida a la fotografía tradicional.
"Hemos encontrado una nueva ruta para extraer información 3D de un proceso 2D que de otra manera sería. Los beneficios de esto son la doble funcionalidad de la imagen tomográfica y la captura 2D de resolución completa con poca modificación a los sistemas existentes", concluyó Llull.
Fuente de la historia :
Materiales proporcionado por La sociedad óptica . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cita esta página :