Aunque los robots no tienen ojos con retina, la clave para ayudarlos a ver e interactuar con el mundo de manera más natural y segura puede estar en las máquinas de tomografía de coherencia óptica OCT que se encuentran comúnmente en las oficinas de los oftalmólogos.
Una de las tecnologías de imagen que muchas empresas de robótica están integrando en sus paquetes de sensores es la detección de luz y el rango, o LiDAR para abreviar. Actualmente, atrayendo una gran atención e inversión por parte de los desarrolladores de automóviles autónomos, el enfoque funciona esencialmente como un radar, pero en su lugarde enviar ondas de radio anchas y buscar reflejos, utiliza pulsos cortos de luz de láseres.
El LiDAR de tiempo de vuelo tradicional, sin embargo, tiene muchos inconvenientes que dificultan su uso en muchas aplicaciones de visión 3D. Debido a que requiere la detección de señales de luz reflejada muy débiles, otros sistemas LiDAR o incluso la luz solar ambiental pueden abrumar fácilmente al detectorTambién tiene una resolución de profundidad limitada y puede llevar un tiempo peligrosamente largo escanear densamente un área grande, como una autopista o el piso de una fábrica. Para enfrentar estos desafíos, los investigadores están recurriendo a una forma de LiDAR llamada onda continua modulada en frecuencia FMCW.LiDAR.
"FMCW LiDAR comparte el mismo principio de funcionamiento que OCT, que el campo de la ingeniería biomédica ha estado desarrollando desde principios de la década de 1990", dijo Ruobing Qian, estudiante de doctorado que trabaja en el laboratorio de Joseph Izatt, profesor distinguido de Michael J. Fitzpatrick deIngeniería Biomédica en Duke. "Pero hace 30 años, nadie sabía que los autos autónomos o los robots serían una cosa, por lo que la tecnología se centró en la obtención de imágenes de tejidos. Ahora, para que sea útil para estos otros campos emergentes, necesitamos cambiar su extremadamente altocapacidades de resolución para más distancia y velocidad".
En un artículo que aparece el 29 de marzo en la revista Nature Communications, el equipo de Duke demuestra cómo algunos trucos aprendidos de su investigación OCT pueden mejorar el rendimiento de datos FMCW LiDAR anterior en 25 veces y aún así lograr una precisión de profundidad submilimétrica.
OCT es el análogo óptico del ultrasonido, que funciona enviando ondas de sonido a los objetos y midiendo cuánto tardan en regresar. Para cronometrar los tiempos de retorno de las ondas de luz, los dispositivos OCT miden cuánto ha cambiado su fase en comparación con la luz idénticaondas que han viajado la misma distancia pero no han interactuado con otro objeto.
FMCW LiDAR adopta un enfoque similar con algunos ajustes. La tecnología envía un rayo láser que cambia continuamente entre diferentes frecuencias. Cuando el detector reúne luz para medir su tiempo de reflexión, puede distinguir entre el patrón de frecuencia específico y cualquier otra luzfuente, lo que le permite trabajar en todo tipo de condiciones de iluminación a muy alta velocidad. Luego mide cualquier cambio de fase contra haces sin obstáculos, que es una forma mucho más precisa de determinar la distancia que los sistemas LiDAR actuales.
"Ha sido muy emocionante ver cómo la tecnología de imágenes biológicas a escala celular en la que hemos estado trabajando durante décadas se puede traducir directamente a la visión 3D en tiempo real a gran escala", dijo Izatt. "Estas son exactamente las capacidades necesariaspara que los robots vean e interactúen con humanos de manera segura o incluso para reemplazar avatares con video 3D en vivo en realidad aumentada".
La mayoría de los trabajos anteriores que utilizan LiDAR se han basado en espejos giratorios para escanear el láser sobre el paisaje. Si bien este enfoque funciona bien, está fundamentalmente limitado por la velocidad del espejo mecánico, sin importar qué tan poderoso sea el láser que esté usando.
En su lugar, los investigadores de Duke usan una rejilla de difracción que funciona como un prisma, dividiendo el láser en un arcoíris de frecuencias que se esparcen a medida que se alejan de la fuente. Debido a que el láser original todavía barre rápidamente un rango de frecuencias, estese traduce en barrer el haz LiDAR mucho más rápido de lo que puede girar un espejo mecánico. Esto permite que el sistema cubra rápidamente un área amplia sin perder mucha profundidad o precisión de ubicación.
Mientras que los dispositivos OCT se utilizan para perfilar estructuras microscópicas de hasta varios milímetros de profundidad dentro de un objeto, los sistemas robóticos de visión 3D solo necesitan ubicar las superficies de objetos a escala humana. Para lograr esto, los investigadores redujeron el rango de frecuencias utilizado por OCT, y solo buscó la señal máxima generada a partir de las superficies de los objetos. Esto le cuesta al sistema un poco de resolución, pero con un rango de imágenes y una velocidad mucho mayores que el LiDAR tradicional.
El resultado es un sistema FMCW LiDAR que logra una precisión de localización submilimétrica con un rendimiento de datos 25 veces mayor que las demostraciones anteriores. Los resultados muestran que el enfoque es lo suficientemente rápido y preciso para capturar los detalles de las partes del cuerpo humano en movimiento, como unasintiendo con la cabeza o apretando la mano, en tiempo real.
"De la misma manera que las cámaras electrónicas se han vuelto omnipresentes, nuestra visión es desarrollar una nueva generación de cámaras 3D basadas en LiDAR que sean lo suficientemente rápidas y capaces para permitir la integración de la visión 3D en todo tipo de productos", dijo Izatt"El mundo que nos rodea es 3D, por lo que si queremos que los robots y otros sistemas automatizados interactúen con nosotros de forma natural y segura, deben poder vernos tan bien como nosotros podemos verlos a ellos".
Esta investigación fue apoyada por los Institutos Nacionales de Salud EY028079, la Fundación Nacional de Ciencias, CBET-1902904 y el Departamento de Defensa CDMRP W81XWH-16-1-0498.
Fuente de la historia:
Materiales proporcionado por Universidad de Duke. Original escrito por Ken Kingery. Nota: el contenido se puede editar por estilo y longitud.
referencia de diario:
Citar esta página:
Visita Nuevo científico for more global science stories >>>