Los bioingenieros de UCLA han diseñado un dispositivo similar a un guante que puede traducir el lenguaje de señas americano al habla en inglés en tiempo real a través de una aplicación de teléfono inteligente. Su investigación se publica en la revista Electrónica de la naturaleza .
"Nuestra esperanza es que esto abra una manera fácil para que las personas que usan el lenguaje de señas se comuniquen directamente con los no firmantes sin necesidad de que alguien más les traduzca", dijo Jun Chen, profesor asistente de bioingeniería en la Escuela UCLA Samuelide Ingeniería y el investigador principal de la investigación: "Además, esperamos que pueda ayudar a más personas a aprender el lenguaje de señas".
El sistema incluye un par de guantes con sensores delgados y elásticos que se extienden a lo largo de cada uno de los cinco dedos. Estos sensores, hechos de hilos conductores de electricidad, recogen movimientos de manos y colocaciones de dedos que representan letras, números y palabras individualesy frases
El dispositivo convierte los movimientos de los dedos en señales eléctricas, que se envían a una placa de circuito del tamaño de una moneda de un dólar que se usa en la muñeca. La placa transmite esas señales de forma inalámbrica a un teléfono inteligente que las traduce en palabras habladas a un ritmo de aproximadamenteuna palabra por segundo
Los investigadores también agregaron sensores adhesivos a las caras de los evaluadores, entre las cejas y en un lado de la boca, para capturar las expresiones faciales que forman parte del lenguaje de señas estadounidense.
Los sistemas portátiles anteriores que ofrecían traducción del lenguaje de señas americano estaban limitados por diseños de dispositivos voluminosos y pesados o eran incómodos de usar, dijo Chen.
El dispositivo desarrollado por el equipo de UCLA está hecho de polímeros elásticos ligeros y económicos pero duraderos. Los sensores electrónicos también son muy flexibles y económicos.
Al probar el dispositivo, los investigadores trabajaron con cuatro personas sordas y usan lenguaje de señas americano. Los usuarios repitieron cada gesto con la mano 15 veces. Un algoritmo personalizado de aprendizaje automático convirtió estos gestos en las letras, números y palabras que representaban.El sistema reconoció 660 signos, incluidas cada letra del alfabeto y los números del 0 al 9.
Fuente de la historia :
Materiales proporcionado por Universidad de California - Los Ángeles . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cita esta página :