Un dispositivo inteligente que traduce el lenguaje de señas mientras se usa en la muñeca podría cerrar la brecha de comunicación entre los sordos y aquellos que no conocen el lenguaje de señas, dice un investigador de ingeniería biomédica de la Universidad de Texas A&M que está desarrollando la tecnología.
La tecnología portátil combina sensores de movimiento y la medición de la actividad eléctrica generada por los músculos para interpretar los gestos con las manos, dice Roozbeh Jafari, profesor asociado en el Departamento de Ingeniería Biomédica de la universidad e investigador en el Centro de Sistemas y Tecnologías de Salud Remota.
Aunque el dispositivo aún se encuentra en su etapa de prototipo, ya puede reconocer 40 palabras del lenguaje de señas americano con casi un 96 por ciento de precisión, señala Jafari, quien presentó su investigación en la 12ª Conferencia Anual de Redes de Sensores Corporales del Instituto de Ingenieros Eléctricos y Electrónicos IEEEen junio pasado. La tecnología estuvo entre los ganadores de los principales premios en el Desafío de Innovación de Texas Instruments el verano pasado.
La tecnología, desarrollada en colaboración con Texas Instruments, representa un interés creciente en el desarrollo de sistemas de reconocimiento de lenguaje de señas SLR de alta tecnología, pero a diferencia de otras iniciativas recientes, el sistema de Jafari renuncia al uso de una cámara para capturar gestos.El reconocimiento basado, dice, puede sufrir problemas de rendimiento en condiciones de poca luz, y los videos o imágenes capturados pueden considerarse invasivos para la privacidad del usuario. Además, debido a que estos sistemas requieren que un usuario haga un gesto frente a una cámara, tienen limitacionesportabilidad - y la portabilidad, para Jafari, es clave.
"Los wearables brindan una oportunidad muy interesante en el sentido de su estrecha relación con el cuerpo humano", dice Jafari. "Debido a que están unidos a nuestro cuerpo, saben bastante sobre nosotros durante todo el día y nos pueden proporcionarcon comentarios valiosos en los momentos adecuados. Teniendo esto en cuenta, queríamos desarrollar una tecnología en forma de reloj ".
Para capturar las complejidades del lenguaje de señas estadounidense, el sistema de Jafari utiliza dos sensores distintos. El primero es un sensor inercial que responde al movimiento. El sensor, que consta de un acelerómetro y un giroscopio, mide las aceleraciones y las velocidades angulares delJafari señala que este sensor desempeña un papel importante en la discriminación de diferentes signos al capturar las orientaciones de las manos del usuario y los movimientos de las manos y los brazos durante un gesto.
Sin embargo, un sensor de movimiento solo no era suficiente, explica Jafari. Ciertos signos en el lenguaje de señas americano son similares en términos de los gestos necesarios para transmitir la palabra. Con estos gestos, el movimiento general de la mano puede ser el mismo para dossignos diferentes, pero el movimiento de los dedos individuales puede ser diferente. Por ejemplo, los gestos respectivos de "por favor" y "lo siento" y de "nombre" y "trabajo" son similares en el movimiento de la mano. Para discriminar entre estos tipos de gestos con las manos, El sistema de Jafari utiliza otro tipo de sensor que mide la actividad muscular.
Explica Jafari. Conocido como un sensor electromiográfico sEMG, este sensor mide de forma no invasiva el potencial eléctrico de las actividades musculares. Se utiliza para distinguir varios movimientos de manos y dedos en función de diferentes actividades musculares. Esencialmente, es bueno para medir el dedoLos movimientos y los patrones de actividad muscular para la mano y el brazo, trabajando en conjunto con el sensor de movimiento para proporcionar una interpretación más precisa del gesto que se firma, dice.
En el sistema de Jafari, los sensores de inercia y los sensores electromiográficos se colocan en la muñeca derecha del usuario donde detectan gestos y envían información a través de Bluetooth a una computadora portátil externa que realiza algoritmos complejos para interpretar el signo y mostrar la palabra correcta en inglés para el gestoMientras Jafari continúa desarrollando la tecnología, dice que su equipo buscará incorporar todas estas funciones en un dispositivo portátil combinando el hardware y reduciendo el tamaño general de la electrónica requerida. Visualiza el dispositivo recolectando los datos producidos a partir de un gesto, interpretándolo y luego enviando la palabra en inglés correspondiente al dispositivo inteligente de otra persona para que pueda entender lo que se firma simplemente leyendo la pantalla de su propio dispositivo. Además, está trabajando para aumentar el número de signos reconocidos porel sistema y expandir el sistema a ambas manos.
"La combinación de la detección de activación muscular con sensores de movimiento es una forma nueva y emocionante de comprender la intención humana con otras aplicaciones además de los sistemas SLR mejorados, como las activaciones de dispositivos domésticos que usan dispositivos portátiles sensibles al contexto", dice Jafari.
Fuente de la historia :
Materiales proporcionado por Universidad de Texas A&M . Nota: El contenido puede ser editado por estilo y longitud.
Cite esta página :