El Grupo de Investigación de Sistemas y Redes de CSL SyNRG está definiendo una nueva subárea de tecnología móvil que ellos denominan "computación audible". El equipo cree que los audífonos serán el próximo hito significativo en los dispositivos portátiles, y ese nuevo hardware, software, y todas las aplicaciones se ejecutarán en esta plataforma.
"El salto de los audífonos actuales a los 'auriculares' imitaría la transformación que habíamos visto de teléfonos básicos a teléfonos inteligentes", dijo Romit Roy Choudhury, profesor de ingeniería eléctrica e informática ECE. Los teléfonos inteligentes de hoy no son un dispositivo de llamadamás, al igual que los auriculares del mañana difícilmente serán un accesorio de teléfono inteligente ".
En cambio, el grupo cree que los auriculares del mañana detectarán continuamente el comportamiento humano, ejecutarán realidad aumentada acústica, harán que Alexa y Siri susurren información justo a tiempo, rastrearán el movimiento y la salud del usuario y ofrecerán seguridad sin interrupciones, entre muchas otras capacidades.
Las preguntas de investigación que subyacen a la computación audible se basan en una amplia gama de campos, incluidos la detección, el procesamiento de señales, los sistemas integrados, las comunicaciones y el aprendizaje automático. El equipo de SyNRG está a la vanguardia en el desarrollo de nuevos algoritmos y, al mismo tiempo, experimenta con ellos enplataformas de auriculares con usuarios en vivo.
El estudiante de doctorado en ciencias de la computación Zhijian Yang y otros miembros del grupo SyNRG, incluidos sus compañeros de estudios Yu-Lin Wei y Liz Li, están liderando el camino. Han publicado una serie de artículos en esta área, comenzando con uno sobre el temade cancelación de ruido hueco que se publicó en ACM SIGCOMM 2018. Recientemente, el grupo publicó tres artículos en la 26a Conferencia Internacional Anual sobre Computación Móvil y Redes ACM MobiCom sobre tres aspectos diferentes de la investigación de los auriculares: detección de movimiento facial, realidad aumentada acústicay localización de voz para auriculares.
"Si quieres encontrar una tienda en un centro comercial", dice Zhijian, "el auricular puede estimar la ubicación relativa de la tienda y reproducir una voz en 3D que simplemente dice" sígueme ". En tus oídos, el sonido apareceríavenir de la dirección en la que debe caminar, como si fuera una escolta de voz. "
El segundo artículo, EarSense: Auriculares como sensor de actividad de los dientes, analiza cómo los auriculares pueden detectar actividades faciales y en la boca, como los movimientos de los dientes y los golpes, lo que permite una modalidad de comunicación de manos libres con teléfonos inteligentes. Además, diversas afecciones médicasse manifiestan en el castañeteo de los dientes, y la tecnología propuesta permitiría identificarlos usando audífonos durante el día. En el futuro, el equipo planea analizar los movimientos de los músculos faciales y las emociones con sensores de audífonos.
La tercera publicación, Localización de voz mediante reflejos de pared cercanos, investiga el uso de algoritmos para detectar la dirección de un sonido. Esto significa que si Alice y Bob están conversando, los auriculares de Bob podrían sintonizar la dirección de la voz de Aliceviene de.
"Hemos estado trabajando en la detección y la computación móviles durante 10 años", dijo Wei. "Tenemos mucha experiencia para definir este panorama emergente de la computación accesible".
Haitham Hassanieh, profesor asistente de ECE, también participa en esta investigación. El equipo ha sido financiado tanto por NSF como por NIH, así como por empresas como Nokia y Google.
Fuente de la historia :
Materiales proporcionado por Facultad de Ingeniería Grainger de la Universidad de Illinois . Nota: el contenido se puede editar por estilo y longitud.
Referencias de revistas :
cite esta página :