La pérdida auditiva es un área de investigación científica en rápido crecimiento, ya que la cantidad de personas de la posguerra que se enfrentan a la pérdida auditiva continúa aumentando a medida que envejecen.
Para comprender cómo la pérdida auditiva afecta a las personas, los investigadores estudian la capacidad de las personas para reconocer el habla. Es más difícil para las personas reconocer el habla humana si hay reverberación, alguna discapacidad auditiva o ruido de fondo significativo, como el ruido del tráfico o varios oradores.
Como resultado, los algoritmos de los audífonos a menudo se usan para mejorar el reconocimiento del habla humana. Para evaluar dichos algoritmos, los investigadores realizan experimentos que tienen como objetivo determinar la relación señal-ruido en la que se escucha un número específico de palabras comúnmente el 50%.Sin embargo, estas pruebas requieren mucho tiempo y dinero.
En La Revista de la Sociedad Acústica de América, publicado por Acoustical Society of America a través de AIP Publishing, investigadores de Alemania exploran un modelo de reconocimiento de voz humano basado en aprendizaje automático y redes neuronales profundas.
"La novedad de nuestro modelo es que proporciona buenas predicciones para los oyentes con problemas de audición para tipos de ruido con una complejidad muy diferente y muestra errores bajos y correlaciones altas con los datos medidos", dijo la autora Jana Roßbach, de la Universidad Carl Von Ossietzky.
Los investigadores calcularon cuántas palabras por oración entiende un oyente usando el reconocimiento automático de voz ASR. La mayoría de las personas están familiarizadas con ASR a través de herramientas de reconocimiento de voz como Alexa y Siri.
El estudio consistió en ocho oyentes con audición normal y 20 con problemas auditivos que fueron expuestos a una variedad de ruidos complejos que enmascaran el habla. Los oyentes con problemas auditivos se clasificaron en tres grupos con diferentes niveles de pérdida auditiva relacionada con la edad.
El modelo permitió a los investigadores predecir el rendimiento del reconocimiento del habla humana de oyentes con discapacidad auditiva con diferentes grados de pérdida auditiva para una variedad de enmascaradores de ruido con una complejidad creciente en la modulación temporal y la similitud con el habla real. La posible pérdida auditiva de una personapueden ser considerados individualmente.
"Nos sorprendió mucho que las predicciones funcionaran bien para todos los tipos de ruido. Esperábamos que el modelo tuviera problemas cuando se usaba un solo hablante en competencia. Sin embargo, ese no fue el caso", dijo Roßbach.
El modelo creó predicciones para la audición con un solo oído. En el futuro, los investigadores desarrollarán un modelo binaural ya que la comprensión del habla se ve afectada por la audición con dos oídos.
Además de predecir la inteligibilidad del habla, el modelo también podría usarse potencialmente para predecir el esfuerzo de escucha o la calidad del habla, ya que estos temas están muy relacionados.
Fuente de la historia:
Materiales proporcionado por Instituto Americano de Física. Nota: el contenido se puede editar por estilo y longitud.
referencia de diario:
Citar esta página:
Explora el últimas investigaciones científicas sobre el sueño y los sueños en este curso gratuito en línea de Nuevo científico-Regístrese ahora >>>
Visita Nuevo científico for more global science stories >>>