No existe un instinto humano más básico que el habla y, sin embargo, para muchas personas, hablar puede ser agotador. 1 de cada 14 estadounidenses en edad laboral sufre trastornos de la voz que a menudo se asocian con comportamientos vocales anormales, algunos de los cuales pueden causar dañoal tejido de las cuerdas vocales y conducen a la formación de nódulos o pólipos que interfieren con la producción normal del habla.
Desafortunadamente, muchos trastornos de la voz basados en el comportamiento no se comprenden bien. En particular, los pacientes con disfonía por tensión muscular DMT a menudo experimentan un deterioro de la calidad de la voz y fatiga vocal "voz cansada" en ausencia de cualquier daño claro de la cuerda vocal ootros problemas médicos, lo que hace que la afección sea difícil de diagnosticar y tratar.
Pero un equipo del Laboratorio de Ciencias de la Computación e Inteligencia Artificial CSAIL del MIT y el Hospital General de Massachusetts MGH cree que es posible una mejor comprensión de las condiciones como el MTD a través del aprendizaje automático.
Utilizando los datos del acelerómetro recopilados de un dispositivo portátil desarrollado por investigadores del MGH Voice Center, los investigadores demostraron que pueden detectar diferencias entre los sujetos con MTD y los controles compatibles. Los mismos métodos también mostraron que, después de recibir la terapia de voz, los sujetos con MTD mostraron un comportamientoeso fue más similar al de los controles.
"Creemos que este enfoque podría ayudar a detectar trastornos que se exacerban por el mal uso de la voz, y ayudar a medir empíricamente el impacto de la terapia de voz", dice la estudiante de doctorado del MIT Marzyeh Ghassemi, quien es la primera autora en un artículo relacionado que presentó al finLa conferencia Machine Learning in Health Care MLHC de la semana en Los Ángeles: "Nuestro objetivo a largo plazo es que dicho sistema se use para alertar a los pacientes cuando están usando sus voces de manera que podrían causar problemas".
Los coautores del artículo incluyen al profesor del MIT John Guttag; Zeeshan Syed, CEO de la empresa emergente de aprendizaje automático Health [at] Scale; y los doctores Robert Hillman, Daryush Mehta y Jarrad H. Van Stan del Hospital General de Massachusetts.
Cómo funciona
Los enfoques existentes para aplicar el aprendizaje automático a las señales fisiológicas a menudo implican un aprendizaje supervisado, en el que los investigadores etiquetan minuciosamente los datos y proporcionan los resultados deseados. Además de consumir mucho tiempo, estos métodos actualmente no pueden ayudar a clasificar los enunciados como normales o anormales, porqueactualmente no comprende bien las correlaciones entre los datos del acelerómetro y el mal uso de la voz.
Debido a que el equipo CSAIL no sabía cuándo se estaba produciendo un mal uso vocal, optaron por utilizar el aprendizaje no supervisado, donde los datos no están etiquetados a nivel de instancia.
"Las personas con trastornos vocales no siempre usan mal sus voces, y las personas sin trastornos también ocasionalmente usan mal sus voces", dice Ghassemi. "La tarea difícil aquí fue construir un algoritmo de aprendizaje que pueda determinar qué tipo de movimientos de las cuerdas vocales sonprominente en sujetos con un trastorno ".
El estudio se dividió en dos grupos: pacientes que habían sido diagnosticados con trastornos de la voz y un grupo de control de individuos sin trastornos. Cada grupo realizó sus actividades diarias mientras usaba acelerómetros en el cuello que capturaban los movimientos de sus cuerdas vocales.
Luego, los investigadores analizaron los datos de los dos grupos, analizando más de 110 millones de "pulsos glóticos", cada uno de los cuales representa una apertura y cierre de las cuerdas vocales. Al comparar grupos de pulsos, el equipo pudo detectar diferencias significativas entre pacientes y controles.
El equipo también descubrió que después de la terapia de voz, la distribución de los pulsos glóticos de los pacientes era más similar a la de los controles. Según Guttag, este es el primer estudio de este tipo que utiliza el aprendizaje automático para proporcionar evidencia objetiva de los efectos positivos de la vozterapia.
"Cuando un paciente acude a terapia, es posible que solo pueda analizar su voz durante 20 o 30 minutos para ver qué está haciendo incorrectamente y hacer que practiquen mejores técnicas", dice la Dra. Susan Thibeault, profesora deel departamento de cirugía de la Facultad de Medicina y Salud Pública de la Universidad de Wisconsin que no participó en la investigación ". Tan pronto como se van, no sabemos realmente qué tan bien les está yendo, por lo que es emocionante pensar queeventualmente podríamos proporcionar a los pacientes dispositivos portátiles que usen datos las 24 horas para proporcionar comentarios más inmediatos ".
mirando hacia el futuro
Un objetivo a largo plazo del trabajo es poder usar los datos no solo para mejorar la vida de las personas con trastornos de la voz, sino para ayudar a diagnosticar trastornos específicos.
El equipo también espera explorar más a fondo la razón subyacente por la cual ciertos tipos de pulsos vocales son más comunes en pacientes que en controles.
"En última instancia, esperamos que este trabajo conduzca a la biorretroalimentación basada en teléfonos inteligentes", dice Hillman. "Ese tipo de tecnología puede ayudar con el aspecto más desafiante de la terapia de voz: lograr que los pacientes empleen los comportamientos vocales más saludables que aprendieron en la terapiaen sus vidas cotidianas "
Fuente de la historia :
Materiales proporcionado por Instituto de Tecnología de Massachusetts, CSAIL . Original escrito por Adam Conner-Simons. Nota: El contenido puede ser editado por estilo y longitud.
Cite esta página :