Un nuevo estudio realizado por investigadores de la Universidad de Texas en Dallas indica que ver imágenes en 3D de los movimientos de la lengua puede ayudar a las personas a aprender los sonidos del habla.
Según el Dr. William Katz, coautor del estudio y profesor del Centro Callier para Trastornos de la Comunicación de UT Dallas, los hallazgos podrían ser especialmente útiles para los pacientes con accidente cerebrovascular que buscan mejorar su articulación del habla.
"Estos resultados muestran que a las personas se les puede enseñar sonidos de consonantes en parte al ver imágenes en 3-D de la lengua", dijo Katz, quien enseña en la Escuela de Ciencias del Comportamiento y Cerebro de la UT Dallas. "Pero también estamos tratando de utilizar la retroalimentación visualpara llegar a la naturaleza subyacente de la apraxia y otros trastornos relacionados "
El estudio, que aparece en la revista Frontiers in Human Neuroscience, era pequeño pero mostró que los participantes se volvieron más precisos en el aprendizaje de nuevos sonidos cuando estuvieron expuestos al entrenamiento de retroalimentación visual.
Katz es uno de los primeros investigadores en sugerir que la retroalimentación visual sobre los movimientos de la lengua podría ayudar a los pacientes con accidente cerebrovascular a recuperar el habla.
"Las personas con apraxia del habla pueden tener problemas con este proceso. Por lo general, saben lo que quieren decir pero tienen dificultades para llevar sus planes de habla al sistema muscular, lo que hace que los sonidos salgan mal", dijo Katz.
"Mi inspiración original fue mostrar a los pacientes sus lenguas, lo que mostraría claramente dónde deberían o no articularse los sonidos", dijo.
La tecnología recientemente permitió a los investigadores cambiar de la tecnología 2-D a la tecnología Opti-Speech, que muestra las imágenes 3-D de la lengua. Un proyecto de investigación anterior de UT Dallas determinó que el sistema de retroalimentación visual Opti-Speech puede proporcionar de manera confiable-retroalimentación en tiempo para el aprendizaje del habla.
Parte del nuevo estudio observó un efecto llamado articulación compensatoria: cuando la acústica cambia rápidamente y los sujetos piensan que están haciendo un cierto sonido con la boca, pero escuchan comentarios que indican que están haciendo un sonido diferente.
Katz dijo que la gente se alejará instantáneamente de la dirección en la que el sonido los ha empujado. Luego, si se desactiva el cambio, se sobrepasarán.
"En nuestro paradigma, pudimos cambiar visualmente a las personas. Sus lenguas estaban haciendo un sonido pero, poco a poco, comenzamos a cambiarlo", dijo Katz. "La gente cambió sus sonidos para que coincida con la imagen de la lengua".
Katz dijo que los resultados de la investigación resaltan la importancia de la visualización del cuerpo como parte de la terapia de rehabilitación, diciendo que hay mucho más trabajo por hacer.
"Queremos determinar por qué la retroalimentación visual afecta el habla", dijo Katz. "¿Cuánto se debe a la compensación, en comparación con el reflejo o el arrastre? ¿Algunos de los resultados provienen de personas que guían visualmente la lengua al lugar correcto?¿Tiene su sentido de 'sensación en la boca'? ¿Qué partes del cerebro están involucradas?
"Las imágenes en 3-D están abriendo un camino completamente nuevo para la rehabilitación del habla. Esperemos que este trabajo pueda traducirse pronto para ayudar a los pacientes que desean hablar mejor desesperadamente".
Fuente de la historia :
Materiales proporcionado por Universidad de Texas en Dallas . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cite esta página :