publicidad
Noticias científicas
de organizaciones de investigación

La interfaz usable cerebro-máquina convierte las intenciones en acciones

El nuevo sistema basado en las imágenes del motor del usuario podría controlar la silla de ruedas, el brazo robótico u otros dispositivos

Fecha :
21 de julio de 2021
Fuente :
Instituto de Tecnología de Georgia
Resumen :
Un equipo internacional de investigadores está combinando la electrónica suave del cuero cabelludo y la realidad virtual en un sistema de interfaz cerebral.
Compartir :
HISTORIA COMPLETA

Un nuevo sistema de interfaz cerebro-máquina BMI portátil podría mejorar la calidad de vida de las personas con disfunción motora o parálisis, incluso aquellas que luchan con el síndrome de enclaustramiento, cuando una persona está completamente consciente pero no puede moverse o comunicarse.

Un equipo internacional multiinstitucional de investigadores dirigido por el laboratorio de Woon-Hong Yeo en el Instituto de Tecnología de Georgia combinó la electrónica inalámbrica del cuero cabelludo suave y la realidad virtual en un sistema BMI que permite al usuario imaginar una acción y controlar de forma inalámbrica unsilla de ruedas o brazo robótico.

El equipo, que incluyó investigadores de la Universidad de Kent Reino Unido y la Universidad de Yonsei República de Corea, describe este mes en la revista el nuevo sistema de IMC basado en imágenes motoras ciencia avanzada .

"La principal ventaja de este sistema para el usuario, en comparación con lo que existe actualmente, es que es suave y cómodo de usar, y no tiene cables", dijo Yeo, profesor asociado de la Escuela George W. Woodruff.de Ingeniería Mecánica.

Los sistemas BMI son una tecnología de rehabilitación que analiza las señales cerebrales de una persona y traduce esa actividad neuronal en comandos, convirtiendo las intenciones en acciones. El método no invasivo más común para adquirir esas señales es ElectroEncephaloGraphy, EEG, que generalmente requiere un cráneo de electrodo engorrosotapa y una red enredada de cables.

Estos dispositivos generalmente dependen en gran medida de geles y pastas para ayudar a mantener el contacto con la piel, requieren tiempos de configuración extensos, generalmente son inconvenientes e incómodos de usar. Los dispositivos también suelen sufrir una mala adquisición de señal debido a la degradación del material o artefactos de movimiento.el "ruido" auxiliar que puede ser causado por algo como rechinar los dientes o parpadear los ojos. Este ruido aparece en los datos del cerebro y debe filtrarse.

El sistema EEG portátil que Yeo diseñó, que integra electrodos imperceptibles de microagujas con circuitos inalámbricos suaves, ofrece una mejor adquisición de señales. Medir con precisión esas señales cerebrales es fundamental para determinar qué acciones desea realizar un usuario, por lo que el equipo integró un poderoso algoritmo de aprendizaje automático ycomponente de realidad virtual para abordar ese desafío.

El nuevo sistema se probó con cuatro sujetos humanos, pero aún no se ha estudiado con personas discapacitadas.

"Esta es solo una primera demostración, pero estamos encantados con lo que hemos visto", señaló Yeo, director del Centro de Ingeniería y Interfaces Centradas en el Hombre de Georgia Tech del Instituto de Electrónica y Nanotecnología, y miembro delPequeño Instituto de Bioingeniería y Biociencias.

nuevo paradigma

El equipo de Yeo introdujo originalmente una interfaz cerebro-máquina EEG suave y portátil en un estudio de 2019 publicado en Nature Machine Intelligence. El autor principal de ese trabajo, Musa Mahmood, también fue el autor principal del nuevo artículo de investigación del equipo.

"Esta nueva interfaz cerebro-máquina utiliza un paradigma completamente diferente, que involucra acciones motoras imaginadas, como agarrar con cualquier mano, lo que libera al sujeto de tener que mirar demasiados estímulos", dijo Mahmood, un estudiante de doctorado.en el laboratorio de Yeo.

En el estudio de 2021, los usuarios demostraron un control preciso de los ejercicios de realidad virtual utilizando sus pensamientos, sus imágenes motoras. Las señales visuales mejoran el proceso tanto para el usuario como para los investigadores que recopilan información.

"Las indicaciones virtuales han demostrado ser muy útiles", dijo Yeo. "Aceleran y mejoran la participación y la precisión del usuario. Y pudimos registrar la actividad de imágenes motoras continuas y de alta calidad".

Según Mahmood, el trabajo futuro en el sistema se centrará en optimizar la colocación de electrodos y una integración más avanzada del electroencefalograma basado en estímulos, utilizando lo que han aprendido de los dos últimos estudios.

Esta investigación fue apoyada por los Institutos Nacionales de Salud NIH R21AG064309, la Beca del Centro Interfaces e Ingeniería centradas en el ser humano en Georgia Tech, la Fundación Nacional de Investigación de Corea NRF-2018M3A7B4071109 y NRF-2019R1A2C2086085 y Yonsei-Programa de investigación de convergencia de KIST. Georgia Tech tiene una solicitud de patente pendiente relacionada con el trabajo descrito en este documento.


Fuente de la historia :

Materiales proporcionado por Instituto de Tecnología de Georgia . Nota: el contenido se puede editar por estilo y longitud.


Referencia de la revista :

  1. Musa Mahmood, Shinjae Kwon, Hojoong Kim, Yun ‐ Soung Kim, Panote Siriaraya, Jeongmoon Choi, Boris Otkhmezuri, Kyowon Kang, Ki Jun Yu, Young C. Jang, Chee Siang Ang, Woon ‐ Hong Yeo. Electrónica de cuero cabelludo blando inalámbrico y sistema de realidad virtual para interfaces cerebro-máquina basadas en imágenes de motor . ciencia avanzada , 2021; 2101129 DOI: 10.1002 / advs.202101129

cite esta página :

Instituto de Tecnología de Georgia. "La interfaz portátil cerebro-máquina convierte las intenciones en acciones: un nuevo sistema basado en las imágenes motoras del usuario podría controlar la silla de ruedas, el brazo robótico u otros dispositivos". ScienceDaily. ScienceDaily, 21 de julio de 2021. .
Instituto de Tecnología de Georgia. 2021, 21 de julio. La interfaz portátil cerebro-máquina convierte las intenciones en acciones: un nuevo sistema basado en las imágenes motoras del usuario podría controlar la silla de ruedas, el brazo robótico u otros dispositivos. ScienceDaily . Consultado el 21 de julio de 2021 en www.science-things.com/releases/2021/07/210721120657.htm
Instituto de Tecnología de Georgia. "La interfaz cerebro-máquina portátil convierte las intenciones en acciones: un nuevo sistema basado en las imágenes motoras del usuario podría controlar la silla de ruedas, el brazo robótico u otros dispositivos". ScienceDaily. Www.science-things.com/releases/2021/07 / 210721120657.htm consultado el 21 de julio de 2021.

1

2

3

4

5
HISTORIAS RELACIONADAS