El control motor humano siempre ha sido eficiente en la ejecución de movimientos complejos de forma natural, eficiente y sin mucho pensamiento involucrado. Esto se debe a la existencia de sinergia motora en el sistema nervioso central SNC. La sinergia motora permite que el SNC utilice un sistema más pequeñoconjunto de variables para controlar un gran grupo de músculos; simplificando así el control sobre movimientos coordinados y complejos.
Ahora, los investigadores de la Universidad de Tohoku han observado un concepto similar en agentes robóticos que utilizan algoritmos de aprendizaje de refuerzo profundo DRL.
DRL permite a los agentes robóticos aprender la mejor acción posible en su entorno virtual. Permite resolver tareas robóticas complejas mientras minimiza las operaciones manuales y logra el máximo rendimiento. Los algoritmos clásicos, por otro lado, requieren intervención manual para encontrar soluciones específicas paracada nueva tarea que aparece.
Sin embargo, aplicar la sinergia motora del mundo humano al mundo robótico no es una tarea fácil. Aunque muchos estudios apoyan el empleo de la sinergia motora en el control motor humano y animal, el proceso de fondo aún se desconoce en gran medida.
En el estudio actual, los investigadores de la Universidad de Tohoku utilizaron dos algoritmos DRL en agentes robóticos para caminar conocidos como HalfCheetah y FullCheetah. Los dos algoritmos fueron TD3, un DRL clásico y SAC, un DRL de alto rendimiento.
Los dos agentes robóticos se encargaron de avanzar lo más posible dentro de un tiempo determinado. En total, los agentes robóticos completaron 3 millones de pasos. La información de sinergia no se usó frente a los DRL pero los agentes robóticos demostraron la apariciónde sinergia motora a lo largo de sus movimientos.
Mitsuhiro Hayashibe, profesor de la Universidad de Tohoku y coautor del estudio, señala: "Primero confirmamos de manera cuantitativa que la sinergia motora puede surgir incluso en el aprendizaje profundo como lo hacen los humanos". El profesor Hayashibe agrega: "Después de emplear el aprendizaje profundo,los agentes robóticos mejoraron su rendimiento motor al tiempo que limitaron el consumo de energía al emplear la sinergia motora "
En el futuro, los investigadores apuntan a explorar más tareas con diferentes modelos corporales para confirmar aún más sus hallazgos.
Fuente de la historia :
Materiales proporcionado por Universidad de Tohoku . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cita esta página :