Todavía es fácil distinguir los movimientos simulados por computadora de los reales: en la pantalla grande o en los videojuegos, los humanos y animales simulados a menudo se mueven torpemente, sin el ritmo y la fluidez de sus contrapartes del mundo real.
Pero eso está cambiando. Los investigadores de la Universidad de California, Berkeley ahora han hecho un gran avance en la animación realista por computadora, utilizando el aprendizaje de refuerzo profundo para recrear movimientos naturales, incluso para hazañas acrobáticas como break dance y artes marciales. Los personajes simulados también pueden responder naturalmentea cambios en el medio ambiente, como recuperarse de tropezar o ser arrojado por proyectiles.
"Esto es realmente un gran salto de lo que se ha hecho con el aprendizaje profundo y la animación. En el pasado, se ha dedicado mucho trabajo a simular movimientos naturales, pero estos métodos basados en la física tienden a ser muy especializados; 'no son métodos generales que puedan manejar una gran variedad de habilidades ", dijo el estudiante graduado de UC Berkeley, Xue Bin" Jason "Peng. Cada actividad o tarea generalmente requiere su propio controlador diseñado a medida.
"Desarrollamos agentes más capaces que se comportan de manera natural", dijo. "Si compara nuestros resultados con la captura de movimiento registrada de humanos, estamos llegando al punto en que es bastante difícil distinguir los dos, paradiga qué es simulación y qué es real. Estamos avanzando hacia un especialista virtual "
El trabajo también podría inspirar el desarrollo de habilidades motoras más dinámicas para robots.
Un documento que describe el desarrollo ha sido aceptado condicionalmente para su presentación en la conferencia SIGGRAPH 2018 en agosto en Vancouver, Canadá, y se publicó en línea el 10 de abril. Los colegas de Peng en el Departamento de Ingeniería Eléctrica y Ciencias de la Computación son el profesor Pieter Abbeel y el profesor asistenteSergey Levine, junto con Michiel van de Panne de la Universidad de Columbia Británica.
Mocap para DeepMimic
Las técnicas tradicionales en animación generalmente requieren diseñar controladores personalizados a mano para cada habilidad: un controlador para caminar, por ejemplo, y otro para correr, dar la vuelta y otros movimientos. Estos controladores diseñados a mano pueden verse bastante bien, dijo Peng.
Alternativamente, los métodos de aprendizaje de refuerzo profundo, como GAIL, pueden simular una variedad de habilidades diferentes usando un solo algoritmo general, pero sus resultados a menudo parecen muy poco naturales.
"La ventaja de nuestro trabajo", dijo Peng, "es que podemos obtener lo mejor de ambos mundos. Tenemos un algoritmo único que puede aprender una variedad de habilidades diferentes y producir movimientos que rivalizan si no superan el estado deel arte en animación con controladores artesanales "
Para lograr esto, Peng obtuvo datos de referencia de clips de captura de movimiento mocap que demuestran más de 25 hazañas acrobáticas diferentes, como volteretas, volteretas, saltos y bóvedas, así como simples carreras, lanzamientos y saltos.Con los datos de mocap en la computadora, el equipo permitió que el sistema, denominado DeepMimic, "practicara" cada habilidad durante aproximadamente un mes de tiempo simulado, un poco más de lo que un humano podría tomar para aprender la misma habilidad.
La computadora practicó 24/7, pasando por millones de pruebas para aprender cómo simular de manera realista cada habilidad. Aprendió a través de prueba y error: comparando su desempeño después de cada prueba con los datos de mocap, y ajustando su comportamiento para que coincida más estrechamente con elmovimiento humano.
"La máquina está aprendiendo estas habilidades completamente desde cero, incluso antes de saber cómo caminar o correr, por lo que un mes podría no ser demasiado irrazonable", dijo.
La clave era permitir que la máquina aprendiera de una manera que los humanos no lo hacen. Por ejemplo, una voltereta hacia atrás involucra tantos movimientos individuales del cuerpo que una máquina podría seguir cayendo y nunca pasar los primeros pasos. En cambio, el algoritmo comienza a aprenderen varias etapas del backflip, incluso en el aire, para aprender cada etapa del movimiento por separado y luego unirlas.
Sorprendentemente, una vez entrenados, los personajes simulados son capaces de lidiar y recuperarse de condiciones nunca antes vistas: correr sobre terreno irregular y hacer patadas giratorias mientras son arrojados por proyectiles.
"Las recuperaciones son gratuitas del proceso de aprendizaje", dijo Peng.
Y el mismo método simple funcionó para todas las más de 25 habilidades.
"Cuando comenzamos, pensamos que probaríamos algo simple, como base para métodos posteriores, sin esperar que funcionara. Pero el método muy simple realmente funciona muy bien. Esto demuestra que un enfoque simple puedeaprender un repertorio muy rico de habilidades altamente dinámicas y acrobáticas "
Fuente de la historia :
Materiales proporcionados por Universidad de California - Berkeley . Nota: El contenido puede ser editado por estilo y longitud.
Cita esta página :