Ponerse la ropa es una tarea diaria y mundana que la mayoría de nosotros realizamos con poco o ningún pensamiento. Es posible que nunca tengamos en cuenta los múltiples pasos y movimientos físicos involucrados cuando nos vestimos por las mañanas. Pero eso es precisamente lo quedebe explorarse al intentar capturar el movimiento del apósito y simular la tela para la animación por computadora.
Los informáticos del Instituto de Tecnología de Georgia y Google Brain, el brazo de investigación de inteligencia artificial de Google, han ideado un método computacional novedoso, impulsado por técnicas de aprendizaje automático, para simular con éxito y de manera realista el proceso de varios pasos para ponerse la ropa., la tarea de vestirse es bastante compleja e implica varias interacciones físicas diferentes entre el personaje y su vestimenta, principalmente guiadas por el sentido del tacto de la persona.
La creación de la animación de un personaje que se pone la ropa es un desafío debido a las complejas interacciones entre el personaje y la prenda simulada. La mayoría del trabajo en animación de personajes altamente restringida trata con entornos estáticos que no reaccionan mucho al movimiento del personaje,Los investigadores observan que, por el contrario, la ropa puede responder de manera inmediata y drástica a pequeños cambios en la posición del cuerpo; la ropa tiene la tendencia a doblarse, pegarse y aferrarse al cuerpo, haciendo que la sensación táctil o táctil sea esencial para la tarea.
Otro desafío único acerca de vestirse es que requiere que el personaje realice una secuencia de movimiento prolongada que involucra un conjunto diverso de subtareas, como agarrar la capa frontal de una camisa, meter una mano en la abertura de la camisa y empujar una mano a través de unmanga.
"Vestirse nos parece fácil a muchos de nosotros porque lo practicamos todos los días. En realidad, la dinámica de la tela hace que sea muy difícil aprender a vestirse desde cero", dice Alexander Clegg, autor principal de la investigación y una computadoraestudiante de doctorado en ciencias en el Instituto de Tecnología de Georgia ". Aprovechamos la simulación para enseñar a una red neuronal a lograr estas tareas complejas dividiendo la tarea en partes más pequeñas con objetivos bien definidos, lo que permite que el personaje intente la tarea miles de veces y proporcioneseñales de recompensa o penalización cuando el personaje intenta cambios beneficiosos o perjudiciales en su política ".
El método de los investigadores luego actualiza la red neuronal paso a paso para que los cambios positivos descubiertos sean más probables en el futuro. "De esta manera, le enseñamos al personaje cómo tener éxito en la tarea", señala Clegg.
Clegg y sus colaboradores en Georgia Tech incluyen a los científicos informáticos Wenhao Yu, Greg Turk y Karen Liu. Junto con el investigador de Google Brain Jie Tan, el grupo presentará su trabajo en SIGGRAPH Asia 2018 en Tokio del 4 de diciembre al 7 de diciembre. La conferencia anualpresenta a los miembros técnicos y creativos más respetados en el campo de los gráficos por computadora y las técnicas interactivas, y presenta investigaciones de vanguardia en ciencia, arte, juegos y animación, entre otros sectores.
En este estudio, los investigadores demostraron su enfoque en varias tareas de vestimenta: ponerse una camiseta, ponerse una chaqueta y una venda asistida por robot de una manga. Con la red neuronal capacitada, pudieron lograr una recreación compleja deUna variedad de formas en que un personaje animado se pone la ropa. Key está incorporando el sentido del tacto en su marco para superar los desafíos en la simulación de la tela. Los investigadores encontraron que la selección cuidadosa de las observaciones de la tela y las funciones de recompensa en su red entrenada son cruciales parael éxito del marco. Como resultado, este enfoque novedoso no solo permite secuencias de vestimenta individuales, sino también un controlador de personaje que puede vestirse con éxito en diversas condiciones.
"Hemos abierto la puerta a una nueva forma de animar las tareas de interacción de varios pasos en entornos complejos utilizando el aprendizaje de refuerzo", dice Clegg. "Todavía queda mucho trabajo por hacer en este camino, permitiendo que la simulación proporcioneexperiencia y práctica para el entrenamiento de tareas en un mundo virtual ". Al expandir este trabajo, el equipo está colaborando actualmente con otros investigadores en el laboratorio de robótica sanitaria de Georgia Tech para investigar la aplicación de la robótica para la asistencia con el apósito.
El método de los investigadores luego actualiza la red neuronal paso a paso para que los cambios positivos descubiertos sean más probables en el futuro. "De esta manera, le enseñamos al personaje cómo tener éxito en la tarea", señala Clegg.
Clegg y sus colaboradores en Georgia Tech incluyen a los científicos informáticos Wenhao Yu, Greg Turk y Karen Liu. Junto con el investigador de Google Brain Jie Tan, el grupo presentará su trabajo en SIGGRAPH Asia 2018 en Tokio del 4 de diciembre al 7 de diciembre. La conferencia anualpresenta a los miembros técnicos y creativos más respetados en el campo de los gráficos por computadora y las técnicas interactivas, y presenta investigaciones de vanguardia en ciencia, arte, juegos y animación, entre otros sectores.
En este estudio, los investigadores demostraron su enfoque en varias tareas de vestir: ponerse una camiseta, ponerse una chaqueta y vestirse de una manga con ayuda de un robot. Con la red neuronal capacitada, pudieron lograr una recreación compleja deUna variedad de formas en que un personaje animado se pone la ropa. Key está incorporando el sentido del tacto en su marco para superar los desafíos en la simulación de la tela. Los investigadores encontraron que la selección cuidadosa de las observaciones de la tela y las funciones de recompensa en su red entrenada son cruciales parael éxito del marco. Como resultado, este enfoque novedoso no solo permite secuencias de vestimenta individuales, sino también un controlador de personaje que puede vestirse con éxito en diversas condiciones.
"Hemos abierto la puerta a una nueva forma de animar las tareas de interacción de varios pasos en entornos complejos mediante el aprendizaje por refuerzo", dice Clegg. "Todavía queda mucho trabajo por hacer en este camino, permitiendo que la simulación proporcioneexperiencia y práctica para el entrenamiento de tareas en un mundo virtual ". Al expandir este trabajo, el equipo está colaborando actualmente con otros investigadores en el laboratorio de robótica sanitaria de Georgia Tech para investigar la aplicación de la robótica para la asistencia con el apósito.
Fuente de la historia :
Materiales proporcionado por Asociación de Maquinaria de Computación . Nota: El contenido puede ser editado por estilo y longitud.
Cita esta página :