Ingenieros de investigación de Disney han hecho posible que un robot aprenda políticas a partir de datos de movimiento no estructurados.
Primero, extrajeron una codificación espacial latente entrenando un autocodificador variacional y luego tomando breves ventanas de movimiento de datos no estructurados como entrada.
Luego, utilizaron incrustación de código latente variable en el tiempo para entrenar una política condicional en una segunda etapa, proporcionando así un mapeo de la entrada cinemática a una salida consciente de la dinámica.
Al mantener estas dos etapas separadas, el equipo pudo beneficiarse de métodos autosupervisados para obtener mejores códigos latentes y recompensas de imitación explícitas para evitar el colapso del modo.
La eficiencia y la solidez se demostraron en la simulación, con movimientos especificados por el usuario que no se vieron, y en un robot bípedo, donde movimientos dinámicos se llevaron al mundo real.
Fuente: Disney
RT-G es un robot avanzado diseñado para escenarios de confrontación. (more…)
Los modelos de aprendizaje automático pueden fallar cuando intentan hacer predicciones para individuos que estaban…
La IA ha llegado a un mercado que estaba maduro para la disrupción: los libros…
Modelar cómo se deforman los automóviles en un choque, cómo responden las naves espaciales a…
Investigadores chinos han afirmado que su unidad generó una producción de electricidad estable durante 160…
Recientemente, Sanctuary AI presentó su mano robótica que ahora es capaz de manipular objetos. (more…)