El equipo de robótica de Google ha desarrollado un robot de ping pong basado en la plataforma i-S2R que puede sostener un rally de 340 hits.
Iterative-Sim2Real esencialmente permite que un robot realice jugadas de más de 300 golpes con un jugador humano, mientras que GoalsEye permite aprender políticas condicionadas por objetivos que coinciden con la precisión de los jugadores de tenis de mesa humanos aficionados.
¿Qué es Iterative-Sim2Real?
Básicamente una plataforma de entrenamiento que enseña a un robot a realizar un rally con un humano durante el mayor tiempo posible.
Este modelo basado en simulación alterna entre los modos real y simulado hasta que fue lo suficientemente bueno para sostener las manifestaciones.
En cada iteración, se refinan el modelo de comportamiento humano y la política, pero el objetivo final es construir un entrenador de robots que pueda adaptar rápidamente su estilo de juego al nivel de habilidad de su oponente humano.
“La síntesis de técnicas es crucial.
El objetivo de la política es devolver una variedad de bolas entrantes a cualquier lugar del lado de la mesa del oponente.
Una política entrenada en las 2.480 demostraciones iniciales solo alcanza con precisión dentro de los 30 cm del objetivo el 9% del tiempo.
Sin embargo, después de que una política se haya practicado por sí mismo durante aproximadamente 13 500 intentos, la precisión en el logro de objetivos aumenta al 43 %”, dijeron Avi Singh, investigador científico, y Laura Graesser, ingeniera de investigación de robótica en Google.
Fuente: Techeblog