Un nuevo sistema de control, demostrado con el miniguepardo robótico del MIT, permite a los robots de cuatro patas saltar por terrenos irregulares en tiempo real.
Un guepardo trotando corre a través de un campo ondulado, saltando sobre brechas repentinas en terreno accidentado.
El movimiento puede parecer sin esfuerzo, pero lograr que un robot se mueva de esta manera es una perspectiva completamente diferente.
En los últimos años, los robots de cuatro patas inspirados en el movimiento de los guepardos y otros animales han dado grandes pasos hacia adelante, pero aún están rezagados con respecto a sus homólogos mamíferos cuando se trata de viajar a través de un paisaje con rápidos cambios de elevación.
“En esos entornos, es necesario utilizar la visión para evitar fallas.
Por ejemplo, es difícil evitar un hueco si no puede verlo.
Aunque existen algunos métodos para incorporar la visión en la locomoción con patas, la mayoría de ellos no son realmente adecuados para su uso con sistemas robóticos ágiles emergentes”, dice Gabriel Margolis, estudiante de doctorado en el laboratorio de Pulkit Agrawal, profesor de Ciencias de Computación y Laboratorio de Inteligencia Artificial (CSAIL) del MIT.
Ahora, Margolis y sus colaboradores han desarrollado un sistema que mejora la velocidad y la agilidad de los robots con patas cuando saltan por los huecos del terreno.
El novedoso sistema de control se divide en dos partes: una que procesa la entrada en tiempo real de una cámara de video montada en la parte frontal del robot y otra que traduce esa información en instrucciones sobre cómo el robot debe mover su cuerpo.
Los investigadores probaron su sistema en el mini guepardo del MIT, un robot potente y ágil construido en el laboratorio de Sangbae Kim, profesor de ingeniería mecánica.
A diferencia de otros métodos para controlar un robot de cuatro patas, este sistema de dos partes no requiere que se mapee el terreno por adelantado, por lo que el robot puede ir a cualquier parte.
En el futuro, esto podría permitir que los robots se adentren en el bosque en una misión de respuesta de emergencia o que suban un tramo de escaleras para entregar medicamentos a un anciano encerrado.
El uso de dos controladores separados que trabajan juntos hace que este sistema sea especialmente innovador.
Un controlador es un algoritmo que convertirá el estado del robot en un conjunto de acciones que debe seguir.
Muchos controladores ciegos, los que no incorporan visión, son robustos y efectivos, pero solo permiten a los robots caminar sobre terreno continuo.
La visión es una entrada sensorial tan compleja para procesar que estos algoritmos no pueden manejarla de manera eficiente.
Los sistemas que incorporan visión generalmente se basan en un “mapa de altura” del terreno, que debe ser preconstruido o generado sobre la marcha, un proceso que suele ser lento y propenso a fallar si el mapa de altura es incorrecto.
Para desarrollar su sistema, los investigadores tomaron los mejores elementos de estos controladores robustos y ciegos y los combinaron con un módulo separado que maneja la visión en tiempo real.
La cámara del robot captura imágenes de profundidad del terreno próximo, que se envían a un controlador de alto nivel junto con información sobre el estado del cuerpo del robot (ángulos de articulación, orientación del cuerpo, etc.).
El controlador de alto nivel es una red neuronal que “aprende” de la experiencia.
Esa red neuronal genera una trayectoria objetivo, que el segundo controlador usa para generar pares para cada una de las 12 articulaciones del robot.
Este controlador de bajo nivel no es una red neuronal y, en cambio, se basa en un conjunto de ecuaciones físicas concisas que describen el movimiento del robot.
“La jerarquía, incluido el uso de este controlador de bajo nivel, nos permite restringir el comportamiento del robot para que se comporte mejor.
Con este controlador de bajo nivel, estamos utilizando modelos bien especificados a los que podemos imponer restricciones, lo que normalmente no es posible en una red basada en el aprendizaje”, dice Margolis.
Los investigadores utilizaron el método de prueba y error conocido como aprendizaje por refuerzo para entrenar al controlador de alto nivel.
Realizaron simulaciones del robot corriendo a través de cientos de diferentes terrenos discontinuos y lo recompensaron por cruzar con éxito.
Con el tiempo, el algoritmo aprendió qué acciones maximizaban la recompensa.
Luego construyeron un terreno físico y con huecos con un juego de tablas de madera y pusieron a prueba su esquema de control usando el mini guepardo.
“Definitivamente fue divertido trabajar con un robot que fue diseñado internamente en el MIT por algunos de nuestros colaboradores.
El mini guepardo es una gran plataforma porque es modular y está hecho principalmente de piezas que puede pedir en línea, por lo que si queríamos una nueva batería o cámara, era simplemente una cuestión de pedirla a un proveedor habitual y, con un poco de un poco de ayuda del laboratorio de Sangbae para instalarlo”, dice Margolis.
Estimar el estado del robot resultó ser un desafío en algunos casos.
A diferencia de la simulación, los sensores del mundo real encuentran ruido que puede acumularse y afectar el resultado.
Entonces, para algunos experimentos que involucraron la colocación de pies de alta precisión, los investigadores utilizaron un sistema de captura de movimiento para medir la posición real del robot.
Su sistema superó a otros que solo usan un controlador, y el mini guepardo cruzó con éxito el 90 por ciento de los terrenos.
“Una novedad de nuestro sistema es que ajusta la marcha del robot.
Si un humano estuviera tratando de saltar a través de una brecha realmente amplia, podría comenzar corriendo muy rápido para ganar velocidad y luego podría juntar ambos pies para tener un salto realmente poderoso a través de la brecha.
De la misma manera, nuestro robot puede ajustar los tiempos y la duración de los contactos de sus pies para atravesar mejor el terreno”, dice Margolis.
Si bien los investigadores pudieron demostrar que su esquema de control funciona en un laboratorio, todavía tienen un largo camino por recorrer antes de poder implementar el sistema en el mundo real, dice Margolis.
En el futuro, esperan montar una computadora más potente en el robot para que pueda hacer todos sus cálculos a bordo.
También quieren mejorar el estimador de estado del robot para eliminar la necesidad del sistema de captura de movimiento.
Además, les gustaría mejorar el controlador de bajo nivel para que pueda aprovechar todo el rango de movimiento del robot y mejorar el controlador de alto nivel para que funcione bien en diferentes condiciones de iluminación.
“Es notable presenciar la flexibilidad de las técnicas de aprendizaje automático capaces de eludir procesos intermedios cuidadosamente diseñados (por ejemplo, estimación de estado y planificación de trayectorias) en los que se han basado técnicas basadas en modelos de siglos de antigüedad“, dice Kim.
“Estoy entusiasmado con el futuro de los robots móviles con un procesamiento de la visión más robusto entrenado específicamente para la locomoción”.
Fuente: OpenReview
Los modelos de IA generativa como ChatGPT se entrenan con grandes cantidades de datos obtenidos…
El kit para desarrolladores NVIDIA Jetson Orin Nano Super está diseñado tanto para aficionados como…
Google ha presentado Veo 2, una IA que supera a Sora al generar videos realistas…
La nueva IA de Google es capaz de generar diseños de cualquier tipo sin necesidad…
Han pasado casi cinco meses desde el lanzamiento de SearchGPT. La prometedora función de búsqueda…
En los últimos años, los ingenieros han intentado crear sistemas de hardware que soporten mejor…