La mayoría de los sistemas robóticos desarrollados hasta la fecha pueden abordar una tarea específica con alta precisión o completar una variedad de tareas más simples con baja precisión.
Por ejemplo, algunos robots industriales pueden realizar muy bien tareas de fabricación específicas, pero no pueden adaptarse fácilmente a nuevas tareas.
Por otro lado, los robots flexibles diseñados para manejar una variedad de objetos a menudo carecen de la precisión necesaria para ser implementados en entornos prácticos.
Este equilibrio entre precisión y generalización ha dificultado hasta ahora el despliegue a gran escala de robots de uso general o, en otras palabras, robots que puedan ayudar bien a los usuarios humanos en muchas tareas diferentes.
Una capacidad necesaria para abordar diversos problemas del mundo real es la de “recoger y colocar con precisión”, que implica localizar, recoger y colocar objetos con precisión en ubicaciones específicas.
Investigadores del Instituto Tecnológico de Massachusetts (MIT) introdujeron recientemente SimPLE (Simulación para seleccionar, localizar y colocar), un nuevo método visuotáctil basado en el aprendizaje que podría permitir que los sistemas robóticos recojan y coloquen una variedad de objetos.
Este método utiliza la simulación para aprender a recoger, volver a agarrar y colocar diferentes objetos, y solo requiere diseños de estos objetos asistidos por computadora.
“A lo largo de varios años trabajando en manipulación robótica, hemos interactuado estrechamente con socios de la industria“, dijeron Maria Bauza y Antonia Bronars, primeras autoras del artículo.
“Resulta que uno de los desafíos existentes en la automatización es la selección y colocación precisa de objetos.
Este problema es desafiante ya que requiere que un robot transforme una disposición no estructurada de objetos en una disposición organizada, lo que puede facilitar una mayor manipulación“.
Varios robots industriales ya son capaces de coger, agarrar y dejar distintos objetos.
Sin embargo, la mayoría de estos enfoques sólo se generalizan a un pequeño conjunto de objetos ampliamente utilizados, como cajas, tazas o cuencos, y no enfatizan la precisión.
Bauza, Bronars y sus colegas se propusieron desarrollar un nuevo método que podría permitir a los robots recoger y colocar con precisión cualquier objeto, basándose únicamente en datos simulados.
Esto contrasta con muchos enfoques anteriores, que aprenden a través de interacciones de robots del mundo real con diferentes objetos.
“SimPLE se basa en tres componentes principales, que se desarrollan mediante simulación“, dijeron Bauza y Bronars.
“Primero, un módulo de agarre consciente de la tarea selecciona un objeto que sea estable, observable y favorable para su colocación.
Luego, un módulo de percepción visuotáctil fusiona la visión y el tacto para localizar el objeto con alta precisión.
Finalmente, un módulo de planificación calcula el “El mejor camino hacia la posición objetivo, que puede incluir pasar el objeto al otro brazo, si es necesario”.
Los tres módulos subyacentes al enfoque SimPLE permiten en última instancia que los sistemas robóticos calculen planes sólidos y eficientes para manipular diversos objetos con alta precisión.
Su ventaja más destacable es que los robots no necesitarán haber interactuado previamente con objetos del mundo real, lo que acelera enormemente su proceso de aprendizaje.
“Nuestro trabajo propone un enfoque para recoger y colocar con precisión que logra la generalidad sin requerir una costosa experiencia con robots reales“, dijeron Bauza y Bronars.
“Lo hace utilizando simulación y formas de objetos conocidas”.
Los investigadores probaron el método propuesto en una serie de experimentos.
Descubrieron que permitía a un sistema robótico seleccionar y colocar con éxito 15 tipos de objetos con una variedad de formas y tamaños, al mismo tiempo que superaba las técnicas básicas para permitir la manipulación de objetos en robots.
En particular, este trabajo se encuentra entre los primeros en combinar información visual y táctil para entrenar robots en tareas de manipulación complejas.
Los prometedores resultados del equipo pronto podrían alentar a otros investigadores a desarrollar enfoques similares para el aprendizaje mediante simulación.
“Las implicaciones prácticas de este trabajo son bastante amplias”, dijeron Bauza y Bronars.
“SimPLE podría encajar bien en industrias donde la automatización ya es estándar, como la industria automotriz, pero también podría permitir la automatización en muchos entornos semiestructurados como fábricas de tamaño mediano, hospitales, laboratorios médicos, etc., donde la automatización es menor“
Los entornos semiestructurados son entornos que no cambian drásticamente en términos de diseño o estructura general, pero que también pueden ser flexibles en términos de dónde se colocan los objetos o qué tareas deben realizarse en un momento determinado.
SimPLE podría ser adecuado para permitir que los robots completen tareas en estos entornos, sin requerir una capacitación extensa en el mundo real.
“En estos entornos, ser capaz de tomar un conjunto no estructurado de objetos en una disposición estructurada es un facilitador para cualquier tarea posterior“, explicaron Bauza y Bronars.
“Por ejemplo, un ejemplo de tarea de recoger y colocar en un laboratorio médico sería tomar nuevos tubos de ensayo de una caja y colocarlos con precisión en una rejilla.
Una vez ordenados los tubos, podrían colocarse en una máquina diseñada para probar su contenido o podría servir para otros fines científicos.”
El prometedor método desarrollado por este equipo de investigadores pronto podría entrenarse en una gama más amplia de datos simulados y modelos de más objetos, para validar aún más su rendimiento y generalización.
Mientras tanto, Bauza, Bronars y sus colegas están trabajando para aumentar la destreza y la solidez del sistema propuesto.
“Dos direcciones de trabajo futuro incluyen mejorar la destreza del robot para resolver tareas aún más complejas y proporcionar una solución de circuito cerrado que, en lugar de calcular un plan, calcule una política para adaptar sus acciones continuamente en función de las observaciones de los sensores“, agregaron Bauzá y Bronars.
“Hemos progresado en esto último en TEXterity, que aprovecha la información táctil continua durante la ejecución de tareas, y planeamos continuar impulsando la destreza y la robustez para la manipulación de alta precisión en nuestra investigación en curso“.
Fuente: TechXplore