Robots aprenden a realizar tareas domésticas viendo videos de personas llevándolas a cabo

Robots aprenden a realizar tareas domésticas viendo videos de personas llevándolas a cabo

Comparta este Artículo en:

Son pocas las personas que se lo pasan bien ocupándose de las tareas de la casa.

Es posible que se disfrute de alguna en concreto como puede ser cocinar, pero, por lo general, no nos apasiona barrer, fregar, planchar, limpiar los baños y demás labores cotidianas que hacemos en nuestro hogar.

Pues bien, podríamos estar más cerca del momento en el que un robot se ocupe de todas estas pesadas tareas.

Un grupo de investigadores de la Universidad Carnegie Mellon, en Pensilvania (Estados Unidos) ha logrado que unos robots aprendan a hacer tareas del hogar solo viendo videos de personas llevándolas a cabo. Las máquinas han ayudado con la cocina y la limpieza.

El robot puede aprender dónde y cómo interactúan los humanos con distintos objetos viendo videos”, explica Deepak Pathak, profesor adjunto del Instituto de Robótica de la Facultad de Informática de la CMU (Carnegie Mellon University).

“A partir de este conocimiento, podemos entrenar un modelo que permita a dos robots completar tareas similares en entornos variados“.

Los investigadores han conseguido que dos robots aprendan 12 tareas, entre ellas abrir un cajón, la puerta y la tapa del horno, quitar una olla del fuego y coger el teléfono, una verdura o una lata de sopa.

La forma en que actualmente se entrena a los robots es haciéndoles una demostración manual de la tarea o bien entrenándolos de manera exhaustiva en un entorno simulado.

Ambos métodos requieren mucho tiempo y suelen fracasar.

En investigaciones anteriores, Pathak y su equipo dieron con un método novedoso en el que los robots aprenden observando a los humanos completar la tarea.

Sin embargo, el método, llamado WHIRL, que es la abreviatura de In-the-Wild Human Imitating Robot Learning, requería que el humano completara la tarea en el mismo entorno que el robot.

En su último trabajo, Pathak y su equipo se han basado en el método WHIRL y lo han mejorado.

El nuevo modelo, que se llama Vision-Robotics Bridge o VRB para acortar, elimina la necesidad de hacer demostraciones humanas y de que el robot opere en un entorno idéntico.

Al igual que sucede con el WHIRL, la máquina tiene que practicar para dominar una tarea.

Según el trabajo actual, el robot solo necesita 25 minutos para aprender una nueva tarea.

Pudimos llevar los robots por el campus y realizar todo tipo de tareas“, explica Shikhar Bahl, estudiante de doctorado en robótica.

“Los robots pueden utilizar este modelo para explorar con curiosidad el mundo que les rodea. En lugar de limitarse a agitar los brazos, un robot puede ser más directo con su forma de interactuar“.

Para enseñar a los robots a interactuar con objetos, los investigadores aplicaron el concepto de affordances.

Las affordances vienen del ámbito de la psicología y hacen referencia a lo que el entorno ofrece a la persona.

El concepto se ha extendido al campo del diseño y la interacción persona-computador para referirse a las acciones potenciales percibidas por un individuo.

En el caso del VRB, las affordances definen dónde y cómo puede interactuar un robot con un objeto basándose en el comportamiento humano.

Por ejemplo, cuando un robot observa a un humano abrir un cajón, identifica los puntos de contacto (el tirador) y la dirección del movimiento del cajón (en línea recta desde el punto de partida).

Tras ver varios videos de humanos abriendo cajones, el robot puede determinar cómo abrir cualquier cajón.

El equipo utilizó videos de grandes conjuntos de datos como Ego4D y Epic Kitchens.

Ego4D tiene casi 4.000 horas de videos egocéntricos de actividades cotidianas de todo el mundo.

Los investigadores de la CMU ayudaron a recopilar algunos de estos videos.

Epic Kitchens contiene videos similares relacionados con la cocina y también con su limpieza.

Ambos conjuntos de datos están pensados para ayudar a entrenar modelos de visión por computador.

Estamos utilizando estos conjuntos de datos de una forma nueva y diferente”, afirma Bahl.

Este trabajo podría permitir a los robots aprender de la enorme cantidad de videos disponibles en Internet y YouTube”.

Recientemente se ha publicado en la revista IEE Access un estudio en el que investigadores de la Universidad de Cambridge han logrado que un robot prepare ensaladas muy básicas viendo videos. También creó una por su cuenta.

En este caso, lo que hicieron fue programar la máquina con un libro de ocho recetas de ensaladas.

Le pusieron un video en el que salía una persona siguiendo una de las recetas, el robot identificó la receta en cuestión y fue capaz de prepararla por sí solo. La novena ensalada la confeccionó él.

Fuente: GitHub

Leave a Reply

Your email address will not be published. Required fields are marked *