NUEVO ROBOT DEL MIT PUEDE IDENTIFICAR LAS COSAS CON LA VISTA Y CON EL TACTO

Nuevo robot del MIT puede identificar las cosas con la vista y con el tacto

Comparta este Artículo en:

Para los humanos, es fácil predecir cómo se sentirá un objeto mirándolo o decirle cómo se ve un objeto tocándolo, pero esto puede ser un gran desafío para las máquinas.

Ahora, un nuevo robot desarrollado por el Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) está intentando hacer precisamente eso.

El equipo tomó un brazo robot KUKA y agregó un sensor táctil llamado GelSight, que fue creado por el grupo de Ted Adelson en CSAIL.

La información recopilada por GelSight fue luego enviada a una inteligencia artificial para que pudiera aprender la relación entre la información visual y táctil.

Para enseñar a la IA cómo identificar objetos mediante el tacto, el equipo grabó 12,000 videos de 200 objetos como telas, herramientas y objetos domésticos que se tocaron.

Los videos se dividieron en imágenes fijas y la IA usó este conjunto de datos para conectar datos táctiles y visuales.

“Al observar la escena, nuestro modelo puede imaginar la sensación de tocar una superficie plana o un borde afilado”, dice Yunzhu Li, estudiante de doctorado de CSAIL y autor principal en un nuevo artículo sobre el sistema.

“Al tocar a ciegas, nuestro modelo puede predecir la interacción con el entorno únicamente a partir de sensaciones táctiles.

Reunir estos dos sentidos podría empoderar al robot y reducir los datos que podríamos necesitar para tareas que involucren la manipulación y el agarre de objetos”.

Por ahora, el robot solo puede identificar objetos en un entorno controlado.

El siguiente paso es construir un conjunto de datos más grande para que el robot pueda trabajar en configuraciones más diversas.

“Los métodos como este tienen el potencial de ser muy útiles para la robótica, donde necesita responder preguntas como ‘¿este objeto es duro o blando?’ O ‘si levanto esta taza por su asa, ¿qué tan bueno será mi agarre?’ “, dice Andrew Owens, un investigador postdoctoral en la Universidad de California en Berkeley.

“Este es un problema muy desafiante, ya que las señales son muy diferentes y este modelo ha demostrado una gran capacidad”.

Fuente: Engadget

Leave a Reply

Your email address will not be published. Required fields are marked *