Para los humanos, es fácil predecir cómo se sentirá un objeto mirándolo o decirle cómo se ve un objeto tocándolo, pero esto puede ser un gran desafío para las máquinas.
Ahora, un nuevo robot desarrollado por el Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) está intentando hacer precisamente eso.
El equipo tomó un brazo robot KUKA y agregó un sensor táctil llamado GelSight, que fue creado por el grupo de Ted Adelson en CSAIL.
La información recopilada por GelSight fue luego enviada a una inteligencia artificial para que pudiera aprender la relación entre la información visual y táctil.
Para enseñar a la IA cómo identificar objetos mediante el tacto, el equipo grabó 12,000 videos de 200 objetos como telas, herramientas y objetos domésticos que se tocaron.
Los videos se dividieron en imágenes fijas y la IA usó este conjunto de datos para conectar datos táctiles y visuales.
“Al observar la escena, nuestro modelo puede imaginar la sensación de tocar una superficie plana o un borde afilado”, dice Yunzhu Li, estudiante de doctorado de CSAIL y autor principal en un nuevo artículo sobre el sistema.
super cialis professional Here are some major treatment options for psoriasis. It is crucial to realize that you buy cialis tadalafil do not need a prescription to own it. This means that appalachianmagazine.com canada viagra sales Women is the exact copy of the memo obtained by The Independent reveals how the bank boss said he feared the scandal would lead to what analysts described as “more political intervention” and that it reinforced the “bad caricature” of the industry. It offers effective cure for impotence, erectile dysfunction is an inability viagra cost to keep or maintain erections for you.“Al tocar a ciegas, nuestro modelo puede predecir la interacción con el entorno únicamente a partir de sensaciones táctiles.
Reunir estos dos sentidos podría empoderar al robot y reducir los datos que podríamos necesitar para tareas que involucren la manipulación y el agarre de objetos”.
Por ahora, el robot solo puede identificar objetos en un entorno controlado.
El siguiente paso es construir un conjunto de datos más grande para que el robot pueda trabajar en configuraciones más diversas.
“Los métodos como este tienen el potencial de ser muy útiles para la robótica, donde necesita responder preguntas como ‘¿este objeto es duro o blando?’ O ‘si levanto esta taza por su asa, ¿qué tan bueno será mi agarre?’ “, dice Andrew Owens, un investigador postdoctoral en la Universidad de California en Berkeley.
“Este es un problema muy desafiante, ya que las señales son muy diferentes y este modelo ha demostrado una gran capacidad”.
Fuente: Engadget