Categorías: Tecnología

Nuevo robot del MIT puede identificar las cosas con la vista y con el tacto

Comparta este Artículo en:

Para los humanos, es fácil predecir cómo se sentirá un objeto mirándolo o decirle cómo se ve un objeto tocándolo, pero esto puede ser un gran desafío para las máquinas.

Ahora, un nuevo robot desarrollado por el Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) está intentando hacer precisamente eso.

El equipo tomó un brazo robot KUKA y agregó un sensor táctil llamado GelSight, que fue creado por el grupo de Ted Adelson en CSAIL.

La información recopilada por GelSight fue luego enviada a una inteligencia artificial para que pudiera aprender la relación entre la información visual y táctil.

Para enseñar a la IA cómo identificar objetos mediante el tacto, el equipo grabó 12,000 videos de 200 objetos como telas, herramientas y objetos domésticos que se tocaron.

Los videos se dividieron en imágenes fijas y la IA usó este conjunto de datos para conectar datos táctiles y visuales.

“Al observar la escena, nuestro modelo puede imaginar la sensación de tocar una superficie plana o un borde afilado”, dice Yunzhu Li, estudiante de doctorado de CSAIL y autor principal en un nuevo artículo sobre el sistema.

super cialis professional Here are some major treatment options for psoriasis. It is crucial to realize that you buy cialis tadalafil do not need a prescription to own it. This means that appalachianmagazine.com canada viagra sales Women is the exact copy of the memo obtained by The Independent reveals how the bank boss said he feared the scandal would lead to what analysts described as “more political intervention” and that it reinforced the “bad caricature” of the industry. It offers effective cure for impotence, erectile dysfunction is an inability viagra cost to keep or maintain erections for you.

“Al tocar a ciegas, nuestro modelo puede predecir la interacción con el entorno únicamente a partir de sensaciones táctiles.

Reunir estos dos sentidos podría empoderar al robot y reducir los datos que podríamos necesitar para tareas que involucren la manipulación y el agarre de objetos”.

Por ahora, el robot solo puede identificar objetos en un entorno controlado.

El siguiente paso es construir un conjunto de datos más grande para que el robot pueda trabajar en configuraciones más diversas.

“Los métodos como este tienen el potencial de ser muy útiles para la robótica, donde necesita responder preguntas como ‘¿este objeto es duro o blando?’ O ‘si levanto esta taza por su asa, ¿qué tan bueno será mi agarre?’ “, dice Andrew Owens, un investigador postdoctoral en la Universidad de California en Berkeley.

“Este es un problema muy desafiante, ya que las señales son muy diferentes y este modelo ha demostrado una gran capacidad”.

Fuente: Engadget

Editor PDM

Entradas recientes

Físicos escuchan cómo hablan los átomos cuánticos entre sí

¿Y si pudiera oír al gato de Schrödinger? Un experimento suizo convierte el sonido en…

20 hours hace

Crean el robot volador inalámbrico más pequeño del mundo

Como un abejorro revoloteando de flor en flor, un nuevo robot volador inspirado en insectos,…

20 hours hace

Meta presenta Llama 4 con dos nuevos modelos de IA ya disponibles y dos más en camino

Meta ha lanzado los dos primeros modelos de su suite multimodal Llama 4: Llama 4…

20 hours hace

El cuerpo humano podría procesar información cuántica rápido y con eficiencia

¿Puede un organismo sin cerebro procesar información más rápido que una supercomputadora cuántica? (more…)

20 hours hace

Hombre paralítico se pone de pie y camina tras recibir células madre “reprogramadas”

En el primer estudio clínico de este tipo, investigadores de la Universidad Keio de Tokio…

20 hours hace

Nueva tecnología háptica imita la complejidad del tacto humano

Un innovador actuador permite sentir texturas, presiones y movimientos en la realidad virtual como nunca…

2 days hace
Click to listen highlighted text!