Como sabe toda persona atlética o consciente de la moda, nuestra imagen corporal no siempre es precisa o realista, pero es una información importante que determina cómo funcionamos en el mundo.
Cuando se viste o juega a la pelota, su cerebro planea constantemente para que pueda mover su cuerpo sin chocar, tropezar o caerse.
Los humanos adquirimos nuestro modelo corporal cuando somos bebés, y los robots están siguiendo su ejemplo.
Un equipo de ingeniería de Columbia anunció que ha creado un robot que, por primera vez, puede aprender un modelo de todo su cuerpo desde cero, sin ayuda humana.
En un nuevo estudio los investigadores demuestran cómo su robot creó un modelo cinemático de sí mismo y luego usó su propio modelo para planificar el movimiento, alcanzar objetivos y evitar obstáculos en una variedad de situaciones.
Incluso reconoció automáticamente y luego compensó el daño a su cuerpo.
Los investigadores colocaron un brazo robótico dentro de un círculo de cinco cámaras de video en tiempo real.
El robot se vio a sí mismo a través de las cámaras mientras ondulaba libremente.
Como un bebé que se explora a sí mismo por primera vez en una sala de espejos, el robot se movió y se contorsionó para aprender cómo se movía exactamente su cuerpo en respuesta a varios comandos motores.
Después de unas tres horas, el robot se detuvo.
Su red neuronal profunda interna había terminado de aprender la relación entre las acciones motoras del robot y el volumen que ocupaba en su entorno.
“Teníamos mucha curiosidad por ver cómo se imaginaba el robot a sí mismo”, dijo Hod Lipson, profesor de ingeniería mecánica y director del Laboratorio de Máquinas Creativas de Columbia, donde se realizó el trabajo.
“Pero no puedes simplemente echar un vistazo a una red neuronal; es una caja negra”.
Después de que los investigadores lucharon con varias técnicas de visualización, la imagen de sí mismo surgió gradualmente.
“Era una especie de nube que parpadeaba suavemente que parecía engullir el cuerpo tridimensional del robot”, dijo Lipson.
“Mientras el robot se movía, la nube parpadeante lo seguía suavemente”.
El automodelo del robot tenía una precisión de aproximadamente el 1% de su espacio de trabajo.
La capacidad de los robots para modelarse a sí mismos sin la ayuda de ingenieros es importante por muchas razones: no solo ahorra mano de obra, sino que también permite que el robot se mantenga al día con su propio desgaste e incluso detecte y compense los daños.
Los autores argumentan que esta capacidad es importante, ya que necesitamos que los sistemas autónomos sean más autosuficientes.
Un robot de fábrica, por ejemplo, podría detectar que algo no se está moviendo correctamente y compensar o pedir ayuda.
“Los humanos claramente tenemos una noción de nosotros mismos“, explicó el primer autor del estudio, Boyuan Chen, quien dirigió el trabajo y ahora es profesor asistente en la Universidad de Duke.
“Cierra los ojos e intenta imaginar cómo se movería tu propio cuerpo si hicieras alguna acción, como estirar los brazos hacia adelante o dar un paso hacia atrás.
En algún lugar dentro de nuestro cerebro tenemos una noción de nosotros mismos, un automodelo que nos informa qué volumen de nuestro entorno inmediato ocupamos y cómo ese volumen cambia a medida que nos movemos”.
El trabajo es parte de la búsqueda de décadas de Lipson para encontrar formas de otorgar a los robots algún tipo de autoconciencia.
“El automodelado es una forma primitiva de autoconciencia”, explicó.
“Si un robot, animal o humano tiene un automodelo preciso, puede funcionar mejor en el mundo, puede tomar mejores decisiones y tiene una ventaja evolutiva”.
Los investigadores son conscientes de los límites, riesgos y controversias que rodean otorgar a las máquinas una mayor autonomía a través de la autoconciencia.
Lipson se apresura a admitir que el tipo de autoconciencia demostrada en este estudio es, como señaló, “trivial en comparación con la de los humanos, pero hay que empezar por algún lado.
Tenemos que ir despacio y con cuidado, para que podamos cosechar los beneficios y minimizar los riesgos”.
Fuente: Columbia Engineering
Recientemente, Sanctuary AI presentó su mano robótica que ahora es capaz de manipular objetos. (more…)
Especialistas en robótica de la Universidad de Leeds y el University College de Londres han…
El lenguaje de señas es un medio de comunicación sofisticado y vital para las personas…
Según un nuevo estudio dirigido por el Imperial College, una tecnología de navegación que utiliza…
Gemini 2.0 Flash Thinking Experimental es una nueva versión de la IA de Google que…
Las computadoras cuánticas difieren fundamentalmente de las clásicas. En lugar de utilizar bits (0 y…