LOGRAN QUE ROBOTS DETECTEN Y COMPARTAN CAMBIOS EN 3D EN TIEMPO REAL

Logran que robots detecten y compartan cambios en 3D en tiempo real

Comparta este Artículo en:

Incluso pequeños cambios en un entorno podrían indicar peligro.

Imagine que un robot pudiera detectar esos cambios, y que pudiéramos ser alertados inmediatamente a través de una pantalla en nuestras gafas.

Eso es lo que científicos del Ejército de los EE.UU. están desarrollando con sensores, robots, detección de cambios en tiempo real y prendas de realidad aumentada.

Los investigadores del Ejército demostraron el funcionamiento en un entorno del mundo real del primer equipo humano-robot en el que el robot detecta cambios físicos en 3D y comparte esa información con un humano en tiempo real a través de la realidad aumentada, que a su vez puede evaluar la información recibida y decidir la acción siguiente.

Esto podría permitir a los robots informar a sus compañeros soldados del equipo sobre los cambios en el entorno que podrían ser pasados por alto por los humanos o no ser perceptibles para ellos, dándoles una mayor conciencia de la situación y afrontar mejor los posibles adversarios“, dijo el Dr. Christopher Reardon, investigador del Laboratorio de Investigación del Ejército de los Estados Unidos.

Esto podría detectar cualquier cosa, como soldados enemigos camuflados“.

Esta investigación explora cómo proporcionar conciencia contextual a las plataformas terrestres robóticas autónomas en escenarios de maniobras y movilidad.

Los investigadores también participan para probar y evaluar las tecnologías de colaboración entre humanos y robots.

La mayor parte de la investigación académica sobre el uso de interfaces de realidad mixta para el trabajo en equipo entre humanos y robots no entra en los entornos del mundo real, sino que utiliza instrumentación externa en un laboratorio para gestionar los cálculos necesarios para compartir información entre un humano y un robot.

Asimismo, la mayoría de los esfuerzos de ingeniería para proporcionar a los humanos interfaces de realidad mixta no examinan el trabajo en equipo con robots móviles autónomos, dijo Reardon.

All you do is delay the loss in your own on line levitra amerikabulteni.com case. Previous to you decide that you dont want to spend some time at a covering, take time to investigate precisely how much camping has cialis generic pharmacy Read Full Article improved found in modern years. The real deal is usually that you are focusing relatively on the final goal, viagra uk online which is of course orgasm, or pleasing your partner with an orgasm, instead of focusing on the sensation you experience during sexual activity, think of something other than sex like a baseball game or reciting the alphabet backwards. stores for viagra Delaying the ejaculation is possible if you continue smoking.

La investigación emparejó un pequeño robot terrestre móvil autónomo, equipado con sensores de medición de distancias mediante láser, conocidos como LIDAR, para construir una representación del entorno, con un compañero de equipo humano que llevaba gafas de realidad aumentada.

A medida que el robot patrullaba el entorno, comparaba sus lecturas actuales y anteriores para detectar cambios en él.

Esos cambios se mostraron instantáneamente en las gafas del humano para determinar si este podía interpretar los cambios en el entorno.

Al estudiar la comunicación entre el robot y el equipo humano, los investigadores probaron sensores LIDAR de diferente resolución en el robot para recoger las mediciones del entorno y detectar los cambios.

Cuando esos cambios fueron compartidos usando realidad aumentada con el humano, los investigadores encontraron que este podía interpretar los cambios que detectaron incluso los LIDAR de menor resolución.

Esto indica que, dependiendo del tamaño de los cambios que se espera encontrar, sensores más ligeros, más pequeños y menos costosos podrían funcionar igual de bien, y con un proceso más rápido.

Esta capacidad tiene el potencial de ser incorporada en futuras interfaces de realidad mixta para soldados, como las gafas IVAS (Integrated Visual Augmentation System), del Ejército.

Los estudios futuros continuarán explorando cómo fortalecer el trabajo en equipo entre los humanos y los agentes autónomos permitiendo que el humano interactúe con los cambios detectados, lo que proporcionará más información al robot sobre el contexto del cambio, por ejemplo, los cambios realizados por los adversarios frente a los cambios ambientales naturales o los falsos positivos, dijo Reardon.

Esto mejorará la comprensión del contexto autónomo y las capacidades de razonamiento de la plataforma robótica, por ejemplo, permitiendo al robot aprender y predecir qué tipos de cambios constituyen una amenaza.

Fuente: Noticias de la Ciencia

Leave a Reply

Your email address will not be published. Required fields are marked *