Robots adquieren visión sobrehumana mediante señales de radio

Robots adquieren visión sobrehumana mediante señales de radio

Comparta este Artículo en:

En la carrera por desarrollar sistemas de percepción robustos para robots, un desafío persistente ha sido operar en condiciones climáticas adversas.

Por ejemplo, los sensores de visión tradicionales basados ​​en la luz, como las cámaras o el LiDAR (Light Detection And Ranging), fallan en condiciones de humo y niebla densos.

Sin embargo, la naturaleza ha demostrado que la visión no tiene por qué verse limitada por las limitaciones de la luz: muchos organismos han desarrollado formas de percibir su entorno sin depender de la luz.

Los murciélagos se orientan utilizando los ecos de las ondas sonoras, mientras que los tiburones cazan detectando los campos eléctricos de los movimientos de sus presas.

Las ondas de radio, cuyas longitudes de onda son órdenes de magnitud más largas que las ondas de luz, pueden penetrar mejor el humo y la niebla, e incluso pueden ver a través de ciertos materiales, todas capacidades que están más allá de la visión humana.

Sin embargo, los robots tradicionalmente han dependido de una caja de herramientas limitada: o bien utilizan cámaras y LiDAR, que proporcionan imágenes detalladas pero fallan en condiciones difíciles, o bien radares tradicionales, que pueden ver a través de paredes y otras oclusiones, pero producen imágenes rudimentarias y de baja resolución.

Ahora, investigadores de la Facultad de Ingeniería y Ciencias Aplicadas de la Universidad de Pensilvania (Penn Engineering) han desarrollado PanoRadar, una nueva herramienta para dar a los robots una visión sobrehumana al transformar ondas de radio simples en vistas detalladas en 3D del entorno.

“Nuestra pregunta inicial era si podíamos combinar lo mejor de ambas modalidades de detección“, dice Mingmin Zhao, profesor adjunto de Ciencias de la Computación y la Información.

“La robustez de las señales de radio, que son resistentes a la niebla y otras condiciones desafiantes, y la alta resolución de los sensores visuales”.

En un artículo Zhao y su equipo describen cómo PanoRadar aprovecha las ondas de radio y la inteligencia artificial (IA) para permitir que los robots naveguen incluso en los entornos más desafiantes, como edificios llenos de humo o carreteras con niebla.

PanoRadar es un sensor que funciona como un faro que barre su haz en un círculo para escanear todo el horizonte.

El sistema consta de una matriz vertical giratoria de antenas que escanean su entorno.

A medida que giran, estas antenas envían ondas de radio y escuchan sus reflejos en el entorno, de forma muy similar a cómo el haz de luz de un faro revela la presencia de barcos y características costeras.

Gracias al poder de la IA, PanoRadar va más allá de esta simple estrategia de escaneo.

A diferencia de un faro que simplemente ilumina diferentes áreas a medida que gira, PanoRadar combina inteligentemente las mediciones de todos los ángulos de rotación para mejorar la resolución de sus imágenes.

Si bien el sensor en sí solo cuesta una fracción del costo de los sistemas LiDAR, que suelen ser costosos, esta estrategia de rotación crea una densa matriz de puntos de medición virtuales, lo que permite a PanoRadar lograr una resolución de imágenes comparable a la del LiDAR.

“La innovación clave está en cómo procesamos estas mediciones de ondas de radio“, explica Zhao.

“Nuestros algoritmos de procesamiento de señales y aprendizaje automático pueden extraer información tridimensional enriquecida del entorno”.

Uno de los mayores desafíos que enfrentó el equipo de Zhao fue desarrollar algoritmos para mantener imágenes de alta resolución mientras el robot se mueve.

“Para lograr una resolución comparable a la del LiDAR con las señales de radio, necesitábamos combinar mediciones de muchas posiciones diferentes con una precisión submilimétrica”, explica Lai, el autor principal del artículo.

“Esto se vuelve particularmente complicado cuando el robot está en movimiento, ya que incluso pequeños errores de movimiento pueden afectar significativamente la calidad de la imagen”.

Otro desafío que abordó el equipo fue enseñar a su sistema a comprender lo que ve.

“Los entornos interiores tienen patrones y geometrías consistentes”, dice Luo.

“Aprovechamos estos patrones para ayudar a nuestro sistema de IA a interpretar las señales de radar, de manera similar a cómo los humanos aprenden a dar sentido a lo que ven”.

Durante el proceso de entrenamiento, el modelo de aprendizaje automático se basó en datos del LiDAR para comprobar su comprensión frente a la realidad y pudo seguir mejorando.

“Nuestras pruebas de campo en diferentes edificios mostraron cómo la detección por radio puede sobresalir donde los sensores tradicionales tienen dificultades“, dice Liu.

“El sistema mantiene un seguimiento preciso a través del humo e incluso puede mapear espacios con paredes de vidrio”.

Esto se debe a que las ondas de radio no se bloquean fácilmente con partículas en el aire, y el sistema puede incluso “capturar” cosas que el LiDAR no puede, como superficies de vidrio.

La alta resolución de PanoRadar también significa que puede detectar personas con precisión, una característica fundamental para aplicaciones como vehículos autónomos y misiones de rescate en entornos peligrosos.

De cara al futuro, el equipo planea explorar cómo PanoRadar podría funcionar junto con otras tecnologías de detección como cámaras y LiDAR, creando sistemas de percepción multimodales más robustos para robots.

El equipo también está ampliando sus pruebas para incluir varias plataformas robóticas y vehículos autónomos.

“Para las tareas de alto riesgo, es fundamental contar con múltiples formas de detectar el entorno”, afirma Zhao.

“Cada sensor tiene sus puntos fuertes y débiles, y al combinarlos de forma inteligente, podemos crear robots mejor equipados para afrontar los desafíos del mundo real”.

Fuente: ACM

 

Leave a Reply

Your email address will not be published. Required fields are marked *