IA mejora la visión artificial y la detección de objetos en condiciones de poca luz
A la hora de diseñar un robot, como el robot antropomórfico Atlas de Boston Dynamics, que aparece haciendo ejercicios y ordenando cajas, los marcadores fiduciales son las guías que le ayudan a moverse, detectar objetos y determinar su ubicación exacta.
Se trata de una herramienta de visión artificial que se utiliza para estimar la posición de los objetos.
A simple vista son códigos cuadrados en blanco y negro planos y de alto contraste, que se asemejan más o menos al sistema de marcado QR, pero con una ventaja: se pueden detectar a distancias mucho mayores.
En términos logísticos, una cámara en el techo permite identificar la ubicación de un paquete de forma automatizada utilizando estos marcadores, ahorrando tiempo y dinero.
Hasta ahora, el punto débil del sistema eran las condiciones de iluminación, ya que las técnicas clásicas de visión artificial que localizan y decodifican con precisión los marcadores fallan en situaciones de poca luz.
Para abordar este problema, los investigadores Rafael Berral, Rafael Muñoz, Rafael Medina y Manuel J. Marín, del grupo de investigación Aplicaciones de Visión Artificial de la Universidad de Córdoba, han desarrollado un sistema que es capaz, por primera vez, de detectar y decodificar marcadores fiduciales en condiciones de iluminación difíciles, utilizando redes neuronales.
“El uso de redes neuronales en el modelo nos permite detectar este tipo de marcadores de una forma más flexible, solucionando el problema de la iluminación para todas las fases del proceso de detección y decodificación”, explica el investigador Berral.
Todo el proceso se compone de tres pasos: detección del marcador, refinamiento de las esquinas y decodificación del marcador, cada uno basado en una red neuronal diferente.
Es la primera vez que se da una solución completa a este problema, ya que, como señala Manuel J. Marín, “ha habido muchos intentos de, en situaciones de iluminación óptima, aumentar las velocidades, por ejemplo, pero no se había abordado del todo el problema de la poca iluminación, o de muchas sombras, para mejorar el proceso”.
A la hora de entrenar este modelo, que presenta una solución de extremo a extremo, el equipo creó un conjunto de datos sintéticos que reflejan de forma fiable el tipo de circunstancias de iluminación que se pueden encontrar al trabajar con un sistema de marcadores sin condiciones ideales.
Una vez entrenado, “el modelo se ha probado con datos del mundo real, algunos producidos aquí internamente y otros como referencias de otros trabajos previos”, indican los investigadores.
Tanto los datos generados artificialmente para entrenar el modelo, como los de situaciones de iluminación desfavorables en el mundo real, están disponibles en abierto.
Así, el sistema podría aplicarse hoy en día “ya que se ha liberado el código y se ha hecho posible probar el código con cualquier imagen en la que aparezcan marcadores fiduciales”, recuerda Rafael Muñoz.
Gracias a este trabajo, las aplicaciones de visión artificial han superado un nuevo obstáculo: moverse en la oscuridad.
Fuente: Image and Vision Computing
Microsoft anunció el Majorana 1, el primer chip cuántico impulsado por un topoconductor que produce…
Los motores de combustión de los automóviles a gasolina pueden producir mucha energía quemando dinosaurios…
Investigadores de Meta utilizaron un escáner cerebral de última generación y un modelo de inteligencia…
Científicos han conseguido reconectar, en una rata a modo de prueba de lo que quizá…
Ingenieros logran un avance revolucionario en microelectrónica, inspirado en principios cuánticos: desarrollan un método para…
El nuevo modelo de lenguaje es capaz de generar imágenes, simular entradas y producir secuencias…