Hace tiempo que los sistemas de inteligencia artificial pueden usar la visión artificial para detectar la presencia de humanos en una habitación, e incluso identificar qué están haciendo o que sentimiento expresan, con solo analizar su postura y patrones de movimiento.
Pero ¿y si la habitación está en total oscuridad? O peor ¿y si la persona no está en la misma habitación, sino en la contigua?
Pues ahora eso no supone ningún impedimento para la IA: tan sólo ha de buscar una fuente de datos diferente y seguir analizando patrones.
Y esa nueva fuente de datos son las señales de radio en las frecuencias WiFi.
Y eso se lo debemos a un equipo de investigadores del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) del MIT que recientemente ha publicado un artículo que muestra el modo en que dichas señales pueden ser analizadas por redes neuronales para permitirnos ‘ver’ en ausencia de luz.
“Nuestro modelo utiliza como datos de entrada la señales de radiofrecuencia, genera esqueletos humanos en 3D a partir de las mismas y es capaz de reconocer las acciones e interacciones de varias personas a lo largo del tiempo”.
Ese paso intermedio de convertir las señales de radio en esqueletos 3D resulta clave para el éxito de este sistema, al permitir que el modelo no sólo aprenda a partir de los datasets basados en radiofrecuencia, sino que también sea capaz de aplicar todos los datos recopilados hasta la fecha basados en la captura con visión computerizada.
De hecho, los investigadores empezaron grabando simultáneamente imágenes con luz visible y basadas en ondas de radio, con el objetivo de sincronizarlas y que la red neuronal se entrenara también simultáneamente con ambas: así podría establecer correlaciones entre los datos mostrados por una y otra.
La introducción de los esqueletos 3D tuvo lugar cuando detectaron que al sistema le costaba aprender a diferenciar a una persona de su entorno circundante.
Según explica Tianhong Li, uno de los coautores, este modelo, bautizado como ‘RF-Action’, tiene “numerosas aplicaciones potenciales” en el campo de los hogares inteligentes y de la comprensión del comportamiento humano:
“Por ejemplo, detectar comportamientos anormales en los ancianos (para detectar si se caen dentro de su casa), monitorizar que los pacientes tomen sus medicamentos de manera adecuada o controlar a distancia dispositivos domésticos inteligentes mediante gestos”.
En cuanto a la privacidad, todavía no hay que preocuparse por la posibilidad de que alguien nos someta a reconocimiento facial desde la casa de al lado, pues la baja resolución de las imágenes conseguidas no permite apreciar los rasgos faciales.
Sin embargo, sí deberíamos temer una posible integración futura con la tecnología de reconocimiento postural desarrollada por los chinos.
Pero Li reconoce que aún les queda mucho trabajo por delante: hasta ahora, RF-Action sólo se ha probado usando una única pared y dentro de un rango de detección de 1-11 metros:
“La señal de radiofrecuencia se debilitará progresivamente según añadamos paredes, por lo que puede ser difícil conservar un equilibrio adecuado señal/ruido si añadimos demasiadas paredes”.
Fuente: Xataca
Los modelos de IA generativa como ChatGPT se entrenan con grandes cantidades de datos obtenidos…
El kit para desarrolladores NVIDIA Jetson Orin Nano Super está diseñado tanto para aficionados como…
Google ha presentado Veo 2, una IA que supera a Sora al generar videos realistas…
La nueva IA de Google es capaz de generar diseños de cualquier tipo sin necesidad…
Han pasado casi cinco meses desde el lanzamiento de SearchGPT. La prometedora función de búsqueda…
En los últimos años, los ingenieros han intentado crear sistemas de hardware que soporten mejor…