Investigadores del MIT y del MIT-IBM Watson AI Lab han desarrollado un sistema de aprendizaje automático impulsado por IA que simula cómo un oyente escucharía el sonido desde cualquier punto de una habitación.
Más específicamente, logra esto al capturar cómo se propagará cualquier sonido en una habitación a través del espacio, lo que permite que el modelo simule lo que un oyente escucharía en diferentes lugares.
Dado que el sistema es capaz de modelar con precisión la acústica de una escena, puede aprender rápidamente la geometría 3D subyacente de una habitación a partir de grabaciones de sonido.
Luego, los investigadores pueden usar la información acústica para crear representaciones visuales precisas de una habitación, al igual que los humanos usan el sonido al estimar las propiedades de su entorno físico.
Las aplicaciones prácticas incluyen tanto la realidad virtual como la aumentada, además de ayudar a los agentes de IA a desarrollar una mejor comprensión del mundo que los rodea.
“Si te imaginas parado cerca de una puerta, lo que más afecta lo que escuchas es la presencia de esa puerta, no necesariamente las características geométricas lejos de ti en el otro lado de la habitación.
Descubrimos que esta información permite una mejor generalización que una simple red conectada”, dijo Andrew Luo, autor principal y estudiante de posgrado en la Universidad Carnegie Mellon (CMU).
Fuente: MIT News