Imagínese lo siguiente: está en un trabajo de oficina y usa auriculares con cancelación de ruido para amortiguar el parloteo ambiental. Un compañero de trabajo llega a su escritorio y le hace una pregunta, pero en lugar de tener que quitarse los auriculares y decir “¿Qué?”, usted escucha la pregunta con claridad.
Mientras tanto, la charla en el dispensador de agua del otro lado de la sala permanece silenciada.
O imagine que está en un restaurante lleno de gente y escucha a todos los que están en su mesa, pero reduce el ruido de los demás oradores en el restaurante.
Un equipo dirigido por investigadores de la Universidad de Washington ha creado un prototipo de auriculares que permite a los oyentes crear una “burbuja de sonido” de este tipo.
Los algoritmos de inteligencia artificial del equipo combinados con un prototipo de auriculares permiten al usuario escuchar a las personas que hablan dentro de una burbuja con un radio programable de 1 a 2 metros.
Las voces y los sonidos que se escuchan fuera de la burbuja se silencian a una media de 49 decibeles (aproximadamente la diferencia entre una aspiradora y el crujido de las hojas), incluso si los sonidos distantes son más fuertes que los que se escuchan dentro de la burbuja.
El código del dispositivo de prueba de concepto está disponible para que otros puedan desarrollarlo.
Los investigadores están creando una empresa emergente para comercializar esta tecnología.
“Los humanos no son muy buenos para percibir distancias a través del sonido, en particular cuando hay múltiples fuentes de sonido a su alrededor“, dijo el autor principal Shyam Gollakota, profesor de la Universidad de Washington en la Escuela Paul G. Allen de Ciencias de la Computación e Ingeniería.
“Nuestras capacidades para centrarnos en las personas que nos rodean pueden verse limitadas en lugares como restaurantes ruidosos, por lo que crear burbujas de sonido en un dispositivo auditivo no ha sido posible hasta ahora.
Nuestro sistema de IA puede aprender la distancia de cada fuente de sonido en una habitación y procesarla en tiempo real, en 8 milisegundos, en el propio dispositivo auditivo”.
Los investigadores crearon el prototipo con auriculares con cancelación de ruido disponibles comercialmente.
Colocaron seis pequeños micrófonos a lo largo de la banda para la cabeza.
La red neuronal del equipo, que funciona en una pequeña computadora incorporada conectada a los auriculares, rastrea cuándo llegan los diferentes sonidos a cada micrófono.
Luego, el sistema suprime los sonidos que vienen del exterior de la burbuja, mientras reproduce y amplifica ligeramente los sonidos dentro de la burbuja (porque los auriculares con cancelación de ruido dejan pasar físicamente algo de sonido).
“Habíamos trabajado en un sistema de altavoces inteligentes anterior en el que distribuimos los micrófonos a lo largo de una mesa porque pensamos que necesitábamos distancias significativas entre ellos para extraer información de distancia sobre los sonidos“, dijo Gollakota.
“Pero luego comenzamos a cuestionar nuestra suposición. ¿Necesitamos una gran separación para crear esta ‘burbuja de sonido’? Lo que demostramos aquí es que no es así.
Pudimos hacerlo solo con los micrófonos de los auriculares y en tiempo real, lo que fue bastante sorprendente”.
Para entrenar al sistema para que creara burbujas de sonido en diferentes entornos, los investigadores necesitaban un conjunto de datos de sonido basado en la distancia recopilados en el mundo real, que no estaba disponible.
Para reunir este conjunto de datos, colocaron los auriculares en una cabeza de maniquí.
Una plataforma robótica hizo girar la cabeza mientras un altavoz en movimiento reproducía ruidos que provenían de diferentes distancias.
El equipo recopiló datos con el sistema de maniquí y con usuarios humanos en 22 entornos interiores diferentes, incluidas oficinas y espacios habitables.
Los investigadores han determinado que el sistema funciona por un par de razones.
En primer lugar, la cabeza del usuario refleja los sonidos, lo que ayuda a la red neuronal a distinguir los sonidos de varias distancias.
En segundo lugar, los sonidos (como el habla humana) tienen múltiples frecuencias, cada una de las cuales pasa por diferentes fases a medida que viaja desde su fuente.
Los investigadores creen que el algoritmo de inteligencia artificial del equipo compara las fases de cada una de estas frecuencias para determinar la distancia de cualquier fuente de sonido (una persona hablando, por ejemplo).
Los auriculares como los AirPods Pro 2 de Apple pueden amplificar la voz de la persona que está frente al usuario y, al mismo tiempo, reducir el ruido de fondo.
Pero estas características funcionan rastreando la posición de la cabeza y amplificando el sonido que proviene de una dirección específica, en lugar de medir la distancia.
Esto significa que los auriculares no pueden amplificar varios altavoces a la vez, pierden su funcionalidad si el usuario gira la cabeza en dirección contraria al altavoz de destino y no son tan eficaces para reducir los sonidos fuertes provenientes de la dirección del altavoz.
El sistema ha sido entrenado para funcionar solo en interiores, porque obtener un audio de entrenamiento limpio es más difícil al aire libre.
A continuación, el equipo está trabajando para hacer que la tecnología funcione en audífonos y auriculares con cancelación de ruido, lo que requiere una nueva estrategia para colocar los micrófonos.
Fuente: Nature electronics