En un estudio reciente un grupo de científicos utilizó machine learning para entrenar un algoritmo que reconociera las sutiles diferencias acústicas entre un arrecife sano y vibrante y otro degradado, un contraste acústico tan tenue que puede ser imposible de detectar por el oído humano.
Un arrecife de coral sano no solo se caracteriza por sus vibrantes colores sino por los sonidos que emite.
Si ha tenido la oportunidad de bucear cerca de alguno, habrá podido oír como chasquidos que emiten las distintas criaturas que viven bajo el agua, como los camarones o los peces.
Al ser este zumbido de fondo una característica tan propia del paisaje sonoro de los arrecifes de coral, podríamos fijarnos en él para vigilar su estado de salud, pues se encuentran en peligro.
Esta es la idea que ha tenido un equipo de investigadores que ha empleado machine learning (aprendizaje automático) para entrenar un algoritmo que reconozca las sutiles diferencias acústicas que hay entre un arrecife sano y otro degradado, un contraste tan tenue que puede ser imposible que nuestros oídos lo capten.
Los investigadores afirman que la herramienta ofrece interesantes ventajas si la comparamos con otros procedimientos que se emplean para conocer el estado de salud de los arrecifes.
La herramienta ahorra mucho tiempo y trabajo y es que solo hay que pensar en lo que supone la operación sin ella: visitas periódicas de buzos que evalúen de manera visual cómo está la cubierta de coral, escuchar luego las grabaciones que se hagan.
También hay que tener en cuenta que muchos animales que viven en este ecosistema submarino se esconden o solo se ven por la noche, lo que complica aún más los estudios visuales.
“Nuestros hallazgos demuestran que un computador puede captar patrones que son indetectables para el oído humano“, afirma el biólogo marino Ben Williams, de la Universidad de Exeter (Reino Unido).
“Puede decirnos más rápidamente y con mayor precisión cómo está el arrecife“.
Lo que hicieron Williams y sus colegas para captar los sonidos de los corales fue grabar en siete lugares distintos del archipiélago de Spermonde, situado frente a la costa suroeste de Sulawesi, en Indonesia, que es además la sede del proyecto Mars Coral Reef Restoration para la restauración de los arrecifes coralinos.
Las grabaciones incluían cuatro tipos de hábitat de arrecife: sano, degradado, maduro restaurado y recién restaurado.
Cada uno de ellos tenía una cantidad de cobertura coralina distinta y, por consiguiente, un ruido diferente.
“Anteriormente dependíamos de la escucha y anotación manual de estas grabaciones para hacer comparaciones fiables“, explicó Williams en un hilo de Twitter.
“Sin embargo, este es un proceso muy lento y el tamaño de las bases de datos de paisajes sonoros marinos se está disparando con la llegada de grabadoras de bajo costo”.
Para automatizar el proceso, el equipo entrenó un algoritmo de machine learning para que fuera capaz de diferenciar los distintos tipos de grabaciones de corales.
Las pruebas posteriores demostraron que la herramienta de inteligencia artificial podía identificar la salud de los arrecifes a partir de las grabaciones de audio con una precisión del 92 %.
“Es un avance realmente emocionante“, afirma el coautor y biólogo marino Timothy Lamont, de la Universidad de Lancaster, en Reino Unido.
“En muchos casos es más fácil y barato desplegar un hidrófono submarino en un arrecife y dejarlo allí que tener buzos expertos que visiten el arrecife repetidamente para estudiarlo, especialmente en lugares remotos.“
Según los investigadores, los resultados del algoritmo dependen de una combinación de factores del paisaje sonoro submarino, como la abundancia y la diversidad de las vocalizaciones de los peces, los sonidos de los invertebrados e incluso los ruidos débiles que se cree que producen las algas, junto con las contribuciones de fuentes abióticas, como las sutiles diferencias en el sonido de las olas y el viento en los distintos tipos de hábitat coralino.
Como han apuntado los expertos, nuestro oído no es capaz de identificar con facilidad esos sonidos débiles que pueden darse en un arrecife, pero una máquina sí puede hacerlo y de manera fiable.
Sin embargo, reconocen que el método tiene margen de perfeccionamiento para ofrecer un mayor muestreo de sonidos y “un enfoque más matizado para clasificar el ecoestado“.
La mala noticia es que tiempo es justo lo que no tienen los arrecifes de coral. Hay que actuar rápido si queremos salvarlos.
Fuente: ScienceDirect
Samsung ha presentado Gauss, su propio modelo de inteligencia artificial generativa. Puede procesar lenguaje natural,…
Un equipo de físicos del Instituto de Tecnología de Massachusetts (MIT) ha descubierto una propiedad…
Una carcasa experimental de marcapasos sin cables puede recargar parcialmente la batería del dispositivo generando…
No había mucho en juego, ya que era solo una demostración en vivo, pero la…
La prótesis decodifica señales del centro del habla del cerebro para predecir qué sonido alguien…
El invento ya se probó en un paciente francés, de 63 años, al que le…