Google AI reduce la potencia de procesamiento necesaria para las previsiones meteorológicas

Google AI reduce la potencia de procesamiento necesaria para las previsiones meteorológicas

Comparta este Artículo en:

Un modelo meteorológico y climático que fusiona inteligencia artificial y simulaciones físicas puede igualar el rendimiento de última generación y al mismo tiempo reducir la potencia de procesamiento necesaria, afirman los investigadores de Google.

Investigadores de Google han creado una inteligencia artificial que, según afirman, puede pronosticar patrones meteorológicos y climáticos tan bien como los modelos físicos actuales y, al mismo tiempo, requiere menos potencia de procesamiento.

Las previsiones existentes se basan en modelos matemáticos ejecutados por supercomputadoras enormemente potentes que predicen de manera determinista lo que sucederá en el futuro.

Desde que se utilizaron por primera vez en la década de 1950, estos modelos se han vuelto cada vez más detallados y requieren cada vez más potencia de procesamiento.

Varios proyectos han tenido como objetivo reemplazar estos cálculos intensos con una IA mucho menos exigente, incluida una herramienta DeepMind para pronosticar la lluvia localmente en escalas de tiempo cortas.

Pero, como la mayoría de los modelos de IA, se trata de una “caja negra” cuyo funcionamiento interno es un misterio, y la incapacidad de explicar o replicar sus métodos es problemática.

Los científicos del clima también señalan que si los modelos se entrenan con datos históricos, tendrán dificultades para predecir fenómenos sin precedentes que están ocurriendo actualmente debido al cambio climático.

Ahora, Dmitrii Kochkov de Google Research en California y sus colegas han creado un modelo llamado NeuralGCM que, según creen, logra un equilibrio entre los dos enfoques.

Los modelos climáticos típicos dividen la superficie de la Tierra en una cuadrícula de celdas de hasta 100 kilómetros de ancho; los límites de la potencia de cálculo hacen que sea poco práctico simularlo a resoluciones más altas.

Fenómenos como las nubes, la turbulencia del aire y la convección dentro de esas celdas son simplemente aproximados por un código informático que se ajusta continuamente para que coincida con mayor precisión con los datos de observación.

Este enfoque, llamado parametrización, espera capturar, al menos parcialmente, los fenómenos de pequeña escala que el modelo de física más amplio no puede.

NeuralGCM está entrenado para asumir esta aproximación a pequeña escala, haciéndolo menos intensivo computacionalmente y más preciso.

Los investigadores afirman que el modelo puede procesar 70.000 días de simulación en 24 horas utilizando un único chip llamado unidad de procesamiento tensorial (TPU).

En comparación, un modelo de la competencia llamado X-SHiELD utiliza una supercomputadora con miles de unidades de procesamiento para procesar sólo 19 días de simulación.

NeuralGCM produce pronósticos con una precisión comparable a la de los mejores modelos de su clase, y a veces mejor.

Tim Palmer, de la Universidad de Oxford, dice que la investigación es un intento interesante de encontrar una tercera vía entre la física pura y la aproximación opaca de la IA.

“Me siento incómodo con la idea de que estemos abandonando por completo las ecuaciones de movimiento y simplemente pasando a algún sistema de IA, que incluso los expertos dirán que realmente no entienden del todo”, dice.

Este enfoque híbrido podría abrir más debates e investigaciones en la comunidad de modelado, pero sólo el tiempo dirá si es adoptado por los modeladores de todo el mundo, dice.

“Es un buen paso en la dirección correcta y es el tipo de investigación que deberíamos estar haciendo. Es fantástico ver todos estos métodos alternativos sobre la mesa”.

Fuente: Nature

 

Leave a Reply

Your email address will not be published. Required fields are marked *