Abbe (1901) y Bjerknes (1904) propusieron que las leyes de la física se podrían usar para pronosticar el tiempo. Los avances científicos y tecnológicos permiten pronosticar a 6 días con la misma precisión que a 5 días hace diez años o a 4 días hace 20 años. Richardson (1922) propuso la predicción numérica del tiempo: resolver mediante ordenador las ecuaciones de Navier-Stokes (incluyendo el efecto de la rotación de la Tierra) junto a las leyes de la termodinámica para los gases ideales para pronosticar los cambios espaciotemporales del viento, presión, densidad y temperatura de la atmósfera.
Charney, Fjoertoft, von Neumann (1950) usaron por primera vez un ordenador en Princeton para post-predecir el tiempo y Bolin (1955) lo usó en Estocolmo para predecirlo. Pero fueron necesarios los supercomputadores de la década de los 1970 para que las predicciones numéricas fueran fiables. Hoy en día se usa una jerarquía de muchos modelos acoplados con diferente nivel de complejidad que cubren las proyecciones globales del clima, la predicción meteorológica mundial y la modelización de área local para la predicción meteorológica de alta fiabilidad.
Nos lo cuenta el artículo de revisión (review) de Peter Bauer, Alan Thorpe, Gilbert Brunet, “The quiet revolution of numerical weather prediction,” Nature 525: 47–55, 03 Sep 2015, doi: 10.1038/nature14956.
Esta figura muestra la mejora en el acierto de la predicción (forecast skill) a tres días (azul), cinco días (rojo), siete días (amarillo) y diez días (gris) tanto en el hemisferio norte (curva más oscura superior) como en el hemisferio sur (curva más clara inferior). Se mide el porcentaje de acierto comparando la predicción con la observaciones atmosféricas a una altura de 500-hPa (hectopascales). Los valores superiores al 60% se consideran predicciones útiles y los superiores al 80% son de muy alta precisión. En estas mejoras no sólo han influido los avances en supercomputación y modelado atmosférico, sino también la mejora en la calidad de los datos obtenidos gracias a la cobertura mediante satélites meteorológicos.
La figura que abre esta entrada resume los procesos físicos más importantes que hoy en día se incorporan en los modelos de predicción numérica. Muchos de estos procesos no se pueden resolver en detalle (pues se requiere llegar a escalas moleculares), pero se incorporan de forma aproximada mediante correlaciones. Estas mejoran conforme lo hace nuestra comprensión en detalle de los procesos físicos.
Uno de los grandes avances ha sido el uso de técnicas de predicción por conjuntos (ensemble forecast). Poincaré (1914) reconoció que las predicciones precisas en sistemas no lineales son casi imposibles por el hoy llamado efecto mariposa: pequeñas perturbaciones en las condiciones iniciales tienen un enorme impacto en las predicciones a largo tiempo. Thompson (1957) realizó las primeras estimaciones cuantitativas del crecimiento de los errores iniciales durante el pronóstico. Pero todo el mundo recuerda a Lorenz (1963) que introdujo el efecto mariposa y ofreció una comprensión holística del problema, lo que hoy llamamos teoría del caos (determinista). Predecir el tiempo meteorológico más allá de 15 días parecía una empresa imposible de abordar.
La solución práctica han sido los modelos de conjuntos. Las observaciones tienen cierto rango de incertidumbre (que depende del tipo de medida). Dentro de ese rango se construye un conjunto de condiciones iniciales perturbadas de forma aleatoria que se hace evolucionar de forma independiente. Las primeras estimaciones se obtienen interpretando las tendencias observadas en el conjunto de todas las soluciones. Conforme se van obteniendo nuevos datos se descartan las soluciones que se desvían demasiado y se reinician los modelos.
Aplicando una técnica estadística de agregación de resultados se obtiene una única predicción probabilística de consenso, de gran robustez y de gran precisión, incluso a muchos días vista. Más aún, usando métodos estadísticos bayesianos (que calculan probabilidades a posteriori a partir de las probabilidades a priori) los modelos están sometidos a un proceso constante de autocorrección conforme se recaban nuevas observaciones. En los modelos de conjuntos también se usan técnicas de la teoría de control óptimo que permiten minimizar la incertidumbre.
La predicción numérica del tiempo tiene una gran ventaja respecto a las demás disciplinas científicas: sus resultados son evaluados de forma objetiva y diaria en todo el mundo. Por ello el éxito o el fracaso de los pronósticos se conoce con precisión y se pueden evaluar en tiempo real todas las mejoras en los modelos. Cada día se recaban unos diez millones de observaciones que se usan para las condiciones iniciales para los modelos. En el Centro Europeo de Previsiones Meteorológicas a Medio Plazo (ECMWF por European Centre for Medium-Range Weather Forecasts) se calcula una nueva predicción cada 12 horas usando una malla tetradimensional de 650 millones de nodos con una resolución espacial máxima de 16 km y un paso de tiempo de 10 minutos sobre un periodo de 10 días (1440 pasos de tiempo). Las simulaciones ensemble para 50 condiciones iniciales con una resolución máxima entre 30 y 60 km y pasos de tiempo de 30 minutos se usan para predecir en intervalos entre 15 y 30 días.
La evolución de la meteorología ha estado ligada a la de la informática de alto rendimiento y a la de los sistemas de observación usando satélites. Aún hay muchos retos científicos y tecnológicos que resolver para alcanzar en un futuro resoluciones en espacio de un kilómetro y en tiempo de un minuto (cruciales para una correcta descripción de la convección en la atmósfera). Hay mucho que estudiar en el tratamiento de las incertidumbres inherentes a los modelos que promedian la física y la parametrizan (por ejemplo, para el modelado de las plumas convectivas que requieren escalas menores de 1 km). También en los procesos químicos y físicos relacionados con el acoplamiento entre la atmósfera y el océano, la superficie de la tierra y el hielo (terrestre y marino).
También hay retos tecnológicos. Hoy en día se usan los supercomputadores que se encuentran en el top 20 de los 500 sistemás más potentes y que son capaces de ejecutar operaciones en el régimen de los petaflops (mil billones de operaciones en punto flotante por segundo). El futuro de la meteorología numérica requiere que la ley de Moore se siga cumpliendo en las próximas décadas, algo que muchos consideran poco razonable. Habrá que buscar alternativas como la computación masivamente paralela (al ritmo actual, en diez años habría que usar sistemas con cerca de un millón de procesadores). El consumo energético de los supercomputadores será uno de los factores que limiten los progresos.
La revolución silenciosa de la predicción numérica del tiempo ha requerido una combinación científica, observacional y tecnológica cuya continuidad supone grandes desafíos. Retos científicos y tecnológicos interdisciplinares e interdependientes. Si tienes acceso, te recomiendo la lectura del artículo de revisión que ha aparecido en Nature, porque la predicción numérica del tiempo es un tema que nos afecta a todos, todos los días.