Domingo, 9 de Noviembre de 2008

Datos del pasado para predecir el cambio climático

Los físicos utilizan superordenadores en el proyecto EC-Earth

VÍCTOR CHARNECO ·09/11/2008 - 22:00h

El ordenador barcelonés 'Mare Nostrum' es de los más potentes de Europa. POWER

Regresar al pasado para llegar al futuro. Este procedimiento, aparentemente contradictorio, es la herramienta de los físicos que trabajan en la creación de los modelos climáticos y se esfuerzan en superar la ciencia descriptiva para anticipar el comportamiento atmosférico. Para lograrlo, necesitan todos los datos pasados y presentes disponibles y la extraordinaria capacidad de computación de sus superordenadores.

El director de la División de Clima Global del Real Instituto Meteorológico de los Países Bajos (KNMI) y responsable del proyecto EC-Earth, Wilco Hazeleger, explica que el clima "tiene tantas mutaciones internas que es preciso recoger mucha información para estar seguros de que lo que se está produciendo es un cambio motivado por la acción del hombre, y no un proceso de orden natural". La correcta delimitación de los efectos de la acción humana será la que permita adoptar medidas de corrección adecuadas.

Los científicos encargados de la elaboración de modelos computacionales del clima trabajan en la captación de datos, posteriormente enjuiciados a través de leyes físicas con dos fines principales: tomar decisiones de ámbito global para actuar sobre el calentamiento global y poder anticipar las consecuencias regionales sobre actividades esenciales para el hombre, como la agricultura, el comportamiento de la tierra o la salud. La herramienta básica, por tanto, "son fórmulas físicas en las que se introducen nuevos factores, como la radiación, la termodinámica o los gases de efecto invernadero", explica el investigador.

Para conseguir que esos cálculos se lleven a cabo son precisos unos superordenadores con gran capacidad de computación. En Barcelona existe uno de los más potentes de Europa, el Mare Nostrum. El director del Área de Ciencias de la Tierra de este centro, José María Baldasano, explica que la capacidad de rendimiento de estas máquinas se mide en FLOPS (operaciones en coma flotante por segundo) y que el instalado en Barcelona cuenta con una potencia de 94 teraFLOPS y 10240 procesadores, lo que le lleva a ejecutar "en siete días una simulación que un ordenador normal tardaría 48 años en terminar".

Mayor precisión

El panorama es bueno, además, porque existen vías de mejora para estas modelizaciones climáticas. De un lado, explica Baldasano, "es necesaria una mayor regionalización de los datos. Al principio se estudiaba el clima con una resolución de malla de 500 kilómetros por cuadrícula y ahora estamos en una cantidad de 110 kilómetros por unidad de estudio. Esto nos permite ser más precisos en la proyección final". Y también, completa Hazeleger, es esencial compartir recursos y contenidos; en el programa EC-Earth, que él dirige, veinte institutos de investigación han estudiado "dos millones de líneas de software, muy lejos de las 10.000 que podría manejar una única persona".

"Los modelos tienen la capacidad de reproducir lo que ha pasado, por eso son fiables para anticipar lo que vendrá más adelante", explica Baldasano. ¿Y qué será? "Un incremento de la temperatura media de 2,4 grados si no se reducen al 50% las emisiones de gases de efecto invernadero y aerosoles actuales", confirma.

Noticias Relacionadas

Publicidad

Publicidad

Publicidad

Publicidad