Les changements climatiques passés permettent de connaître
ceux à venir, estiment des scientifiques européens qui travaillant sur
un projet de simulation. Les données collectées pour analyse sont
stockées dans une base de données sous Linux de 400 téraoctets.
Comprendre l'avenir du climat en étudiant les changements qui
se sont produits dans le passé : c'est l'idée du projet scientifique de
grande envergure lancé par l'Union européenne pour lutter contre le
réchauffement climatique. L'objectif est d'aider les gouvernements à
prendre des décisions à la lumière de résultats considérés comme
fiables.
Les travaux ont lieu au Max Planck Institute for Meteorology,
basé à Hambourg (Allemagne), auquel participent des scientifiques de
tous les pays. Ils utilisent un outil de modélisation, baptisé
Millennium Simulations, qui retrace les changements climatiques qui ont
eu lieu au cours du millénaire écoulé, et fait des prévisions pour les
cent prochaines années ou plus.
Une multitude de facteurs sont pris en compte : l'impact de
l'activité humaine - empreinte écologique humaine, cultures,
déforestation ou brûlis par exemple - et les phénomènes naturels,
notamment volcaniques. L'outil de simulations contient des modèles pour
l'atmosphère, les océans, la surface de la planète et la biogéochimie
marine.
Déjà 50 téraoctets de données obtenus...
Pour décortiquer les résultats obtenus par les modélisations et
simulations, des scientifiques de toute l'Europe exploitent Géant2, un
réseau de réseaux nationaux reliant universités et centres de recherche
dans toute l'Europe. Géant2 est également exploité par les
scientifiques travaillant sur le LHC du Cern, le plus grand accélérateur de particules au monde.
A ce stade, les simulations ont déjà produit plus de 50
téraoctets (To) de données, indique Reinhard Budich, responsable projet
au Max Planck Institute for Meteorology. « Une des simulation que nous
faisons, sur une période de 1000 ans, a livré environ 2,5 To de données
que nous nous partageons, pour les analyser. Or nous n'en faisons pas
qu'une, plusieurs étant nécessaires pour réaliser différentes
modélisations selon différents critères de changement climatique ».
...stockés dans la plus grande base Linux au monde
L'ensemble des données générées par Millennium Simulations est
stocké au World Datacentre for Climate, lui aussi situé à Hambourg au
German Climate Computing Centre. Cette base de données, qui représente
pas moins de 400 To, est la plus grande base au monde sous Linux. Avec
une vitesse de transfert entre ce centre et le Max Planck
Institute de 655 Mb/s théoriques. « Nous ne pouvons pas nous permettre
mieux, car c'est une question de coûts », ajoute Reinhard Budich.
En effet, l'urgence de décisions pour lutter contre le
réchauffement pâtit de freins techniques. « Les chercheurs doivent
partager la bande passante. Nous sommes 400 utilisateurs enregistrés
rien que dans notre centre, alors le transfert en pâtit, variant selon
l'heure, l'usage qui en est fait etc. Dans l'idéal, il faudrait pouvoir
réserver de la bande passante pour une application, avec un créneau
horaire et une quantité de données définis ».
Le projet a également besoin d'améliorations au niveau de la
récupération de données, qui peut prendre des heures. « Une grande
partie des données est stockée sur bande car nous n'avons pas assez
d'espace disque. Les données les fréquemment sollicitées pour analyse
sont donc conservées sur disque, l'autre support étant privilégié pour
les données les moins demandées ».
Les résultats seront autant d'informations pour produire le
rapport du Intergovernmental Panel on Climate Change, organe qui
éclaire les gouvernements sur les décisions à prendre concernant
l'environnement. Elles sont aussi une mine d'or pour les scientifiques,
météorologistes et historiens.
Avec Béatrice Gay, ZDNet.fr
Par Jo Best, Silicon.com
Source ZDNet