La température devrait augmenter de façon plus importante que prévu dans les décennies à venir, d’après des scientifiques français qui ont présenté leurs travaux cette semaine. Pour le savoir, ils se sont appuyés sur de nouveaux modèles de simulation climatique complexes et gourmands en calcul.

Recul de la banquise, généralisation des épisodes caniculaires, précipitations plus rares mais aussi plus violentes localement, feux de forêts, assèchement de rivières, montée des eaux… le réchauffement climatique est en marche et va bouleverser notre vie quotidienne dans les décennies à venir. La mauvaise nouvelle, c’est qu’il devrait être plus important que prévu à l’horizon 2100, d’après des simulations françaises dont les résultats ont été présentés ce mardi 17 septembre conjointement par le CNRS, le CEA et Météo France. Sur les cinq scénarios avancés, quatre font état d’une augmentation de la température supérieure à deux degrés, soit bien au-dessus de l’objectif fixé en 2015 par l’accord de Paris. La perspective la plus noire se base même sur 6 à 7 degrés d’augmentation.

Les lois physiques et les effets de l’activité humaine sont traduits en équations

Ces résultats viendront nourrir avec d’autres travaux scientifiques le sixième rapport d’évaluation du GIEC (Groupe d’experts intergouvernemental sur l’évolution du climat) qui sera publié en 2021. Ils ont été obtenus grâce à deux nouveaux modèles de climat, développés de bout en bout, l’un par l’IPSL (Institut Pierre Simon Laplace) et, l’autre par le CNRM (Centre National de Recherches Météorologiques) associé au Cerfacs (Centre européen de recherche et de formation avancée en calcul scientifique). Il a fallu quatre ans de travail pour les peaufiner et effectuer les calculs. « On modélise le climat global depuis le début des années 90 environ. A l’IPSL, nous en sommes à la sixième génération de modèle », nous explique Marie-Alice Foujols, ingénieure de recherches au CNRS et ex-directrice adjointe de l’Institut Pierre-Simon Laplace, en charge du calcul intensif.

Modéliser le climat est une affaire complexe et minutieuse. Le système Terre est soumis à des lois physiques qui décrivent des variables d’état comme la température, l’humidité ou la pression. Mais il faut aussi tenir compte de ce qu’on appelle les « forçages ». Ils peuvent être naturels (soleil, volcanisme) ou anthropiques, c’est-à-dire du à l’activité humaine (émissions de gaz à effets de serre, modification des usages des sols). Toutes les évolutions de ces variables sont traduites en équations, numérisées, retranscrites en code informatique et constituent la base du modèle. Le niveau d’incidence de l’activité humaine n’est pas le même suivant le scénario utilisé pour décrire la période future. Il tient compte du contexte socio-économique, comme le degré de coopération entre les pays, le niveau d’éducation de la population, ou encore des efforts engagés ou non pour atteindre la neutralité carbone.

Un jeu de poupées russes

Il faut se livrer ensuite à un jeu qui ressemble aux poupées russes : découper en une multitude de cubes d’un maillage de 100 à 150 km, sur l’ensemble du globe, chaque composante à l’œuvre dans le climat : les océans, l’atmosphère, les surfaces continentales, la végétation, la glace de mer, la biogéochimie marine, etc.

Grâce aux équations établies préalablement, on va alors pouvoir lancer des programmes informatiques qui vont calculer pour des périodes de temps définies (pas de temps d’un quart d’heure, une ou plusieurs heures) toutes les variations. Et à la fin, il faut tout assembler.

On vous laisse imaginer la quantité phénoménale de données que cela brasse, ainsi que les temps de calcul et les besoins en termes de stockage ! « Une simulation de 100 ans s’étale sur une semaine, donc pour 1000 ans, c’est dix fois plus. Au final, nous avons obtenu 2 pétaoctets de données, 5 pétaoctets si l’on compte les résultats intermédiaires et 8 pour l’archivage. Mais nous fournissons des efforts constants pour réduire tout cela », témoigne Marie-Alice Foujols.

Des supercalculateurs à plein régime durant un an

Alors, évidemment, un banal ordinateur ne pourrait venir à bout d’une telle tâche. Il a fallu faire appel à des supercalculateurs qui ont travaillé non stop en parallélisme durant toute une année. « Lors de chaque simulation 1000 cœurs de calcul travaillaient parallèlement. Des pointes à 80 000 cœurs ont même été atteintes », détaille Sébastien Denvil, ingénieur de recherche à l’IPSL.

Cette nouvelle génération de modèles climatiques marque des progrès en termes de résolution spatiale et de compréhension des processus au niveau de l’atmosphère. Les scientifiques modélisent également mieux chacune des composantes. Mais il reste encore des améliorations à apporter, afin de fournir une plus haute résolution. Ce sera la clef pour obtenir des résultats précis et fiables localement.

Or, on manque encore d’informations sur certaines composantes, ce qui empêche le recours à de l’intelligence artificielle de type deep learning pour simuler les évolutions du climat. « On ne peut pas décrire les règles du climat comme on décrirait les règles du jeu de go. Un algorithme de deep learning aurait besoin d’accéder à un réseau d’observation d’extrêmement haute résolution en tous points de l’océan et de l’atmosphère, ce qui n’existe pas », souligne encore Sébastien Denvil.

Ainsi, la majeure partie des profondeurs des océans risquent de rester encore longtemps inaccessibles. Des campagnes d’observation en bateau, avion ou satellites vont toutefois être lancées, par exemple, pour mieux comprendre comment les nuages rétroagissent avec les changements climatiques. Et les calculs pourraient aussi profiter des progrès des GPU.

Tout cela requiert des ressources humaines et matérielles. Ce sera au pouvoir politique de les accorder en fonction de la priorité qu’il accordera aux enjeux climatiques.