Le potentiel climatique
En 1996, les climatologues Denis Lamarre et Pierre Pagney ont proposé la notion de « potentiel climatique » pour définir la manière avec laquelle une société, à une époque donnée, se représente les contraintes et les ressources d’un climat[1].
Cette notion englobe ce qu’il est possible et impossible de faire dans un climat à un moment donné. L’amplitude annuelle des températures, l’ensoleillement, la violence du vent ou le régime des précipitations participent à la définition du potentiel climatique d’une région qui évolue au cours du temps. Tous ces facteurs interviennent plus ou moins clairement dans l’image populaire de certains climats (climat doux et ensoleillé du sud de la France, climat pluvieux de la Côte atlantique, etc.).
En modifiant inconsciemment ou consciemment le climat à l’échelle locale ou régionale, mais aussi en produisant des instruments pour comprendre le climat qu’elle habite, une société transforme par là même sa perception du potentiel climatique. L’invention ou le développement de certaines techniques bouleverse également cette perception. Par exemple, l’introduction du moulin à vent en Europe au XIIe siècle a profondément modifié le potentiel climatique de nombreux climats, des côtes de la mer du Nord au pourtour méditerranéen. Des climats venteux souvent désagréables à habiter devenaient économiquement intéressants car ils pouvaient fournir une énergie intermittente, mais directement utilisable pendant de longues périodes. Avec ce type de technique, le climat devient une ressource.
Cette notion de « potentiel climatique » n’est plus guère utilisée que dans les vieux manuels de climatologie. Pourtant, son importance paraît cruciale à l’époque du changement climatique. Car s’il est avéré depuis plusieurs décennies que les activités humaines produisent un réchauffement à l’échelle globale, l’identification du potentiel climatique à l’échelle régionale ou locale reste approximative. À nos latitudes, on sait entre autres que le régime des précipitations va être bouleversé, que les vagues de chaleur vont se multiplier et que les phénomènes climatiques extrêmes (inondations, tempêtes, etc.) risquent de s’amplifier. Mais par-delà ces contraintes évidentes aux conséquences parfois dramatiques pour la vie, l’utilisation des possibilités de nos climats est-elle planifiée à l’échelle locale ?
L’eau et la gestion des précipitations à l’échelle régionale sont actuellement au cœur de nombreux débats (méga-bassines, imperméabilisation des sols, etc.). Ces débats mobilisent des études hydrogéologiques et climatiques approfondies sur le sujet, qui présentent des résultats divergents. Mis à part cette exception, l’étude du potentiel climatique actuel et futur reste souvent partielle ou très générale. Elle se cantonne généralement à l’analyse des possibilités d’utilisation des énergies renouvelables (solaire photovoltaïque, énergie éolienne) et éventuellement son évolution sous l’action du changement climatique. Par exemple, une étude publiée en 2021 mettait en évidence une baisse à long terme de la ressource éolienne d’environ 15 % en Europe dans le scénario le plus pessimiste du GIEC (SSP5-8.5) avec une forte incertitude en ce qui concerne la France[2].
Le cas du « gisement solaire »
Dans le domaine de l’énergie solaire, l’évaluation de l’ensoleillement en vue de son utilisation pour des usages énergétiques est cependant loin d’être récente. Le choix des parcelles agricoles en fonction de l’exposition et la sélection des espèces adaptées au climat local (résistance au gel, au sec, etc.) est indissociable de la naissance de l’agriculture. Le développement des outils de mesure de l’ensoleillement, de l’héliothermomètre d’Horace Bénédicte de Saussure au XVIIIe siècle jusqu’aux pyrhéliomètres et aux pyranomètres plus récents, ont permis de quantifier l’intensité du rayonnement solaire à l’échelle locale puis à l’échelle nationale au début du XXe siècle. C’est sur la base de ces observations qu’un géographe comme Maximilien Sorre pouvait affirmer en 1943 qu’en ce qui concerne l’utilisation directe de l’énergie solaire « les climats subtropicaux du type méditerranéen (Méditerranée, Chili, Californie) présentent les conditions les plus favorables[3] ».
L’évaluation du potentiel d’utilisation de l’énergie solaire s’est surtout développée au sortir de la Seconde Guerre mondiale. En 1950, le climatologue américain Paul Siple publie l’une des premières cartes synthétiques qui montrent la « faisabilité maximum », la « faisabilité possible » et la « faisabilité minimum » pour l’utilisation de l’énergie solaire aux États-Unis. Après les pénuries occasionnées par la guerre, l’énergie solaire est présentée comme la « houille d’or de l’avenir[4] », selon une expression de Félix Trombe. Cet ingénieur français a expérimenté de nombreuses applications de l’énergie solaire entre les années 1950 et 1970 : il est notamment connu pour avoir inventé le « mur Trombe », un système conçu pour accumuler et stocker l’énergie solaire pour le chauffage des habitations. À cette période, l’utilisation directe de l’énergie solaire sous forme thermique puis photovoltaïque apparaît comme une alternative aux énergies fossiles, dont l’épuisement préfiguré par les pénuries est déjà annoncé par certains ingénieurs.
Les recherches sur le potentiel solaire se multiplient après le premier choc pétrolier aux États-Unis et en Europe. En 1976, le météorologue français Christian Perrin de Brichambaut publie des cartographies qui montrent la répartition de ce qu’il nomme le « gisement solaire » en France. Elles mettent en évidence l’inégale répartition du potentiel d’utilisation de l’énergie solaire dans le territoire métropolitain. On peut notamment y lire que la quantité moyenne d’énergie solaire reçue quotidiennement durant le mois de janvier par une même surface verticale orientée au sud est trois fois plus importante dans l’extrême sud de la France que dans le nord-est, alors qu’elle est quasiment égale durant le mois de juillet. À la lecture de ces cartes, il apparaît que le gisement solaire du sud de la France permet d’assurer la majorité des besoins de chauffage d’une construction bien conçue et orientée.
Ce détour historique montre qu’en ce qui concerne le potentiel climatique des énergies renouvelables, et notamment de l’énergie solaire, nous commençons donc tout juste à rattraper le retard accumulé après le contre-choc pétrolier du milieu des années 1980. Cette période a été marquée par un abandon quasiment généralisé de toutes les recherches sur la conversion de l’énergie solaire en France. Aujourd’hui, certaines utilisations directes de l’énergie solaire restent malheureusement sous-exploitées (eau chaude solaire, chauffage passif, etc.), mais nombre de ces recherches ont été reprises. La baisse des coûts de fabrication des éléments semi-conducteurs a considérablement démocratisé le recours aux systèmes photovoltaïques et l’évaluation du potentiel solaire d’un site est désormais très facilement réalisable. Des Systèmes d’information géographiques (GIS) en ligne développés par l’Union européenne permettent de consulter des cartes de l’ensoleillement et d’évaluer le rendement d’un système.
Le potentiel climatique pour rafraîchir naturellement
Cependant, on aurait tort de croire que le potentiel climatique d’un lieu ou d’une région se résume au seul gisement solaire ou à sa ressource éolienne. Cette notion inclut l’ensemble des contraintes et des ressources associées à un climat et ne se limite pas aux seules possibilités de production d’énergie électrique. Les pratiques agricoles, le tourisme et l’urbanisme des villes par exemple dépendent aussi d’un certain potentiel climatique local ou régional. Cependant, il reste généralement largement ignoré : en architecture et en urbanisme par exemple, la normalisation des besoins et des techniques à l’échelle nationale ou globale impose souvent les mêmes solutions indépendamment des spécificités climatiques locales.
Cette idéologie uniformisante issue de la modernité montre aujourd’hui ses limites. Nous ne pouvons pas traiter le climat comme une simple composante de l’environnement. Le changement climatique nous rappelle qu’un climat détermine les conditions de possibilité et d’impossibilité de nombreuses activités humaines. À nos latitudes, souvent présentées comme épargnées par les phénomènes extrêmes, l’évolution climatique actuelle crée de plus en plus de pression sur certaines de ces activités (agriculture, construction, loisirs, etc.).
En ce sens, l’évaluation du potentiel climatique revêt un caractère urgent qui englobe la mise en place de stratégies d’adaptation au changement climatique. Le potentiel climatique d’un lieu va dépendre de tous les paramètres qui caractérisent son climat local : l’amplitude des températures, l’hygrométrie ou le type de couverture nuageuse ont notamment un rôle fondamental. Tous ces facteurs déterminent notamment le potentiel climatique du rafraîchissement urbain, qui est devenu un enjeu de santé publique majeur depuis la canicule de 2003 en France, qui a causé environ 15 000 décès.
Les possibilités de rafraîchissement nocturne en cas de vague de chaleur sont très inégales en fonction des types de climats. Par exemple, la différence entre la température la plus faible et la plus élevée d’une journée (amplitude nycthémérale) a un rôle primordial. Cette amplitude varie considérablement entre un climat continental et un climat côtier : en première approximation, elle est élevée pour un climat continental et plus faible pour un climat côtier. Ainsi, pour un climat côtier et en l’absence de brises, les températures nocturnes durant les mois les plus chauds peuvent rester élevées et dégradent le confort thermique à l’intérieur des constructions, donc le sommeil et le repos de leurs habitants. On peut en déduire que le potentiel climatique pour le rafraîchissement nocturne des constructions est très inégal entre ces deux types de climats, toutes choses égales par ailleurs.
En ce qui concerne la lutte contre les vagues de chaleur, les canicules, ou l’effet de l’îlot de chaleur urbain, il est clair que l’évaluation du potentiel climatique pour lutter contre les conséquences de ces phénomènes aux impacts sanitaires souvent dramatiques n’en est qu’à ses balbutiements. Les principales agglomérations commencent à peine à prendre conscience des répercussions du phénomène d’îlot de chaleur qui est connu des météorologues depuis au moins un siècle, mais qui restait, il est vrai, mal compris jusqu’à présent. On connaît désormais l’ensemble des facteurs qui interviennent dans ce phénomène (imperméabilisation des surfaces, faible albédo, etc.), mais les stratégies mises en place pour diminuer leurs effets restent souvent assez timides.
Ce qui frappe est surtout le fait que les possibilités des climats locaux pour la climatisation naturelle des constructions restent globalement sous-évaluées. L’utilisation du rafraîchissement radiatif, des puits de fraîcheur ou du tirage thermique pour ventiler à partir de l’air puisé en sous-sol n’est que très rarement évaluée à l’échelle d’une agglomération. Les travaux de recherche sur le sujet, pourtant très développés dans la seconde moitié du XXe siècle[5], peinent à trouver des applications aujourd’hui. En ce qui concerne plus globalement la ventilation naturelle des bâtiments, récemment mise à l’honneur lors d’une exposition regroupant les principales réalisations françaises, elle n’est que très rarement évaluée à l’échelle urbaine.
Certains potentiels climatiques sont aujourd’hui complètement ignorés. C’est notamment le cas du rafraîchissement radiatif, qui n’est étudié que dans certains laboratoires de recherche spécialisés. Cette technique consiste à refroidir la toiture horizontale d’une construction recouverte d’un matériau adéquat par rayonnement de grande longueur d’onde vers la voûte céleste. Ce phénomène, naturellement à l’œuvre dans de nombreux climats désertiques ou d’altitude, est exploité dans l’architecture vernaculaire de plusieurs pays (Grèce, Israël, etc.) et était même utilisé pour fabriquer de la glace dans les zones désertiques (murs à glace d’Iran ou d’Irak).
Une équipe de chercheurs de l’Université de Lérida en Espagne a montré dans une étude publiée en 2021 que le potentiel climatique pour utiliser ce phénomène à des fins de rafraîchissement des constructions était important dans le sud de l’Europe, particulièrement dans le pourtour méditerranéen[6] (Espagne, Grèce, etc.). Dans ce type de climat pourtant marqué par des températures estivales très élevées, il est donc en théorie possible de climatiser naturellement une construction bien isolée de plain-pied par rafraîchissement radiatif. Malgré ses nombreuses utilisations passées, ce potentiel climatique pourtant fondamental reste localement inconnu et largement inutilisé.
Concevoir à partir du potentiel climatique aujourd’hui
L’évaluation du potentiel climatique pour répondre aux problèmes de rafraîchissement des villes paraît donc urgente. La connaissance des vents et des brises pendant les périodes de fortes chaleurs pour la ventilation naturelle, l’évaluation du potentiel de rafraîchissement radiatif ou l’étude de la disponibilité en eau pour l’évapotranspiration des végétaux sont autant d’éléments à caractériser pour définir le potentiel climatique à l’échelle d’une agglomération, afin de mettre en place des stratégies de rafraîchissement. En France, seuls quelques bureaux d’études sont en mesure d’expertiser les climats urbains et ils ne peuvent pas couvrir l’ensemble des paramètres qui caractérisent le potentiel climatique d’une ville car ils nécessitent une expertise pluridisciplinaire (thermique, biologie végétale, écologie, hydrologie, etc.). Une autre difficulté consiste à déduire des préconisations architecturales et urbaines concrètes sur la base de leurs diagnostics.
L’urbanisme n’est bien entendu pas la seule discipline concernée par l’évaluation du potentiel climatique. Cette évaluation intéresse aussi l’agriculture, qui est directement impactée par l’évolution climatique actuelle. Il existe même une discipline, l’agroclimatologie, dont l’objet est justement d’étudier les possibilités des climats pour des applications agricoles. Aujourd’hui, l’analyse de la sécheresse des sols sous l’effet de l’augmentation de la sécheresse atmosphérique et de l’évapotranspiration des plantes mobilise toutes les compétences des agroclimatologues. Le tourisme est aussi concerné par l’évaluation du potentiel climatique : l’avenir des stations de ski est gravement menacé à court ou à moyen terme. Les possibilités climatiques des régions montagneuses évoluent et les activités touristiques établies au XXe siècle n’y correspondent plus aujourd’hui.
Par-delà ses applications esquissées ici, l’étude du potentiel climatique paraît être un bon moyen de surmonter la sidération provoquée par le changement climatique global en cours. Selon le point de vue adopté dans cet article, il ne peut y avoir qu’une modification du potentiel climatique, c’est-à-dire une redistribution des contraintes et des ressources d’un climat à l’échelle locale ou régionale. Il ne s’agit pas de nier la gravité du changement climatique en cours ou de prétendre que nos sociétés industrielles pourront toujours s’adapter. La notion d’adaptation reste vague et doit être critiquée[7]. Développer l’étude du potentiel climatique consiste à reprendre conscience de l’importance des phénomènes climatiques à l’échelle locale et régionale, pour y mettre en place des stratégies appropriées le plus rapidement possible.
Tout cela est très concret : il existe des techniques, des systèmes et des dispositifs déjà mis en œuvre dans l’aménagement ou l’urbanisme vernaculaire de certains pays à des latitudes plus basses qui pourraient directement être transposés à nos latitudes. En ce qui concerne l’urbanisme, notre marge de progression est très importante et il existe une multitude de solutions relativement simples à mettre en œuvre pour améliorer nos villes et nos vies. Il ne tient qu’à nous d’explorer les possibilités climatiques présentes et futures, pour mettre en place des modes de vie plus en phase avec les climats dans lesquels nous vivons.