Les défis énergétiques pour un développement durable : comment éviter l’effondrement ?

par | 1 mars 2015

À moins d’une bifurcation profonde vers des économies de type circulaire, la perspective d’un effondrement des sociétés du Sud et d’une paupérisation durable de celles du Nord n’est plus à exclure : elle avait été envisagée dès 1972 par le rapport Meadows et, comme nous allons le voir, certains des arguments développés alors n’ont pas perdu de leur actualité aujourd’hui. Bien au contraire.

1 – Introduction

Dans son article intitulé « Energy and the Evolution of Culture » (1959), l’anthropologue américain Leslie A. White considérait l’énergie comme le moteur du déploiement des cultures et des civilisations. Dans son sillage, des géographes comme Smil (2008), et plusieurs historiens de l’économie — Wrigley (2010), Arnoux (2012) — soutiennent que l’énergie est un ingrédient essentiel de la croissance économique de la plupart des pays de l’Ancien Monde. Il ne fait guère de doute, en effet, que le charbon, surabondant en Angleterre au XVIIIe siècle, a joué un rôle pivot dans le déclenchement et le déroulement de la première Révolution Industrielle, tandis que le pétrole fut l’élément déterminant de la seconde, un siècle plus tard (Stern et Kander (2012)). Après tout, le « capital » (la terre, l’immobilier, un système bancaire performant) était déjà présent depuis de longues années en Europe. Quant au capital industriel qui verrait le jour dès la fin du XVIIIe siècle, son apparition n’a été rendue possible que grâce à l’exploitation des énergies fossiles.

Or les modèles macro-économiques conventionnels, supposés rendre compte de la croissance du PIB (e.g., Aghion et Hewitt (2009)), ne considèrent pas l’énergie comme un facteur significatif de croissance économique. Pourtant, le progrès technique, qui complète habituellement la contribution du capital et du travail, pourrait bien n’être guère qu’un nom d’emprunt qui dissimule en grande partie les ressources naturelles « oubliées » dans la plupart de nos modèles macro-économiques. L’introduction de la « productivité totale des facteurs » par Robert Solow (1956) dans la fonction de production traditionnelle de type Cobb-Douglas avait pour but, en effet, d’expliciter le « résidu » (40 % tout de même) de croissance nord-américaine que le couple capital-travail échoue à expliquer. En réalité, la croissance des États-Unis durant les Trente Glorieuses correspond très exactement à celle d’une exponentielle, et le « progrès technique » a simplement permis de calibrer le modèle macro-économique de Solow en l’ajustant à cette exponentielle. Comme son auteur l’a lui-même reconnu, pareille opération laissait cependant « inexpliqué le principal facteur de la croissance économique » (Solow (1994)). La réplication de l’exercice de Solow en introduisant l’énergie permet d’éliminer la quasi-totalité du résidu de Solow (cf. Kümmel (2011), p. 180-212).

Quels enseignements tirer, pour l’économie du développement, de l’explicitation du rôle de l’énergie et plus généralement, des ressources naturelles, dans la prospérité ? Après avoir rappelé pourquoi l’énergie contribue de manière bien plus significative à la croissance économique que ne le reconnaissent la plupart des approches conventionnelles en macro-économie, nous verrons, que ces enjeux sont d’autant plus cruciaux que plusieurs « signaux (plus ou moins) faibles » indiquent que le temps est compté, dans un certain nombre de pays du Sud, pour sortir de la pauvreté et se préparer à affronter les dégâts induits à la fois par la raréfaction des ressources naturelles et le dérèglement climatique. À moins d’une bifurcation profonde vers des économies de type circulaire, la perspective d’un effondrement des sociétés du Sud et d’une paupérisation durable de celles du Nord n’est plus à exclure : elle avait été envisagée dès 1972 par le rapport Meadows et, comme nous allons le voir, certains des arguments développés alors n’ont pas perdu de leur actualité aujourd’hui. Bien au contraire.

2 – L’énergie, facteur essentiel du développement

L’équation de Kaya fournit une manière simple d’avancer dans la réflexion au-delà de l’approche de Solow. Soit Y le PIB, N, la taille de la population, E la consommation en énergie primaire par tête. Il est clair que Y/N = (Y/E) × (E/N). Réécrite en termes de taux de croissance logarithmique, cette équation implique que la croissance du PIB per capita est toujours égale à celle de l’efficacité énergétique (i.e., du ratio Y/E) et de la consommation d’énergie par tête (E/N). Malgré sa nature tautologique, cette équation apporte un éclairage intéressant : sur la période 1965-1981, la croissance annuelle mondiale du PIB par tête fut en moyenne de 2,38 % par an. Elle peut se décomposer entre une hausse annuelle de 1,6 % de la consommation d’énergie primaire par tête et une hausse annuelle de 0,78 % de l’efficacité énergétique. Entre 1981 et 2013, cette égalité est devenue : 1,86 % = 0,5 % + 1,36 %. Alors qu’en 1985, le prix du baril est quasiment revenu au niveau qui était le sien avant le premier choc de 1973, les économies « avancées » n’ont jamais retrouvé les taux de croissance de consommation d’énergie primaire (et donc le taux de croissance tout court) qui prévalaient durant les Trente Glorieuses. Pourquoi ce fléchissement de la croissance ? Les modèles conventionnels sont incapables d’en rendre compte — ce qui n’est pas le moindre des paradoxes dans un contexte où nos sociétés, au Nord comme au Sud, ont fait de la croissance du PIB l’Arkhé dont toute recommandation de politique publique est supposée dépendre.

De fait, tant que le rôle décisif de l’énergie dans la croissance n’est pas reconnu, il est extrêmement difficile de s’expliquer les caprices de cette dernière. Dernier exemple en date : en 2015, d’après le World Economic Outlook du FMI, le PIB nominal mondial s’est contracté de -6 %. Ce qui revient à rayerl’économie japonaise de la carte mondiale. Et ceci, alors que nous n’avons connu aucun krach financier en 2015, aucun typhon majeur, aucun tremblement de terre dévastateur. Pourquoi, alors, cette contraction ? L’assemblée de printemps de la Banque Mondiale et du FMI, en avril 2016, a laissé transparaître la perplexité de la communauté des économistes. Tant que nous ne savons pas d’où vient la croissance, nous ne savons pas non plus ce qui peut fondamentalement lui faire obstacle.

Certains économistes considèrent explicitement l’énergie — et parfois, d’autres ressources matérielles — comme facteurs de production. Mais, le plus souvent, leur importance est minorée grâce à un argument d’équilibre (le cost share theorem) qui affirme que l’élasticité du PIB à la consommation d’énergie devrait être identique à la part de l’énergie dans le PIB. Comme cette dernière est très faible depuis 5 ou 6 décennies (elle oscille entre 5 et 14 %, avec une moyenne autour de 8 %), on en conclut généralement que l’influence de l’énergie sur la croissance du PIB est négligeable, comparée à celle du travail (dont l’élasticité est estimée à 70 % environ, dans les pays de l’OCDE) ou du capital (25 %). Pourtant, la part d’un facteur dans le PIB et l’élasticité de ce dernier par rapport à l’usage de ce facteur ne sont plus nécessairement égales dès que l’on introduit un troisième facteur qui n’est pas indépendant des deux premiers (cf. e.g., Ayres et Warr (2005), p. 16). Kümmel (2011, p. 212) obtient une élasticité moyenne de 0,37 pour le capital pour les pays de l’OCDE, 0,11 pour le travail peu qualifié, 0,52 pour l’énergie. Des résultats analogues ont été obtenus par Ayres et al. (2003) et Ayres et Warr (2005). À l’aide d’un modèle économétrique à correction d’erreur, Giraud et Kahraman (2014), toutefois, estiment une élasticité du PIB par rapport à la consommation d’énergie primaire pour une trentaine de pays sur les années 1970-2011 comprise entre 0,40 et 0,7 avec une moyenne autour de 0,6. Par ailleurs, ils obtiennent une causalité univoque de la croissance de la consommation d’énergie vers la croissance du PIB via des tests de Granger. Ce résultat confirme une large part de la littérature statistique dédiée à la causalité entre énergie et PIB (dans un contexte d’endogénéité évidente entre ces deux variables) et s’inscrit également dans le prolongement des estimations de l’élasticité du PIB par rapport à l’énergie menées, avec des méthodes différentes, par Acurio et al. (2015).

En d’autres termes, l’énergie est probablement le facteur de production le plus important pour l’essentiel des économies de l’OCDE et les grands émergents, et c’est bien la possibilité d’en accroître la consommation qui conditionne l’augmentation du PIB. Or le « pic de pétrole » conventionnel — c’est-à-dire la quantité maximale de pétrole produite en une année par les techniques conventionnelles d’extraction [1][1]Il va sans dire que le « pic de pétrole » (peak oil) n’a rien à… — a été atteint au niveau mondial en 2005, légèrement en dessous de 90 millions de barils/jour. N’étaient les techniques non conventionnelles d’extraction (fracturation hydraulique de la roche mère), l’économie-monde serait donc dans l’incapacité de faire croître son PIB, sinon en se libérant de la contrainte pétrolière grâce à la transition énergétique (c’est-à-dire en substituant d’autres ressources énergétiques au pétrole). Par ailleurs, avant de devenir nulle (une fois le plafond atteint), la productivité marginale des sites d’exploitation doit d’abord commencer par décroître. C’est ce qui est advenu à partir des années 1980 au niveau mondial (les grands puits des États-Unis atteignent leur pic en 1970 justement…). Ce ralentissement du flux de pétrole disponible, prélude à la stagnation enregistrée dès 2005, est probablement le meilleur candidat à l’explication du ralentissement de la croissance économique mondiale au cours des trente (dernières) « piteuses » années.

Pendant combien de temps les techniques non conventionnelles d’extraction de pétrole vont-elles permettre à l’économie-monde d’échapper au plafonnement ? Deux écoles s’opposent aujourd’hui, autour de cette question, au sein de la communauté des ingénieurs pétroliers : les « pessimistes » (du point de vue de la croissance, mais « optimistes » du point de vue du climat) estiment le « pic de pétrole » toute technique confondue pour le milieu de la décennie 2020 ; les « optimistes », pour 2050. Une chose est certaine : quelle que soit la date de ce plafonnement programmé, il ne permettra pas de contraindre nos économies à la vertu en termes d’émission de gaz à effet de serre. Le respect de l’Accord de Paris, signé en décembre 2015, nous oblige à des politiques volontaristes de réduction (et d’adaptation, j’y reviens dans un instant). Par ailleurs, quoi qu’il en soit, dans les deux cas, tant que les pays du Sud n’auront pas amorcé une transition vers des économies bas-carbone, elles resteront très vulnérables au plafonnement inévitable de la production d’or noir. Non seulement, les pays producteurs comme le Nigeria ou le Venezuela mais tous les pays importateurs dont, rappelons-le, la croissance est conditionnée par l’augmentation de la consommation d’énergie.

3 – La possibilité d’un effondrement

En 1972, le rapport remis au Club de Rome par l’équipe de Meadows (1972) [2][2]Limits to Growth, LTG dans la suite., a connu un succès de librairie considérable (10 millions d’exemplaires vendus). Au sein de la communauté des économistes, en revanche, il a reçu un accueil très sceptique, puis a été rapidement « oublié ». L’une des raisons légitimes de cette négligence tient au fait que le modèle World3 qui servit aux simulations de LTG ne contenait pas une seule équation « d’économie » mais uniquement des boucles de rétroaction liées aux ressources naturelles et aux puits d’absorption des déchets et des polluants associés à l’activité humaine. En 2008, pourtant, un physicien australien, Graham Turner (2008) publie une évaluation ex post de la fiabilité des scénarii envisagés par Meadows. Plus précisément, Turner compare l’ensemble des trajectoires associées à chacun des quelques dix scénarii étudiés par LTG avec celles que l’on observe effectivement durant les trois décennies qui le séparent de la publication de la première version du modèle World3. Or Turner obtient un accord très élevé entre deux familles de trajectoires et celles que l’économie-monde a effectivement suivies [3][3]Des confirmations analogues sont obtenues par Bardi (2011), Day…. Le premier enseignement à tirer de cette étude me semble être le suivant : alors que nous autres, économistes, sommes à la peine pour construire des modèles macro-économiques qui produisent des scénarii pertinents sur un horizon supérieur à deux ans, Meadows et son équipe ont construit un modèle qui reste valable, à l’échelle mondiale, sur une période de trois décennies. À ce simple titre, il mérite l’attention des économistes. Selon Turner, la raison du succès de World3 tient d’ailleurs au fait que sa calibration s’appuie sur des données d’origines extrêmement diverses, empruntées aussi bien à la paléo-climatologie qu’à la biologie, la démographie ou à la chimie. (Par contraste, la plupart de nos modèles macro-économiques puisent à une seule source, économique, capable d’exhiber des biais assez systématiques induits notamment par l’omniprésence de prix de marché dont le lien avec le réel est pour le moins ambigu.)

La seconde leçon à tirer du travail de Turner (2008) est plus inquiétante : les deux scénarii qui sont jusqu’à présent confirmés par les séries temporelles empiriques qui séparent les années 1970 de la fin de la décennie 2000 convergent tous deux vers un effondrement planétaire. Le premier, peu après 2020 ; le second, entre 2040 et 2050. La différence entre ces deux trajectoires se ramène plus ou moins au débat que j’ai évoqué supra entre les deux écoles qui, aujourd’hui encore, s’opposent au sein de la communauté des ingénieurs pétroliers. Ce qui est commun, en revanche, à ces deux récits, c’est qu’ils concluent à un effondrement dont les grandes étapes sont analogues : réduction de la production agricole, augmentation massive des investissements destinés à compenser la chute de la production, diminution consécutive des investissements dans les autres secteurs de l’économie-monde, baisse de la production industrielle et des services. Et, finalement, la course engagée entre les investissements et la chute de la production agricole serait perdue, dans l’un comme dans l’autre scénario, par l’investissement. L’effondrement de la production agricole provoquerait alors une baisse de la population active mondiale, laquelle accentuerait la baisse de la production, faute de main-d’œuvre suffisante, et précipiterait la chute de la production industrielle et des services.

Ces scénarii doivent pouvoir être testés à l’aide de modèles dynamiques incorporant une fonction d’investissement endogène, et autorisant l’endettement du secteur productif. En effet, l’une des limites de l’approche de Meadows est d’avoir considéré une économie mondiale exclusivement « réelle », où la production courante « finance » (implicitement) les investissements courants. En réalité, le secteur bancaire peut servir de relais entre les investissements d’aujourd’hui et les profits de demain, en prêtant aujourd’hui, la monnaie nécessaire aux premiers, gagés sur les seconds. C’est même fondamentalement le rôle du secteur bancaire moderne depuis sa naissance, quelque part en Vénétie, autour du XIIIe siècle. Inversement, le surendettement privé peut être la cause de krachs financiers dont la sévérité, à l’exemple de la crise des subprimes de 2007-2009, est susceptible de plonger l’ensemble de l’économie mondiale dans la déflation. (En témoignent les taux d’intérêt durablement négatifs qui émergent aujourd’hui des marchés internationaux.) L’institution de la dette et, plus globalement, la prise en compte de la monnaie, peut-elle permettre d’éviter la catastrophe ou, au contraire, la précipiter ?

Le modèle Gemmes [4][4]Modèle macro-économique stock-flow consistent, construit sur…, développé à l’Agence Française de Développement, est un bon candidat, parmi d’autres, pour tester cette hypothèse et mettre Meadows à l’épreuve. Bovari et al. (2016) fournissent de premiers éléments de réponse très suggestifs. En couplant une boucle de rétroaction climat semblable à celle de Nordhaus (2008, 2010) au modèle Gemmes, nous obtenons des résultats nuancés : si la démographie mondiale suit les projections du scénario médian de l’ONU, et tant que la productivité du travail continue de croître à l’échelle mondiale à un rythme soutenu (supérieur à 2 % par an), l’économie-monde semble capable d’éviter un effondrement induit par le réchauffement provoqué par la seule accumulation de CO2 dans l’atmosphère. Cela signifie que l’endettement joue alors son rôle : il permet à l’investissement de renforcer suffisamment le capital endommagé par le dérèglement climatique pour compenser ce dernier. En revanche, si la productivité du travail est elle-même affectée négativement par le réchauffement, à la manière de ce qui vient d’être mis en lumière par Zander et al.(2015) et Burke et al. (2015), alors, un effondrement planétaire est possible vers la fin du XXIe siècle, matérialisé par une explosion de la dette privée, une contraction violente du PIB mondial, suivie par une chute de la production agricole et, in fine, une baisse significative de la population. Un tel effondrement n’apparaît dans nos simulations qu’à la condition que les dégâts provoqués par le dérèglement climatique soient suffisamment importants (en un sens quantitatif précis).

Ce résultat oblige, bien évidemment, à ne plus se satisfaire de la grande incertitude qui règne aujourd’hui sur la mesure des dégâts climatiques. À cet égard, l’indicateur de vulnérabilité physique au changement climatique élaboré par Guillaumont (2013) est un outil précieux pour commencer à apprécier ces dégâts. Mais ce n’est pas ce genre d’outil qui sert aujourd’hui à apprécier l’impact climatique dans les modèles macro-économiques usuels, combinant climat et macro-économie. Jusqu’à présent, les économistes se sont contentés de fonctions de dommage abstraites, calibrées de manière ad hoc. Or, au sein même du GIEC, la communauté scientifique du climat proteste désormais contre ces raccourcis de modélisation : en finalisant ses travaux par des choix aussi arbitraires que décisifs, ne sèment-ils pas un doute préjudiciable sur l’ensemble de la démarche du GIEC ? Toute l’attention des économistes devrait être focalisée, dès lors, sur la mesure empirique des dégâts climatiques. Car de cette mesure dépend la fiabilité de scénarii prospectifs tels que ceux que dessinent Meadows ou Bovari et al. (2016). Et de cette fiabilité dépend l’agencement des ordres de priorité dans l’agenda international du développement. Pour le dire de manière lapidaire : si le monde court vers un désastre humanitaire avant la fin du siècle, il est urgent de placer en haut de l’agenda les moyens de l’éviter !

4 – La course au désastre ?

En attendant le verdict que peut rendre un modèle comme Gemmes, une fois les dégâts climatiques convenablement modélisés, il convient de souligner que l’hypothèse d’un effondrement des pays du Sud au cours des trois décennies à venir n’est nullement extravagante, malheureusement. Le dialogue entreingénieurs agronomes et climatologues, notamment, est particulièrement alarmiste, aujourd’hui, sur les dégâts que le dérèglement climatique est susceptible de provoquer au cours des années à venir [5][5]Pour une version spécifiquement « pessimiste » de ce débat, cf.…. Les éléments principaux de ce diagnostic sont bien connus mais méritent d’être rappelés.

Primo, la montée des eaux, provoquée par la fonte de la calotte arctique, du Groenland et de la calotte antarctique, implique que des zones actuellement utilisées pour la production agricole seront inondées. Outre les gigantesques déplacements de population que vont entraîner ces inondations, à commencer par le Bangladesh et les petits États insulaires, cela signifie que de nouvelles terres agricoles vont devoir être trouvées. Que l’on songe au Delta du Mékong, par exemple, pour prendre la mesure de la perte de production potentielle qui pourrait en résulter, et des investissements que cela nécessitera. Or la prise en compte de la fonte du versant ouest de la calotte antarctique implique que la montée du niveau des mers sera plus prononcée et plus rapide que ne l’avait envisagée le cinquième rapport du GIEC de 2013. Avec une augmentation de 2 m à la fin du siècle, même New York serait sous l’eau.

Secundo, la fonte des glaciers n’est pas qu’un crève-cœur pour les alpinistes suisses. Les glaciers sont, en effet, des réserves d’eau douce essentielles aux écosystèmes d’une bonne partie de la planète. Leur fonte accélérée sur le plateau du Tibet condamne trois grands fleuves à connaître des périodes de sécheresse d’ici environ une génération : le Yang-Tsé-Kiang en Chine, l’Indus et le Gange, au nord de l’Inde. Cela signifie que les systèmes d’irrigation qui dépendent de ces fleuves seront mis en péril et donc, de nouveau, la production agricole locale. Il en va de même avec les glaciers des sommets andins ; La Paz, en Bolivie, est déjà dans un désert à 4 000 m. Or 70 % des usages de l’eau sont agricoles, 18 % industriels et 12 % domestiques : les stress hydriques à venir auront donc avant tout des conséquences en termes de sécurité alimentaire.

Une réplique naïve aux remarques qui précèdent pourrait consister à faire valoir que les terres arables sont en quantité plus que suffisante pour nourrir 9 ou 10 milliards de personnes en 2050, même en tenant compte du manque à gagner induit par la montée des eaux et des territoires perdus faute d’irrigation. Cette arithmétique-là oublie cependant un fait essentiel : l’Éthiopie a déjà connu une famine d’une extrême gravité dans les années 1980 ; le sud du Tchad a connu jusqu’au début des années 2000 des famines au cours des périodes de soudure. Et ceci, alors que les surfaces cultivables étaient déjà amplement suffisantes pour nourrir les 5 puis 6 milliards d’individus présents sur Terre à cette époque. C’est donc — faut-il le rappeler ? — que le problème de la famine n’est pas d’abord un problème ricardien d’insuffisance de terres cultivables mais a partie liée avec l’inéquité de la distribution des récoltes. Et il y a peu de signes, au sein du commerce international contemporain, qui laissent augurer d’une amélioration sensible de la distribution des productions agricoles au sein de l’économie-monde. Les populations pauvres devront, aujourd’hui comme à l’avenir, assurer elles-mêmes leur subsistance et ne pourront guère compter que sur un appui temporaire de la communauté internationale. L’assèchement des fleuves qui alimentent l’irrigation du sud de la Chine et du nord de l’Inde promet donc bien de mettre en danger des centaines de millions d’individus.

Tertio, la désertification et l’érosion des sols (due à la fois au réchauffement et à l’excès de pâturage) agissent comme troisième facteur — sans doute faudrait-il, d’ailleurs, le mentionner en tête de liste dans la mesure où c’est probablement le facteur le plus grave de conséquences. Rappelons simplement que le désert de Gobi n’est plus qu’à 240 km de Pékin en 2015. Et que le Sahara progresse vers le sud d’environ 10 km par an. Autant de surfaces agricoles qui se perdent chaque année et autant de déplacements de population dantesques à prévoir. L’érosion des sols, elle, est provoquée par le surpâturage, l’assèchement et l’augmentation de la température. L’une des réponses possibles consiste à puiser l’eau au sein des ressources fossiles. C’est déjà ce que fait une ville comme Aman, qui puise son eau potable à 400 m sous le sol. Le procédé WatEx (Water Exploration), mis au point par l’ingénieur français Alain Gachet, constitue d’ailleurs sans doute la méthode la plus prometteuse d’identification des réserves d’eau fossile enfouies 300 ou 400 m sous la surface du sol. Reste que, quand bien même des réserves considérables d’eau potable pourraient être identifiées avec une fiabilité élevée dans le Sahel, cela ne signifie pas, malheureusement, que le problème de l’accès à l’eau douce peut être réglé facilement. En effet, puiser de l’eau à -400 m nécessite des infrastructures et donc des investissements aussi colossaux que pour puiser du pétrole. Quelles économies d’Afrique subsaharienne auront les finances publiques et la volonté politique de pratiquer de tels investissements ? La guerre civile qui ravage la Syrie depuis 2011 est la conséquence directe de la mauvaise gestion de l’eau par le gouvernement de Bachar al Assad au cours de la sécheresse qui a frappé le pays entre 2007 et 2010…

Quarto, le phosphore est aujourd’hui une composante essentielle et omniprésente de l’agriculture mondiale. Sans lui, le rendement agricole planétaire subirait une baisse significative et nous ne connaissons pas, à ce jour, de substitut au phosphore. Or le « pic de phosphate » est à prévoir autour de 2050. Ce qui, une fois encore, ne signifie pas qu’il n’y aura plus de phosphore dans le sous-sol terrestre mais que, très vraisemblablement, les efforts actuels pour augmenter le flux de phosphore extrait chaque année du sous-sol, deviendront vains avant le tournant du demi-siècle. Ce facteur aggravant implique que l’équation d’alimentation des 9 milliards de personnes vivant sur la planète en 2050 devra être résolue avec un apport au mieux constant du phosphate disponible.

Mis bout à bout, ces différents facteurs dessinent malheureusement un paysage qui rend parfaitement crédible le catastrophisme de Meadows, de Bardi (2014) ou de Bovari et al. (2016). Ce qui pose tout bonnement la question de la survie d’une partie des populations du Sud à l’horizon 2050, et n’en rend que plus urgent l’exploration macro-économique de ces trajectoires — à la fois pour en tester la robustesse à des comportements économiques d’investissement et de consommation que World3 ne modélise que de manière très fruste et exogène, et pour éclairer la possibilité de trajectoires alternatives qui permettraient d’éviter le désastre.

Le lien qui unit la possibilité de la catastrophe qu’on vient d’évoquer à l’énergie devrait être clair : la raréfaction de l’eau implique, dès aujourd’hui, des dépenses énergétiques exceptionnelles pour aller chercher l’eau dans des sources de plus en plus inaccessibles. En effet, 26 % de la ressource en eau utilisée dans le monde provient d’eaux souterraines, en particulier pour l’eau potable (dont elles représentent plus du tiers). Toutefois, alors que les eaux souterraines sont disponibles en quantités plusieurs dizaines de fois supérieures aux eaux de surface, elles ne constituent pas la première source d’approvisionnement pour des raisons de coût du pompage et de disponibilité de l’énergie. En bordure de mer, dessaler l’eau de mer coûte en moyenne 0,5€/m3 et 4kWh/m3, ce qui est considérable, et se heurtera inévitablement au plafonnement de la disponibilité énergétique. La meilleure solution pour faire face aux stress hydriques à venir reste donc souvent de ne pas polluer les eaux de surface en favorisant leur assainissement.

Par conséquent, tant que les pays du Sud n’auront pas réduit leur dépendance au carbone, et si le flux de pétrole disponible par unité de temps vient à plafonner au cours des années ou des décennies qui viennent, il est vraisemblable que nous ayons à faire face à des goulots d’étranglement extrêmement sévères. Ils le seront d’autant plus que, par ailleurs, la moindre densité des réserves de minerais que nous exploitons promet d’exiger, elle aussi, de plus en plus d’énergie. Le cuivre, par exemple, était très abondant à Chypre à l’époque antique (d’où le nom de cette île), mais les réserves qui en étaient exploitées dans le monde avaient une densité d’au mieux 5 % jusqu’à une date récente. Sachant qu’il y a, en moyenne, 50 kg de cuivre dans une voiture, cela signifiait qu’il fallait déblayer une tonne de terre transformée en déchet pour chaque voiture produite. Désormais, d’après Bardi (2014), il faudra 5 tonnes de terre et de roche. Pour un parc automobile mondial supérieur à un milliard de voitures, on mesure très vite les masses phénoménales de terre qui seront soulevées dans les années qui viennent, et auscultées avant d’être jetées sous forme de déchets. Et, surtout, l’énergie croissante qui sera rendue nécessaire par ce processus. Risquons-nous d’assister à un cercle vicieux entre l’énergie, les minerais et l’eau ? C’est, là encore, une question ouverte pour la recherche en économie. Question centrale s’il en est, et dont la réponse fournira sans doute un élément décisif dans l’instruction du dossier Meadows. Car, du côté de l’énergie, quelles que soient les incertitudes qui entourent la date exacte d’advenue du pic de pétrole mondial, les tendances du siècle passé sont lourdes : le rendement énergétique sur investissement énergétique (l’EROI, cf. Hall et al. (2009)) est en déclin dans presque tous les secteurs énergétiques (à l’exception, peut-être de l’énergie solaire, du fait des récents progrès qu’a connus cette technologie). Cela signifie qu’à l’avenir, il faudra dépenser de plus en plus d’énergie non seulement pour puiser l’eau qui nourrit l’humanité, mais aussi pour extraire les minerais qui fondent la société industrielle et pour extraire de l’énergie elle-même.

5 – Conclusion

Il est à peine besoin de signaler que, s’il fallait conclure à la justesse des prospectives suggérées par Meadows, même une fois la sphère économique proprement modélisée (et donc, sa faculté de réponse et d’adaptation à la déplétion des ressources non renouvelables), cela entraînerait une redéfinition complète du cadre de pensée dans lequel s’inscrivent aujourd’hui les Objectifs du Développement Durable, l’économie du développement, voire l’économie tout court. La mise en place d’économies circulaires construites sur le recyclage intensif de l’ensemble des ressources non renouvelables, en vue d’assurer la sécurité alimentaire des populations à venir, constituerait alors la priorité absolue de la communauté internationale. Cela ne signifie nullement que l’éducation et la promotion des femmes, par exemple, doivent être reléguées au second rang des priorités du développement. Car, sans une population éduquée capable de tirer profit de l’accès à l’énergie, l’efficacité économique de son utilisation promet d’être très décevante [6][6]« L’effet rebond » est ce phénomène par lequel, souvent, les…. Mais, inversement, sans énergie, même les populations les plus éduquées resteront désarmées. Par ailleurs, l’éducation des jeunes filles est certainement un moyen d’infléchir la courbe démographique galopante d’une région comme le Sahel.

En outre, la possibilité d’un effondrement au Sud et d’une décroissance contrainte au Nord, implique, par exemple, que le taux d’escompte avec lequel nous pratiquons l’analyse coût-bénéfice devrait être négatif. Ceci serait cohérent avec l’observation des taux de marché en 2015 et 2016, et apporterait une confirmation paradoxale au critère défendu par Bill Nordhaus dans le débat qui l’oppose à Nick Stern au sujet de la mesure de l’impact climatique [7][7]L’économiste américain reproche à l’ancien économiste en chef…. Paradoxale car Nordhaus plaidait jusqu’à une date récente pour une identification du taux d’escompte normatif avec le taux de marché dans l’espoir de justifier l’adoption d’un taux supérieur à celui que préconise Stern. Aujourd’hui, et si nous avons des arguments convaincants permettant d’anticiper une réduction durable du PIB réel à l’échelle mondiale, l’argument se retourne contre lui, au bénéfice de l’adoption de taux bien plus bas !

Notes

  • [1]Il va sans dire que le « pic de pétrole » (peak oil) n’a rien à voir avec l’épuisement des ressources pétrolifères de la planète. Il correspond au moment où il devient impossible d’augmenter davantage le flux d’huile noire extraite du sous-sol par unité de temps. Quand bien même nous réussirions à maintenir un plateau de flux de production mondiale (ce qui est évidemment impossible : compte tenu de la finitude des réserves), nous n’en aurions pas moins atteint le « pic ». Or, du point de vue de la croissance du PIB, c’est bien la croissance du flux de pétrole extrait qui importe.
  • [2]Limits to Growth, LTG dans la suite.
  • [3]Des confirmations analogues sont obtenues par Bardi (2011), Day et al. (2009), Hall and Day (2009).
  • [4]Modèle macro-économique stock-flow consistent, construit sur une dynamique non-linéaire du type Lotka-Volterra, intégrant les dettes privées et publiques, le chômage involontaire et une monnaie endogène non neutre.
  • [5]Pour une version spécifiquement « pessimiste » de ce débat, cf. Brown (2011).
  • [6]« L’effet rebond » est ce phénomène par lequel, souvent, les populations dilapident les gains économiques induits par l’accroissement de l’efficacité énergétique en augmentant leur consommation d’énergie.
  • [7]L’économiste américain reproche à l’ancien économiste en chef de la Banque Mondiale d’avoir adopté dans son rapport de 2006 un taux d’escompte sans lien avec les taux observés sur les marchés.

Lire l’article originel sur :

https://www.cairn.info/revue-d-economie-du-developpement-2015-3-page-5.htm


Crédit photo : Patrick Perkins on Unsplash


Partagez cet article sur vos réseaux sociaux !

À lire également :

12 mesures pour les candidats à la présidentielle

12 mesures pour les candidats à la présidentielle

Notre pays est traversé par des déchirures que le personnel politique entretient et ravive par clientélisme électoral. Que nous ne soyons pas d’accord entre nous sur l’avenir que nous appelons de nos vœux, c’est ce qui motive la démocratie. Mais qui, aujourd’hui,...

lire plus
12 mesures pour 2022 (intégral) – Gaël Giraud | Vidéo

12 mesures pour 2022 (intégral) – Gaël Giraud | Vidéo

Comme beaucoup de mes concitoyens, je suis préoccupé – le mot est faible - par le niveau du débat politique sur les sujets de fond dans notre pays. C’est un ressenti général, il y a bien sûr des exceptions, mais je constate que les grands sujets, importants pour le...

lire plus