Gonflement inconsidéré des objectifs européens en matière d’énergies renouvelables

Samuel Furfari Professeur de géopolitique de l’énergie

Les crises pétrolières de 1973 et 1979 ont conduit à la recherche d’alternatives aux produits pétroliers. C’est pourquoi la Commission européenne a financé pendant de nombreuses années le développement de nouvelles technologies pour la production d’énergies renouvelables. Le « programme de démonstration » (1979-1989) et le programme THERMIE (1990-1994) ont initié le développement de ces technologies. Ces programmes ont été progressivement intégrés dans les programmes-cadres de R&D pour la technologie, aujourd’hui connus sous le nom d’Horizon Europe.

Dès 1993, la Commission européenne a commencé à stimuler les sources d’énergie renouvelable par le biais de diverses politiques, en particulier le programme ALTENER. Son objectif était de doubler la part des énergies renouvelables de 4 % en 1991 à 8 % en 2005, de tripler la production d’électricité à partir de sources d’énergie renouvelable et de porter la part des biocarburants à 5 % de la consommation automobile. Il ne s’agissait pas de véritables objectifs, mais plutôt d’orientations.

En 1997, quelques jours avant la Conférence de Kyoto (COP-3), la Commission européenne a publié un « Livre blanc » qui mentionnait des « objectifs indicatifs comme ligne directrice pour doubler la part des énergies renouvelables dans la Communauté d’ici 2010 ». L’objectif était d’atteindre un taux de pénétration minimum de 12 % des sources d’énergie renouvelable dans l’UE d’ici 2010. Cependant, le Conseil européen a refusé de discuter de ces « objectifs indicatifs ». Il était trop tôt pour le faire. Comme la Commission européenne pouvait présenter des propositions budgétaires, elle a lancé en 1999 la « Campagne pour le décollage », un programme destiné à financer des projets de sensibilisation du public. Par la suite, le programme « Énergie intelligente-Europe » (2003-2006), un « programme non technologique », a été lancé pour renforcer les projets de sensibilisation du public, l’échange d’expériences et d’autres mesures douces visant à stimuler le déploiement des sources d’énergie renouvelable. Cette politique et diverses autres mesures ont démontré le dynamisme de la Commission européenne et du Parlement européen dans la promotion du déploiement des énergies renouvelables.

Malgré les progrès technologiques, les sources d’énergie renouvelables ont été lentes à entrer sur le marché, car elles ne sont guère rentables, contrairement à ce que l’on ne cesse de répéter. Bien que le coût de production aux terminaux des générateurs soit faible, elles finissent par augmenter le prix de l’électricité pour les consommateurs en raison de leur intermittence et de leur variabilité. C’est la raison pour laquelle, bien que la technologie était mature, la pénétration n’était pas au rendez-vous.

Après la ratification du protocole de Kyoto, il est devenu plus facile de justifier l’intervention de la législation c’est-à-dire de la contrainte réglementaire. En 2001, une première directive a été adoptée avec un objectif indicatif pour la seule production d’électricité. Cette directive demandait aux États membres d’adopter des objectifs indicatifs nationaux « compatibles avec l’objectif indicatif global de 12 % de la consommation nationale brute d’énergie en 2010 et, en particulier, avec la part indicative de 22,1 % d’électricité produite à partir de sources d’énergie renouvelables dans la consommation totale d’électricité de la Communauté en 2010 ».

Le secteur de l’électricité ne souhaitant pas perdre de l’argent en produisant une électricité coûteuse, les États membres ont été autorisés à soutenir financièrement la production d’énergie renouvelable par le biais de ce que la directive appelle des « régimes de soutien ».

La dynamique en faveur de l’économie verte s’est accélérée. Sous la forte impulsion de l’Allemagne (Angela Merkel), l’UE a approuvé en décembre 2008, sous la présidence française (Nicolas Sarkozy), un paquet énergie-climat comprenant l’abrogation de la directive de 2001 et l’adoption d’une autre directive introduisant des objectifs contraignants pour chaque État membre (publiée au Journal officiel en avril 2009 — directive 2009/28). L’objectif global était d’atteindre une part de 20 % d’énergies renouvelables dans le bouquet énergétique final en 2020. Les objectifs contraignants des États membres étaient basés sur une « méthodologie » qui tenait compte de la situation du pays. L’éventail des objectifs était très large, allant d’un minimum de 10 % pour Malte à un maximum de 49 % pour la Suède. La France et l’Espagne avaient une valeur moyenne de 20 %. De plus, l’électricité la plus chère devait bénéficier d’une priorité absolue pour être distribuée dans le réseau électrique de chaque État membre. La directive oblige également tous les États membres à atteindre une part de 10 % de consommation d’énergie renouvelable dans le secteur des transports.

Les négociateurs des pays d’Europe centrale et orientale ont accepté ces objectifs à contrecœur, en cédant sous la pression de l’Allemagne et de la France (« en 2020, nous ne serons plus là pour porter le chapeau » m’a-t-il été dit). Finalement, tous les États membres ont accepté les objectifs sans aucune modification.

Bien que ces objectifs fussent contraignants, la directive ne stipulait pas de sanctions pour les États membres qui n’atteignent pas leur objectif ; conformément à la pratique habituelle de l’UE, il appartiendra à la Cour de justice de l’Union européenne de statuer sur les sanctions — le cas échéant. Heureusement, car seule une poignée de pays a atteint l’objectif, l’Allemagne et la France échouant lamentablement.

Les États membres devaient diviser leur objectif global en trois sous-objectifs : la production d’électricité, de chaleur et de biocarburants. Les États membres devaient élaborer un « plan d’action national » décrivant en détail la manière dont ils allaient atteindre les objectifs. Pour donner une idée du niveau de détail exigé par la Commission européenne, le modèle contenait 29 pages A4 et 13 tableaux. Cela souligne la lourdeur de la bureaucratie administrative mise en place pour promouvoir les énergies renouvelables.

Notez que cet objectif de 20 % était accompagné de deux autres objectifs : une amélioration de 20 % de l’efficacité énergétique et une réduction de 20 % des émissions de CO₂, le tout à l’horizon 2020. Le slogan était donc 20, 20, 20 en 20 20. Il n’y avait là rien de scientifique, rien d’économiquement réaliste, mais simplement un slogan politique.

Après des années d’efforts, il est clair que l’électricité d’origine éolienne représentera 14 % de la production totale d’électricité dans l’UE en 2020, loin derrière l’énergie nucléaire, qui représente 25 %, et le gaz naturel, qui représente 21 %. Cependant, si ce chiffre de 14 % peut sembler intéressant, il ne dépasse pas 2,2 % lorsqu’il est ramené à l’énergie primaire. Si l’on ajoute les 0,7 % d’énergie solaire des PANNEAUX PHOTOVOLTAÏQUES, on arrive à 2,9 % d’énergie primaire. Pour la France, ce chiffre est de 1,6 %. Selon Bloomberg et l’Université de Francfort, cet objectif est atteint après avoir dépensé 689 milliards de dollars entre 2010 et mi-2019. J’estime que depuis 2000, plus de mille milliards (un million de millions) d’euros ont été dépensés dans l’UE pour des résultats qui, dans l’ensemble, sont négligeables. Tout ça pour ça !

Malgré le coût élevé, les progrès réalisés ont encouragé la Commission européenne à aller plus loin et à atteindre un objectif plus ambitieux en matière d’énergies renouvelables pour 2030. En préparation de la COP 21 à Paris, elle a proposé un objectif d’au moins 27 % à l’échelle de l’UE, qui a été approuvé par le Conseil européen en octobre 2014. Le 30 novembre 2016, la Commission européenne a formalisé cette décision politique dans un projet de proposition de directive. Cependant, le Conseil européen, c’est-à-dire les États membres, a refusé d’avoir un objectif contraignant pour eux-mêmes en matière d’énergies renouvelables ; ils ont accepté l’objectif contraignant de 27 %, mais seulement pour l’UE, et ont rejeté toute contrainte pour les États membres. En fin de compte, le Conseil et le Parlement sont parvenus à un compromis sur un objectif de 32 % d’ici 2030, mais toujours sans aucune obligation pour les États membres. La nouvelle directive a été adoptée en décembre 2018.

L’argent européen coulant à flots après la crise de Covid (730 milliards), il était plus facile d’adopter des objectifs plus ambitieux, toujours pour 2030. La crise énergétique provoquée par la guerre en Ukraine a ajouté un argument supplémentaire, et finalement, en octobre 2023, un nouvel objectif de 42,5 % a été adopté. Notez « virgule cinq »…

Il en résulte une inflation d’optimisme — ou d’utopie — pour l’objectif 2030. En 2014, la Commission européenne a proposé de passer de 20 à 27 %, mais en 2018, la pression du Parlement européen a fini par imposer 32 %. Aujourd’hui, en 2023, sans aucune justification technologique, ce chiffre est devenu 42,5 %.

De plus, l’hydroélectricité étant rejetée par les écologistes et la biomasse étant soumise à des contraintes environnementales qui en limitent la portée, l’éolien et le solaire photovoltaïque sont les seules sources d’énergie restantes pour atteindre cet objectif. Il faut beaucoup d’optimisme pour penser que les maigres 3 % d’énergie primaire provenant de l’éolien et du solaire peuvent porter les énergies renouvelables à 42 %. Pardon, 42,5 % !

Tout cela montre à quel point les institutions européennes sont devenues irresponsables en l’espace de quelques années, abandonnant la rationalité qui a prévalu à Bruxelles pendant 60 ans.

Olivier Appert

-D’où je parle ? Je suis ingénieur de formation, j’ai consacré toute ma carrière aux enjeux technologiques et énergétiques. J’ai travaillé dans le secteur public et privé, dans le contexte français mais aussi international

-Je ne suis pas un spécialiste des sciences du climat. En revanche j’ai eu l’occasion de développer des modèles de simulation et d’utiliser ses résultats.

-Je suis frappé par la façon dont on use et abuse des modélisations dans les débats sur le climat. J’ai appris à me méfier d’une mauvaise utilisation des modèles

-Les modèles permettent d’évaluer les futurs possibles dans un environnement incertain. Les résultats des modèles varient en fonction des hypothèses de base qui sont intégrées. Les entreprises utilisent les modèles pour définir une stratégie optimale qui minimise les risques liés aux aléas techniques, économiques ou politiques. L’utilisation de la modélisation ne vise en aucun cas à faire une prévision qui serait une vérité ne varietur mais à estimer la diversité des futurs possibles

-En ce qui concernent les modélisations du climat, il subsiste des incertitudes sur les données scientifiques. Par ailleurs quand on fait une modélisation sur 50 ans ou plus, les résultats dépendent à l’évidence des hypothèses faites au départ sur certains déterminants de la consommation d’énergie et donc des émissions de gaz à effet de serre : par exemple l’évolution de la population mondiale, la croissance économique des différentes régions, l’intensité énergétique du PIB mondial, etc…

-Les scientifiques du GIEC n’ignorent pas cette variabilité des résultats des modèles. Ils produisent de très nombreuses simulations qui donnent des résultats divergents. Cependant seul un scénario est retenu dans les discussions des COP.

-Sur la base de ce seul scénario, les politiques se fixent des objectifs sans s’interroger sur les moyens de les atteindre. Injonctions politiques et déficits prospectifs caractérisent les débats sur la transition énergétique. Quand on s’aperçoit qu’on ne suit pas la trajectoire voulue, on se fixe des objectifs plus ambitieux, encore plus inatteignables. On rentre dans un cercle vicieux : quand on met la barre trop haute, on est sûr de passer en dessous.

-Les politiques mises en œuvre sur la base de ces modèles ignorent la plupart du temps les dimensions économiques et sociétales du développement durable tel qu’il a été défini par Gro Harlem Bruntdland dans son rapport à l’ONU en 1987. Il ne faut pas s’étonner qu’on prenne des décisions qui soulèvent des oppositions fortes à l’image du mouvement des Gilets Jaunes

-Il convient d’assurer une plus grande transparence dans le processus de modélisation. Malheureusement les modèles sont une boite noire et les hypothèses de base restent secrètes

-En tant que président du Conseil Français de l’Energie, j’ai voulu en liaison avec France Stratégie engager un débat entre les différents modélisateurs français. Cela a été un échec car personne n’a voulu dévoiler sa copie.

Cela n’empêche pas les modélisateurs de communiquer largement sur les résultats de leurs modèles. Ainsi il y a quelques années, l’Ademe a présenté lors d’une conférence de presse une étude qui accréditait la thèse qu’un mix électrique 100% renouvelable était possible. Le message a été largement repris par les milieux politiques et médiatiques. Ce n’est que 3 mois après que l’Ademe a organisé une réunion technique apportant quelques précisions sur les hypothèses retenues qui pour certaines étaient irréalistes. Peu importe le message était passé et personne n’a procédé à une analyse critique qui de toutes façons aurait été inaudible

-En conclusion, les modèles sont indispensables pour évaluer la diversité des futurs possibles. Mais il faut se méfier des communications faites sur la base de modèles qui présentent une prévision unique. Il est indispensable d’assurer une plus grande transparence sur le contenu du modèle et sur les hypothèses utilisées. Il est nécessaire d’intégrer les dimensions économiques et sociétales qui sont négligées dans certains modèles

 

Marie-Estelle Dupont

Dans la société française contemporaine, l’accès au débat est de plus en plus restreint parce que depuis 40 ans, tout ce qui fonde la démocratie est remis en cause : 

une démocratie est l’exercice de sa souveraineté par un peuple éclairé au sein de frontières.

avec la mondialisation et le transfert de souveraineté vers des entités supra nationales, ces frontières sont abolies. Ceux qui dirigent ne sont pas tant ceux que le peuple a élus que ceux qui les influencent ou supervisent. Autrement dit la démocratie fait naufrage dans la bureaucratie, la technocratisation de la politique et le poids des lobbys. Les institutions démocratiques ne sont plus contrôlées par le peuple mais elles sont sous influences. Ceux que nous élisons pour nous représenter sont devenus des mandataires prenant leurs ordres ailleurs, et l’idéologie dominante est celle d’une résolution uniforme et mondialisée de toutes les crises, autrement dit d’une gouvernance mondiale.

Un peuple éclairé implique qu’il soit instruit et informé. Baisse de l’instruction, et médias qui font de la propagande d’Etats ou de lobbys.

Les jeunes sont pris dans des informations anxiogènes répétées en boucle face auxquelles ils développent un syndrome d’impuissance acquise. Ils se sent inutiles, voire coupables et dangereux (de contaminer les grands parents avec le covid, de tuer des arbres en faisant des bébés, de participer au réchauffement s’ils font 50 km en voiture, etc). Un stagiaire d’une boite de production de cinéma d’animation s’est ainsi permis de débrancher les frigos où étaient les lunch box de tout l’étage pour faire des économies d’énergie, et l’on est taxé de transphobie si on ne met pas un drapeau arc en ciel sur son ordinateur au bureau pendant la semaine de l’inclusion.

Face à ce stress chronique associé à de l’impuissance (quelle prise immédiate ont il dessus ?), ils passent en état de sidération. L’amygdale, siège cérébral de la peur, est saturé d’hormones de stress et va finir soit par se déconnecter et passer en mode « zombie », pilotage automatique, absence de réaction, larve. Soit très agressif, irritable, avec des conduites extrêmes.

C’est ce qui participe à l’augmentation de la violence, des addictions et des dépressions chez les jeunes. Le cerveau peut gérer la difficulté mais gère mal l’impuissance face à une information négative.

Or ils n’ont que peu accès à d’autres sources d’informations puisque celles qui leur parviennent en boucle sont sélectionnées pour justifier les décisions politiques.

La bureaucratie gouverne par la crise pour justifier de se prolonger.

La peur d’être ostracisé, le besoin d’appartenance au groupe, la paresse intellectuelle, tout ceci favorise le peu de rébellion face au narratif officiel.

 

Quant aux chiffres, c’est le propre d’une société totalitaire que de gouverner en disant qu’ils ne se discutent pas (comme pendant le COVID) alors que bien sûr les chiffres peuvent être utilisés comme on le souhaite. Il n’y a pas à argumenter, et cela permet un management de la population qui évacue tout débat. Chiffres + hystérisation du débat avec disqualification de l’interlocuteur = destruction de la pensée.

La crise sanitaire nous a fait atteindre le paroxysme d’une lecture chiffrée de la vie, et pour le climat, c’est le même processus qui est à l’œuvre.  Les algorithmes et les chiffres viennent biaiser le rapport au vivant, et faire taire toute voix experte qui s’élèverait pour dire que d’autres solutions existent (exemple du bioschar) et que peut-être, les éoliennes et les voitures électriques ne sont pas la panacée…

Michel Chevalet

Qu’appelle-t-on température moyenne ?

A quoi correspond ces 15 degrés de température moyenne du globe ?

Cela n’a pas de sens scientifiquement parlant. 

Effectivement, comment définir une température moyenne pour un système aussi complexe et énorme que la Terre ? En quoi cette valeur correspond-t-elle à la réalité, quand on sait que règne, en ce même lieu, un écart de 100 degrés, entre les -67°C en Sibérie l’hiver et les +37°C l’été !? 

Et que mesure-t-on ? La température de l’air ? Celle des océans ? Ou celle de la surface de la Terre ? Bref, cette notion de « température moyenne » a peu de fondement scientifique. 

Sauf un ! Si l’on parle, non plus, de température mais de rayonnement.

Expliquons-nous : 

Notre planète reçoit 99% de son énergie du Soleil. Et pour que la température de cette boule, isolée par le vide qui l’entoure, reste constante, elle doit émettre de la chaleur, autant qu’elle en absorbe. C’est un processus très complexe. Mais, retenons que la seule forme d’émission et de renvoi de l’énergie, c’est le rayonnement. 

Et qui dit rayonnement, dit longueur d’onde. C’est ce que voient et mesurent les satellites. Et qui dit longueur d’onde, dit température. 

Et la longueur d’onde du rayonnement émis par la Terre est dans l’infrarouge, à une longueur d’onde qui correspond à une température de 15 degrés. Et c’est elle qui a été prise comme repère, comme référence, car il faut bien en avoir une. 

Et quant à nous, « c’est la température moyenne à partir de 1,2, 1,5°C » : comment peut-on mesurer cela ? 

Là, c’est une donnée purement statistique à partir de deux bases de données : 

-La base anglaise HadCRUT dont les données sont compilées par l’unité de recherche climatique de l’Université de Norwich. 

Et l’autre, la base GISS, publiée par la NASA avec 26.000 stations météorologiques, des milliers de navires et de bouées et une flotte de satellites. 

Et ces deux bases ont pris comme référence zéro, le 1er janvier 1960. Et, donc, c’est à partir de cette valeur que l’on a établi, par exemple, une augmentation de 0,9°C depuis 1960.