Cours Environnement et énergies
Cours Environnement et énergies
Cours Environnement et énergies
1
A. Station de transfert d’énergie par pompage (STEP)……………………………………… 55
B. Installation de stockage par air comprimé (CAES)……………………………………….. 56
B.1. CAES classiques…………………………………………………………………………………. 56
B.2. CAES seconde génération…………………………………………………………………… 57
B.3. Système de stockage par air comprimé adiabatique ………………………………. 57
C. Les volants d’inertie………………………………………………………………………………………. 58
2.2. Stockage thermique…………………………………………………………………………………….. 59
2.3. Stockage électrochimique……………………………………………………………………………. 60
Conclusion…………………………………………………………………………………………………………… 62
Chapitre VI. Intensité et efficacité énergétique … …………………………………. 63
1. Intensité énergétique et création des richesses………………………………………………. 63
2. Histoire de l’intensité énergétique………………………………………………………………… 64
Bibliographie………………………………………………………………………………………. 100
2
Liste des abréviations
3
Introduction générale
Depuis son existence, l’homme a toujours puisé dans son milieu de vie les éléments
nécessaires à sa survie. Toutefois, les rapports de l’homme et de ses activités avec le
monde physique ont subi des évolutions allant d’un équilibre harmonieux vers des
pressions négatives de toute sorte. L’esprit d’imposer sa suprématie et de modifier
son milieu pour pouvoir tirer le maximum de profit illustre bien les effets désastreux
de l’homme sur l’environnement actuel.
C’est de cette tension entre les besoins des hommes et de la gestion des biens
environnementaux que naisse l’activité économique relative à l’environnement.
En effet, la croissance économique comme fondement de l’économie mondiale s’est
faite et continue à l’être en puisant sans cesse accrue dans les biens
environnementaux. La valeur des services rendus par l’environnement a
malheureusement souvent été ignorée ou sous-estimée, ce qui a conduit à une sur-
utilisation de celles-ci dans les activités de production et de consommation. Les
productions agricole, industrielle, énergétique et urbaine ont ainsi généré des
volumes colossaux de polluants dont les émissions dépassent le pouvoir auto-
épurateur du milieu. Dans les pays industrialisés, les nuisances engendrées par
l’activité énergétique ont atteint un seuil de gravité de telle sorte que la préservation
de l’environnement est désormais une préoccupation dominante pour de larges
secteurs de l’opinion.
Divers travaux d’auteurs comme Gray (1914), Hotelling (1931), Faustman (1949) et
Gordon (1954) ont fait des avancées dans l’analyse des allocations des ressources
naturelles qu’elles soient renouvelables ou épuisables (Louhichi, 2001). Toutefois, ce
n’est qu’à partir des années septante, qu’on va assister à une montée en puissance de
la conscience environnementale suite aux préoccupations liées aux interactions entre
l’environnement et les activités économiques. Les atteintes à l’environnement
apparaissent alors comme un tournant majeur dans la façon de penser le monde et en
particulier de penser les rapports de l’homme à la nature.
Ce cours «environnement et énergies» se veut comme une matière
pluridisciplinaire qui fait appel à différentes branches telles que l’économie, la
science, la politique et le droit.
Comme pour tous les secteurs de production, l’énergie est l’une des plus pressantes
sur l’environnement. Pour comprendre l’interaction énergie-environnement, il est
important de rappeler quelques notions d’économie portant sur l’environnement. En
effet, l’énergie comme source est produite à partir des ressources naturelles primaires
ou converties. Le pétrole, le gaz naturel, le charbon, le nucléaire, le vent, l’eau, le
soleil, etc. sont autant de facteurs de production énergétique qui se présentent sous
formes de stocks chimiques ou physiques, c'est-à-dire renouvelables ou non. De façon
générale, l’économie de l’environnement trouve ses origines dans la théorie
néoclassique. La notion d’externalité négative qui a pour objectif de corriger les
défaillances de l’économie du marché et une meilleure allocation des ressources a été
introduite justement par les néoclassiques (Alfred Marshal puis Cécile Pigou). La
notion prendra de l’ampleur et sera adoptée plus tard par les pays de l’OCDE pour
devenir le fameux principe du pollueur payeur (PPP).
Face aux pollutions générées par le secteur énergétique (réchauffement climatique,
pluies acides, etc.), une conscientisation mondiale quant à la nécessité d’une action
4
urgente en faveur de l’environnement s’est installée. Ainsi, on ne compte plus les
conventions, les traités, les lois, etc. qui s’organisent autours de la question
énergétique. Des concepts comme le développement durable, la transition écologique
et récemment la transition énergétique vont marquer les débats portant sur les
questions de l’environnement. Par transition énergétique, on entend l’ensemble des
scénarios à mettre en place pour réduire l’intensité carbone de l’économie et les
émissions des GES. En Europe, par exemple, les objectifs affichés aux horizons 2020,
2030 et 2050 vont tous dans le sens d’une augmentation progressive de la part du
renouvelable dans le mix énergétique, d’une réduction des émissions des GES et
d’une diminution de la dépendance aux énergies conventionnelles. Pour atteindre ces
objectifs, l’UE a adopté un plan stratégique des technologies de l’énergie comportant
cinq dimensions importantes parmi lesquelles on retrouve l’efficacité énergétique et
la décarbonation de l’économie.
C’est vrai que la combustion des énergies fossiles a généré des pollutions colossales
menaçant l’avenir de notre planète, mais à l’heure actuelle on peine à trouver des
solutions alternatives capables d’assurer les besoins énergétiques d’une population
mondiale en pleine expansion. Le problème majeur réside dans l’intermittence des
ressources renouvelables, l’insuffisance des unités de stockage, les divergences
d’intérêts entre les pays et les difficultés d’exécuter les recommandations du
protocole de Kyoto et de l’accord de Paris (COP 21) pour en citer que les deux.
Que ce soit au niveau local, continental ou mondial, divers instruments d’ordres
économiques (taxes, échange de permis, subsides, etc.) et réglementaires (normes,
directives, circulaires, etc.) sont d’application pour lutter contre les externalités
négatives de la production énergétique. L’ensemble de ces mesures se heurtent
généralement à des questions de nature scientifique, méthodologique, économique et
éthique.
Les rapports du GIEC (2014 et 2018 par exemple) soulignent clairement que
maintenir la température à un niveau acceptable (2°C) nécessite encore plus
d’implications dans les mesures adoptées. A cet égard, le système communautaire
d’échange des quotas d’émission a été révisé. Le marché a été étendu aux autres
secteurs non couverts auparavant (transports excepté l’aviation, l’agriculture, la
déforestation, etc. ), la création d’une réserve de quotas histoire d’augmenter le prix
de la tonne carbone. C’est au niveau de la gestion de la performance énergétique des
bâtiments et du secteur de transport que se situent les difficultés.
Ce cours traitera dans l’ordre les thèmes suivant
Economie de la nature et de l’environnement
Le concept environnement
Energie et ressources : le monde des énergies fossiles, le monde des énergies
renouvelables
Le stockage de l’énergie comme solution vers une meilleure valorisation de l’énergie
renouvelable
L’intensité et efficacité énergétique
L’énergie et effets sur l’environnement (effet de serre, pluies acides, etc.)
Les objectifs de l’Europe en matière de l’énergie
Energie, économie et environnement : outils d’évaluation et d’internalisation
des externalités négatives
Transition énergétique (voir articles associés, à titre informatif).
5
Chapitre I. L’environnement dans la pensée économique
6
La prise de conscience économique en matière d’environnement s’est construite
progressivement à partir des années soixante-dix. Cet intérêt n’est toutefois pas né de
rien mais il s’est en fait nourri de différentes contributions de l’histoire de la pensée
économique, notamment néoclassique (Faucheux et Nöel, 1995). Nous faisons
allusion ici aux travaux de Hotelling (1931) pour l’analyse de l’exploitation des
ressources naturelles épuisables (économie des ressources naturelles) et de Pigou
(1920) sur l’économie du bien être et l’internalisation des externalités (économie de
l’environnement). Ce sont les apports respectifs des ressources naturelles, du travail
et du capital à la production des richesses qui ont le plus souvent retenu l’attention
des économistes.
L’agriculture et l’élevage, puis les manufactures, l’industrie moderne et le
développement des services tels que les banques, la distribution commerciale,
l’enseignement, etc. ont été et sont des réponses données à la rareté ainsi qu’à
l’inadaptation des ressources naturelles en vue de satisfaire directement les besoins
des hommes. L’allongement du processus productif séparant celles-ci de la
consommation finale par les hommes n’est alors que l’expression du développement
économique (Silem Ahmed, 2011).
Pour les économistes du marché, la réponse à ces problèmes va se construire sur un
triptyque conceptuel formé par des notions d’effets externes, de biens publics et de
ressources naturelles (Barthélemy et al. 2004). Le déploiement de ces trois notions
représente ce qu’on appelait traditionnellement l’économie des ressources naturelles
et de l’environnement (Faucheux et Noël, 1995).
Les économistes néoclassiques vont ainsi distinguer vers les années septante entre
l’économie des ressources naturelles et celle de l’environnement. Cette distinction
vient du fait qu’il est impossible d’établir les liens exacts entre consommation de
ressources naturelles (gestion de la rareté des RN) et pollution (gestion de l’impact
sur l’environnement), ou de voir les possibilités de rétroaction de l’épuisement des
ressources ou de pollution sur l’économie (Faucheux et Noël, 1995). Certains
catégories, telles les «biens collectifs» et les analyses qui en découlent, appartiennent
à la fois au champ de l’économie des ressources naturelles et à celui de l’économie de
l’environnement.
Pour les ressources naturelles, une différence est faite entre ressources renouvelables
(forêt, eau,..) et non renouvelables (minéraux) ; il s’agit d’actifs naturels ce qui
implique des choix d’allocation d’usages pour assurer la disponibilité future des
ressources. Cependant pour l’économie de l’environnement, l’attention n’est pas
portée sur les ressources, mais plutôt sur l’activité en usant, et sur la façon dans
certains individus affectent le bien-être des autres individus.
1.1. Externalités : source de défaillance du marché
C’est à Alfred Marshall que l’on doit la première réflexion sur les effets externes ou
externalités. Une externalité négative caractérise un effet affectant le bien-être d’un
agent (par les actions d’un autre) sans que le marché régule cette interaction par une
transaction. Les pollutions sont considérées généralement comme un type
d’externalités négatives.
Arthur Cecil Pigou (1920), successeur d’Alfred Marshall va reprendre cette notion
d’externalité négative et l’appliquer aux questions environnementales. Son objectif,
est d’internaliser les effets externes de l’activité d’un agent par un système de taxation
7
(taxe de Pigou ou taxe pigouvienne) ; c'est-à-dire le pollueur doit compenser les
dommages au moyen d’une indemnisation. Considérées comme des déficiences de
l’économie du marché, les externalités négatives peuvent être, selon Pigou, corrigées
par ce système de taxation, ce qui permet d’atteindre un équilibre correspondant à
l’optimum économique.
L’approche par taxation de Pigou a été reprise dans un autre contexte en 1972 par les
pays de l’OCDE et, a vraisemblablement évolué vers la première version de ce qui
sera connu sous le nom du « principe pollueur payeur PPP ».
Exemple d’une externalité négative (page 78, Tietenberg et Lewis, 2013)
« …supposons deux entreprises implantées à proximité d’une rivière. La première
produit de l’acier et la seconde, située un peu plus en aval, est un hôtel-club. Ces
deux entreprises se servent de la rivière, même si c’est de manière différente.
L’entreprise sidérurgique l’utilise pour évacuer ces déchets, tandis que l’hôtel l’utilise
pour attirer des clients intéressés par les loisirs nautiques. Si c’est deux entreprises
appartiennent à deux propriétaires différents, il sera difficile d’utiliser l’eau d’une
manière efficiente. Comme l’usine sidérurgique n’est pas impactée par le coût de la
baisse d’activité de l’hôtel due aux rejets des déchets dans la rivière, ce coût ne sera
pas considéré avec beaucoup d’attention dans son processus décisionnel. Elle risque
donc de continuer à rejeter trop de déchets dans la rivière, et l’allocation de cette
ressource ne sera alors pas efficiente »
Il faut préciser qu’il existe deux types d’externalités : négative et positive. Tout ce qui
peut nuire à l’environnement génère des externalités négatives. Certaines activités de
production, comme nous le verrons ultérieurement (cas de l’agriculture par exemple)
peuvent présenter à la fois les deux types d’externalités. On parle dans ce cas plutôt
de multifonctions d’une activité.
1.2 Les biens publics
Ils se caractérisent par la non-exclusion (nul ne peut être exclu des bénéfices apportés
par le bien) et la non-rivalité dans sa consommation (plusieurs personnes peuvent
profiter d’un beau paysage sans que la qualité ou la quantité du paysage ne s’en
trouvent modifiées). La théorie économique standard admet que la fourniture des de
biens publics ne peut reposer uniquement sur les mécanismes du marché
(Abdelmalki et Mundler 2010).
Plusieurs ressources environnementales courantes entrent dans la catégorie des biens
publics, parmi lesquelles un joli paysage, l’eau potable et la biodiversité.
8
naturelles trouve ses origines dans la théorie classique de la production (Faucheux et
Noël, 1995). Cette théorie définit une ressource naturelle comme un facteur de
production à part entière et que la plupart de ces ressources ont des caractéristiques
proches du capital. C'est-à-dire, elles doivent être extraites (disponibilité dépend du
travail) pour qu’elles soient consommées ou intégrées dans le processus de
production (un poisson doit être pêché avant qu’il soit consommé ou transformé par
exemple !). De ce fait, de par ces opérations d’extraction et de transformation ou de
par leur rareté, ces ressources transitent sur le marché et sont donc dotées d’une
valeur d’échange et deviennent des biens économiques. Par contre, les ressources
dont l’offre ne doit rien au travail de l’homme et dont la propriété est commune (l’air
et l’eau) sont exclues du marché et constituent ce qu’on appelle les biens libres
(Yachir, 1992).
Au cours du temps, on va assister à une exclusion progressive de la théorie des
ressources naturelles par les néoclassiques et ce à partir du 20ème siècle.
9
économiste français publie en 1979 son fameux livre devenu "classique" intitulé
«l’économique et le vivant». L’approche de Passet a pour ambition de repenser
l’environnement dans une dimension bioéconomique c'est-à-dire qui inclue le vivant
et son milieu de vie (biosphère) dans toute analyse économique de l’environnement.
Quant à elles, les organisations économiques doivent respecter les rythmes de
reconstitution des ressources naturelles qui sont très complexes.
Cette nouvelle approche de Passet et d’autres personnalités scientifiques isolées,
venant du monde des économistes, mais possédant un savoir pluridisciplinaire
cherche le rapprochement entre l’économie et les sciences de la nature (chimie,
physique, biologie, etc.). Cela donnera naissance à deux écoles différentes, deux
philosophies différentes (Hamaide et al., 2012). Ces deux écoles, de visions
différentes sur la question environnementale, vont contribuer chacune à la
progression du débat sur le développement soutenable. Ces deux approches sont
celles de « l’économie écologique » et de « l’école de Londres ».
10
un bien de consommation public, comme un producteur de ressources naturelles ou
comme un réservoir de déchets (Louhichi, 2001). Ici on considère que
l’environnement a une capacité d’assimilation, une capacité de renouvellement et une
substituabilité entre les ressources épuisables et renouvelables.
Cette approche repose sur l’interdépendance entre économie et environnement et
souligne le caractère multidimensionnel du développement soutenable. Le marché
demeure le mécanisme central de régulation des relations homme nature. Pour
réaliser un développement soutenable, il y a nécessité à maintenir un stock de capital
naturel critique et d’inclure des considérations institutionnelles finalisées
correspondant à une politique de développement.
Les dommages occasionnés à l’environnement peuvent être traités de deux manières.
La dégradation potentielle d’une partie du capital naturel à petite échelle peut être
traitée par des critères d’efficience économiques tels qu’ils sont définis par la
perspective néoclassique. Les dégradations à grande échelle doivent faire l’objet de
contraintes a priori. On parle ainsi du capital naturel critique.
Il s’agit ici d’une approche qui se situe entre celle des néoclassiques (soutenabilité
faible) et celle de l’économie écologique (soutenabilité forte).
Bien qu’elle présente de nombreux aspects innovateurs dans l’évolution des théories
économiques environnementales, l’approche de l’école de Londres est soumise à pas
mal de critiques. D’abord, il y a des contestations par rapport à la monétarisation de
la nature d’une part et, d’autre part, les méthodes d’évaluations utilisées (évaluation
contingente, les dépenses induites, les prix hédoniques, et la complémentarité faible)
restent délicates à appliquer pour des raisons méthodologiques, juridiques et
pratiques.
11
Chapitre II. Le concept environnement
Avant les années 1960, le terme « environnement » n’était pas repris dans les textes.
Pas mal d’écrivains ont essayé de retracer l’histoire de « l’environnement » en partant
de l’idée que le terme n’est pas invariant et possède donc des origines. Ainsi des
termes, comme contour, nature, faune et flore, etc. ont été respectivement cités à des
moments bien précis de l’histoire de l’humanité. Toutefois, il nous semble délicat de
faire corrélation entre ces citations et l’environnement tel qu’il est conçu actuellement
au sens pluridisciplinaire du terme !
Ce n’est que vers la fin du 19ème siècle avec les inquiétudes d’épuisement des
ressources naturelles sur lesquelles repose l’économie du marché au sein des sociétés
industrielles qu’un terme proche de l’environnement, en l’occurrence le milieu, fasse
son apparition.
Au 20ème siècle, le terme «milieu» deviendra ce qu’on appelle «cadre de vie». Son
usage s’intensifie dans les années 1960-70 à un moment où les sciences doivent
répondre à la société qui veut comprendre le fonctionnement du monde qui l’entoure
et le dominer. Le vocabulaire scientifique s’enrichit de nouveaux mots tels que
l’environnement (Torregrosa, 2005).
12
cet appel à l’action politique fut formulé de façon explicite ((Meyer et Poncharal,
2016).).
Aujourd’hui encore, il existe une certaine confusion entre les deux, bien que l’écologie
ne représente qu’une simple partie de l’ensemble très vaste des sciences de
l’environnement (Bliefert et Perraud, 2001).
L’environnement est désormais perçu dans un contexte large, qui inclut les
perspectives scientifique, économique, sociale et culturelle. Son étude ne se limite
plus aux phénomènes physiques. Les sciences sociales deviennent intimement liées
aux sciences de la nature. L’interdisciplinarité est requise pour saisir les interactions
qui s’opèrent, car la notion d’environnement est surtout englobant, intégrante. En
associant les disciplines, on jette les bases d’une nouvelle représentation du monde.
13
2. Différents niveaux de représentation de l’environnement
Cette représentation de Poucet nous montre que l’environnement n’est pas une
science exacte et reflète la pluridisciplinarité de la matière, sa complexité et les
difficultés des significations qui lui sont accordées.
D’un point de vue scientifique, l’environnement désigne tout ce qui entoure une
entité spatiale abiotique (milieu physique) ou vivante. Depuis la fin des années 1960,
le terme a pris une acceptation plus spécifique et désigne la composante écologique
du cadre de vie de l’homme. De façon sous-jacente l’environnement est associé aux
problèmes de dégradation de la biosphère toute entière par suite de l’action de la
civilisation technologique sur la totalité des milieux naturels (Ramade, 2002).
14
Figure 1. Le système économique et environnement (source : Tietenberg et Lewis, 2013)
Par ailleurs, quelque soit les limites qu’en prend en compte, l’environnement reste un
système complexe, dans lequel le sol, l’eau, l’air ainsi que le monde des animaux et
des plantes, et le climat en sont les composants majeurs (Bliefert et Perraud, 2001).
Figure suivante :.
15
Dans la suite de ce cours, notre analyse de la relation énergie-environnement se
placera sous l’angle scientifique et économique.
16
Chapitre III. L’énergie
1. Introduction générale
La production énergétique conventionnelle a généré des volumes colossaux de
polluants dont les émissions dépassent le pouvoir auto-épurateur du milieu.
17
l’énergie sur l’environnement : réchauffement climatique, pluies acides, trou d’ozone,
déchets radioactifs, accidents nucléaires…etc. En effet, si les pays industriels, ont
réalisé un développement économique en polluant, d’autres en voie de
développement demandent de faire pareil. La course au progrès pour certains, les
problèmes d’environnement et d’épuisement des ressources pour d’autres vont
animer le débat énergétique à l’avenir.
Le secteur énergétique défie les lois admises en économie, en partie parce qu’il est
régulé par l’Etat ou les monopoles privés que par les lois de l’offre et la demande.
L’évaluation économique exclut pour l’instant l’internalisation des coûts externes
relatifs par exemple à la dégradation de l’environnement et de la santé, ce qui
maintient artificiellement bas le coût des carburants fossiles.
L’énergie, est avant tout le produit des sciences physiques, peut être définie comme
la faculté que possède un corps de fournir du travail mécanique ou son équivalent.
Mais elle reste une notion difficile à définir car on n’en ressent que les effets sous
forme de travail et de chaleur. C’est une propriété d’un système capable de modifier
d’autres systèmes. La quantité de l’énergie est le produit de l’intensité du travail (la
puissance) par le temps durant lequel cette puissance est fournie.
Unités
-Unité de base de la puissance est le watt (1W = 1J/s). Dans le domaine d’énergie on
emploie souvent le mégawatt (1MW = 106 W), le gigawatt (1GW = 109 W) et le
térawatt = (1TW= 1012W).
-L’unité d’énergie dans le système international est le joule (J). Unité qui mesure le
travail nécessaire pour soulever de 10cm une masse de 10Kg. Pour des
transformations macroscopiques, elle est très petite aussi utilise-t-on le kilojoule (Kj),
ou le mégajoule (MJ).
A ne pas confondre le KWh qui est une quantité d’énergie avec le KW qui est une
unité de puissance.
-Pour les énergies mises en jeu au niveau des atomes, des molécules ou des noyaux,
qui sont les entités constituant la matière, on utilise plutôt l’électronvolt (eV) et ses
multiples. On a 1eV= 1,6*10-19J.
18
Equivalences
Pour comparer les différentes sources d’énergies, il est d’usage de les rapporter à
l’énergie fournie par le pétrole brut. Pour cela, les économistes utilisent la tep, tonne
d’équivalent pétrole. 1,6 tep représente la consommation moyenne d’énergie d’un
habitant de notre planète. Pour la consommation d’un pays, on parlera de millions de
tep (Mtep), voire de milliards de tep (Gtep).
19
4. Les principes de la thermodynamique ?
-1er principe :
Les différentes formes que peut prendre l’énergie d’un système ; énergie mécanique,
énergie calorifique, énergie potentielle, énergie cinétique sont ainsi toutes
équivalentes entre elles au sens de ce principe de la thermodynamique. Il s’agit
d’un principe de conservation analogue à celui de la conservation de la masse d’un
système, ou des espèces chimiques lors d’une réaction.
Le second principe est dû a Sadi Carnot, qui a démontré en 1824 que le rendement
d’une machine thermique idéale décrite par un cycle est donné par la formule =
Tf/Tc. Tc= température de la source d’énergie thermique (source chaude), et Tf=
température de l’environnement ambiant (source froide), toutes les deux exprimées
en Kelvin.
20
5. Les différentes formes d’énergie
Le schéma suivant montre les interactions entre les différentes formes d’énergie ou ce
qu’on appelle communément la chaine énergétique.
L’énergie peut se présenter sous une forme primaire, finale (secondaire) et tertiaire
(utile).
21
L’énergie primaire, est constitué par l’énergie disponible à l’état brut, avant toute
transformation, et telle qu’elle peut être saisie à l’entrée du système énergétique. Elle
peut se présenter sous forme de stocks (charbon, pétrole brut, gaz naturel, uranium)
ou sous forme de flux (énergie solaire, éolienne ou hydraulique).
L’énergie finale est constituée de l’énergie utilisée pour satisfaire les divers besoins
(chauffage, processus industriels) après transformation de l’énergie primaire en
énergies secondaires (produits pétroliers, électricité, combustibles solides et gazeux).
22
l’énergie solaire, l’énergie éolienne, l’énergie hydraulique, l’énergie
marémotrice, ou encore l’énergie des animaux de trait. Il s’agit ici de formes
d’énergie physique qui se présentent sous forme de flux et non de stock. Elles
sont pratiquement inépuisables.
Plus de 80% de l’énergie mondiale consommée à l’heure actuelle est d’origine fossile,
c'est-à-dire issue de ressources qui se présentent sous forme de stocks non
renouvelables à l’échelle du temps de l’humanité. Sachant que les besoins en énergie
vont augmenter dans les années à venir compte tenue des projections
démographiques qui voient une augmentation de la population mondiale de 2,5
milliards d’ici 2050, il est important de souligner les inquiétudes qui animent le
monde tout entier. Celles-ci sont liées plus au pétrole dont les réserves sont
« apparemment » très limitées alors que celles du gaz naturel seraient légèrement
supérieures à celles du pétrole. Heureusement pour certains, et malheureusement
pour d’autres, les réserves en charbon sont nettement plus meilleures avec une
répartition qui couvre tous les coins du monde. Alors que le charbon est très polluant,
nocif et dangereux parmi toutes sources d’énergie, certains pays ne voient aucun
problème dans son utilisation à l’avenir.
23
territoire (bois, biomasse, charbon principalement). A la fin du XIX siècle, le marché
du charbon s’est développé sans pour autant donner naissance à un véritable marché
international. En effet, du fait du coût élevé du transport, les échanges internationaux
se limitaient à des échanges de proximité. Source d’énergie prépondérante jusqu’à la
fin des années cinquante, il ne sera devancé par le pétrole qu’au milieu des années
1960 suite à l’explosion du nombre de voitures individuelles et du transport aérien.
Après les deux chocs pétroliers (1973 et 1979), le pétrole devient trop cher et se
spécialisera dans les transports et l’industrie (Charlez, 2017).
L’estimation de la durée de « vie » des stocks d’un produit varie selon le type
d’études. Pour un géologue par exemple, une bonne estimation d’un stock dépend des
progrès de la connaissance et de ceux de la technologie. Cependant, pour un
économiste, il s’agit d’une estimation monétaire des réserves dites prouvées qui
dépend du coût d’accès au stock et du prix de vente (le prix auquel le produit pourra
être vendu sur le marché). Pour estimer le rythme auquel les réserves fossiles
s’épuisent, on utilise communément le ratio R/P (R représente le montant estimé des
réserves prouvées et le P le volume de la production annuelle). On obtient ainsi une
estimation du nombre d’années pendant lequel on pourra exploiter le gisement au
rythme de l’année considérée. A titre d’exemple, ce ratio était en 2017 de 52 ans pour
le pétrole, de 53 ans pour le gaz naturel et de 115 ans pour le charbon (Hansen et al.
2019).
De ce qui est la nature des réserves fossiles, on parle souvent de réserves prouvées au
sein desquelles nous faisons la distinction entre les formes conventionnelles et non
conventionnelles. Pour le pétrole, ces réserves sont de trois types : type 1 ou 1P ; les
quantités de pétrole dont l’existence est établie et dont les chances de récupération
aux conditions technico-économiques du moment sont d’au moins 90%, les réserves
de type 2 (2P) ; la probabilité de récupération est d’au moins 50%, et les réserves
24
dites « 3P » qui additionnent aux précédentes possibles ayant une probabilité de 10%
d’être récupérées (Hansen et al., 2019).
Que ce soit pour le pétrole ou le gaz, la forme conventionnelle désigne ces quantités
facilement récupérables du fait de leur emplacement géologique au niveau de la roche
mère. Pour le pétrole par exemple, les hydrocarbures formés au niveau de la roche
mère migrent vers une roche poreuse et perméable, s’accumulent et forment des
gisements dont l’exploitation se fait par simple forage. A l’opposé, le pétrole non
conventionnel reste piégé dans une roche peu poreuse et peu perméable du bassin
sédimentaire voire même piégé dans la roche mère (schiste bitumeux, pétrole de
schiste, pétrole lourd,.etc.). L’extraction du pétrole non conventionnel s’avère plus
complexe et nécessite une fracturation hydraulique (technique onéreuse).
En termes de production, le plus probable selon Cassoret (2018), c’est que celle-ci
passera par un maximum, pourra stagner, avant de décliner. C’est le géologue
américain King Hubert qui a été le premier dans les années 1956 a suggéré une
courbe avec un pic de consommation notamment du pétrole. Selon Hubert, le stock
américain baisserait à partir des années 1970. Différentes dates ont été avancées pour
l’obtention de ce pic pétrolier : Pour certains ce pic est déjà passé (année 2010) ou
entrain de passer, l’Agence internationale de l’énergie (AIE) pense qu’il ne se
reproduira pas avant 2030 (Barré, 2007), d’autres plus optimistes ne le voient que
dans quelques décennies. Ci-dessous, le schéma théorique de King Hubert où la
première moitié (partie gauche) représente ce que nous avions déjà consommé
comme pétrole, alors que la deuxième moitié représente ce qui reste encore comme
gisements mais qui sont difficiles à extraire techniquement et économiquement.
25
La figure ci-dessous représente le pétrole conventionnel découvert par période de 10
ans de 1900 à 2010 et les projections au-delà de 2010. On peut remarquer qu’à partir
de 1980, la consommation du pétrole devient significativement élevée par rapport
aux gisements existants.
Figure 6. Le rapport entre les découvertes du pétrole et sa consommation (source : Adolphe, 2011).
D’un point de vue économique, le problème est lié aux externalités négatives
engendrées par les émissions du carbone sous forme de CO2. Or sachant que
l’internalisation des coûts liés à ce genre d’activité semble délicate en absence de
politiques publiques adéquates, il semble que la réorientation des choix vers d’autres
produits moins polluants est très importante (notion de substituabilité). Il faut que
les choix énergétiques se caractérisent par un bais d’inefficience en raison de
l’orientation vers des énergies contenant du carbone. Ceci peut retarder le moment de
la transition vers des énergies moins polluantes. La comptabilité énergétique montre
que la consommation d’énergie qui peut être qualifiée d’inefficiente s’explique par le
fait que les utilisateurs (majoritairement privés) ne prennent pas en charge
l’intégralité des coûts qui y sont liés. L’énergie semble alors moins chère qu’elle ne
l’est en réalité.
26
Chapitre IV. La production de l’énergie
1. La production chimique
1.1. Le pétrole
A. signification et origine
Le pétrole représente ce qui reste des êtres vivants du passé, voilà pourquoi on le
qualifie de combustible « fossile ».
Une fois formé, le pétrole remonte vers la croûte terrestre, en empruntant des pores
perméables, car sa densité est inférieure à celle de l’eau salée. Toutefois, quand il
rencontre une structure imperméable, le pétrole est emprisonné et un gisement se
forme.
Depuis sa première mise en production en 1859 par Drake aux États-Unis, le pétrole
est devenu la plus importante source d’énergie primaire dans monde. La
consommation des produits pétroliers a connu un développement considérable (1Gt
en 1960, 2,9 Gt en 1987 et 4Gt en 2007). Ceci s’explique par les avantages certains
que présente cette énergie du fait de sa forme liquide, de la forte capacité énergétique
volumique et de sa nocivité relativement faible. Les frais de distribution et de
transport sont également les moins coûteux et les plus souples. Un autre avantage
offert par le pétrole est lié à la gamme de produits provenant de sa distillation (figure
ci-dessous)
27
L’existence d’une pluralité de produits et donc d’une pluralité de marchés a conduit
les producteurs à mettre en œuvre une politique de prix adaptée à chacun de ces
marchés. En termes de qualité, on peut faire la distinction entre 3 formes brutes, qui
sont les plus connues :
Suivant la nature chimique des hydrocarbures, nous avons trois grandes familles de
pétrole brut (paraffines, oléfines et aromatiques). Plus un brut est léger, plus large est
la gamme de produits raffinés qu’il fournit. Les caractéristiques et la composition du
pétrole brut conditionnent son prix de vente.
B. L’utilité du pétrole
C. La chaîne pétrolière
L’industrie pétrolière a vite évolué d’une structure concurrentielle vers une structure
oligopolistique (c'est-à-dire une concentration du marché au sein de peu de
compagnies) à cause des caractéristiques technico-économiques de cette industrie.
Elle nécessite des capitaux importants durant toutes les phases de la chaîne pétrolière
à savoir, l’exploration, le transport et le raffinage.
La mise en exploitation complète d’un champ pétrolier peut s’étendre sur plusieurs
années et peut demander jusqu’à 15 ans pour un grand gisement sous-marins. Le
développement de l’exploration et de la production en mer a été rendu nécessaire par
le rapide épuisement des réserves à terre. Les potentiels pétroliers que recèlent les
océans sont considérables (70% de la surface de la terre est occupée par les océans).
Le transport vers les raffineries Presque 57% du pétrole est consommé hors du
pays qui l’a produit. Le transport du pétrole brut est effectué soit par des navires
pétroliers, soit par oléoduc. Le pétrole brut ne peut être utilisé tel quel et qu’il est
donc nécessaire de le raffiner pour produire des molécules aux usages quotidiens très
variés.
Le raffinage : Pour séparer les constituants du pétrole brut, deux étapes sont
considérées :
a) La distillation (figure 23)
Voici le schéma figuratif d’une colonne de distillation fractionnée à la pression
atmosphérique qui va nous permettre de séparer les mélanges complexes
d’hydrocarbures formant le pétrole en fonction de leur volatilité (plus le produit est
léger, plus il est cher). Il s’agit d’une séparation partielle aboutissant à des fractions
appelées coupes.
29
Figure 9 : la distillation du pétrole
- On porte le mélange dans la tour à distiller à une T° de +/-375°C
- Les composants les plus lourds (liquides) vont rester dans le bas de la tour et
les plus légers (gazeux) continuent leur ascension dans la tour.
- Il se produit ainsi un courant de gaz ascendant et un courant liquide
descendant.
- Plus on monte dans la tour, plus la T° diminue, les molécules se condensent et
peuvent être récupérées à différents niveaux.
- Au sommet, ce sont les molécules gazeuses les plus légères qui restent et ce
genre de gaz se retrouve dans nos bonbonnes (propane, butane).
ET après la distillation ?
Dans les différentes fractions recueillies, des atomes de soufre persistent. Afin
d’éviter que lors de la combustion l’on ne libère trop de SO2, qui réagit avec l’O2 et
l’eau pour former des pluies acides, ce souffre doit être enlevé. Le mécanisme
consiste à passer les hydrocarbures sous un courant d’hydrogène. Le soufre payant
une grande affinité pour l’hydrogène sera pompé hors des hydrocarbures. Ce
mécanisme chimique est appelé désulfuration.
b) La purification
Purification des produits par des traitements physiques et chimiques pour obtenir
des produits plus légers forts demandés par les consommateurs. On utilise ainsi le
craquage et le réformage.
30
- Craquage catalytique ? sous l’action de la chaleur et de catalyseurs, les
molécules de fractions lourdes (gazole) sont transformées en molécules plus
légères.
- Le réformage : a pour but d’améliorer la qualité des essences en augmentant
leur indice d’octane. Sous l’action de la chaleur et de catalyseurs, les chaînes
carbonées linéaires sont réorganisées en chaînes carbonées ramifiées.
Figure 10. Structure de production de deux raffineries avec ou sans craquage catalytique
La distribution
31
La figure suivante résume les
réserves mondiales de pétrole en
milliards de barils et montre
clairement pourquoi autant de
conflits sont localisés dans la région
du moyen orient.
-Le premier choc pétrolier de 1973 (embargo décidé par les pays arabes contre les
pays occidentaux qui soutenaient Israël dans la guerre du kippour, réduction de la
production et augmentation des prix du baril),
32
- Le second choc pétrolier de 1979 déclenché par la révolution en Iran
Ces deux chocs pétroliers ont entrainé un ralentissement de la croissance, des crises
économiques, du chômage et des déficits publics.
Pour faire face à ce genre de situation, certains pays ont adopté des politiques
publiques volontaristes pour restructurer la demande en énergie et dans l’impulsion
donnée aux énergies renouvelables. La priorité était de remplacer le pétrole par une
autre source, notamment le nucléaire dans pas mal de pays qui disposaient des
capacités technologiques pour le faire, ou par le gaz naturel dans les centrales
thermiques et le chauffage des habitations. Les efforts entrepris par certains pays,
dans un second temps, pour promouvoir la filière des énergies renouvelables ont été
abandonnés vers la fin des années 1980 (le contre choc de l’Arabie Saoudite quand
elle a décidé de doubler sa production en 1986, effondrement des prix, stimulation de
la croissance…) lorsque le prix le pétrole est redescendu, rendant non rentables les
investissements dans les économies d’énergie et les énergies renouvelables.
-En 2008, c’est le record du prix du baril qui survient juste avant ce qu’on a appelé la
« crise financière ». Cette fois-ci la hausse des prix n’est pas liée à des conflits entre
nations, mais à une spéculation entre l’offre et la demande. Les visions des
économistes sont nombreuses à ce sujet. On cite la raréfaction du pétrole qui n’aurait
plus alimenté la machine économique, la limitation des installations de raffinage en
cas de forte demande, etc. Ci-dessous, l’évolution des prix du baril de pétrole à New-
York qui montre clairement les chocs pétroliers et la crise de 2008 (source : Hansen
et al., 2019. Page 169).
Figure 12. Evolution des prix du baril de pétrole en fonction de diverses situations géopolitiques
33
1.2. Le gaz naturel
L’industrie du gaz est née au début des années 1800 aux États-Unis et en Europe
simultanément : il s’agissait de gaz produit par distillation de la houille (forme de
charbon) et destiné à l’éclairage public.
Le pouvoir calorifique* des divers gaz disponibles, qu’il s’agisse de gaz manufacturé
(gaz obtenu dans des usines à partir de 1875 pour l’éclairage, chauffage et cuisson) ou
de gaz naturel extrait du sous-sol varie dans des proportions considérables :
5,5kWh/m3 en moyenne pour le gaz manufacturé, de 11,1 à 12,2 kWh/m3 pour le gaz
naturel en provenance de Russie, d’Algérie ou de Norvège, 27,5kwh/m3 pour le
propane (GPL issu du pétrole) et 35,6kWh/m3 pour le butane. (Le pouvoir calorifique,
également appelé « chaleur de combustion », représente la quantité de chaleur dégagée par la combustion complète d'une
unité de volume ou de masse donnée, dans des conditions normales de température et de pression).
Le gaz d’éclairage issu de la houille a vite été détrôné vers 1880 par l’électricité. La
découverte du gaz naturel en Europe après la Seconde guerre mondiale (Italie, France
et Pays-Bas) puis la mise au point de solutions techniques pour le transporter sur de
le longues distances l’ont peu à peu détrôné du bilan énergétique au profit du gaz du
gaz naturel importé de régions de plus en plus éloignées des lieux de consommation
(Algérie, Russie, Norvège, etc.). Les États-Unis furent les pionniers dans le domaine
de l’exploitation du gaz naturel à partir des années 1930 ; il s’agissait soit du gaz
associé au pétrole, soit de gaz « sec ».
Le gaz naturel est un mélange dont le constituant principal est le méthane (CH4). Ce
dernier est souvent associé à de l’éthane (C2H6), du propane (C3H8), du butane
(C4H10) et du pentane (C5H12) dans des proportions très variables d’un gisement à
l’autre. Un gisement de gaz contient parfois d’autres produits tels que le sulfure
d’hydrogène (H2S), l’azote ou le gaz carbonique. Ces deux derniers font baisser le
pouvoir calorifique du gaz.
Le gaz naturel est normalement inodore, mais pour des raisons de sécurité (asphyxie,
explosion etc.), et avant qu’il soit distribué, il est odorisé par l’adjonction d’un produit
chimique, généralement du Tétrahydrothiophène (THT) à odeur soufrée
nauséabonde. A noter qu’en Belgique cette odorisation se fait à l’entrée des villes et
en France à l’entrée des lieux d’importation. Contrairement au gaz manufacturé, le
34
gaz naturel ne contient pas de monoxyde de carbone ; il n’est donc pas toxique. Il est
en revanche susceptible d’exploser au contact d’une étincelle.
Le gaz naturel a la même origine que le pétrole. Sa formation suit celle du pétrole :
quand ce dernier atteint une certaine profondeur, la température ambiante le
transforme en gaz par un processus de craquage. Aujourd’hui, 40% du gaz produit de
l’électricité et le reste se répartit entre usages industriels et domestiques ou tertiaires
(figure 24). D’un usage plus récent que le pétrole, il a connu une forte croissance
depuis le 1er choc pétrolier de 1973. Il fournit aujourd’hui 21% de l’énergie primaire
consommé dans le monde. Plus propre que le pétrole, en brûlant il ne dégage que de
l’eau et du gaz carbonique.
Le classement des ressources de gaz naturel distingue les réserves prouvées (et
probables) en gaz conventionnel et les ressources en gaz dit non-conventionnel. Dans
les deux cas, il s’agit pour l’essentiel de méthane, mais c’est la technologie utilisée
qui fait la différence.
- Le gaz conventionnel : c’est du gaz piégé dans des réservoirs assez faciles
d’accès avec le forage vertical.
- Le gaz non conventionnel est piégé dans la roche mère ou dans des réservoirs
difficiles d’accès et il faut recourir à des technologies plus sophistiquées pour le
produire (fracturation hydraulique par exemple). Il existe plusieurs catégories de gaz
non conventionnel : le gaz du schiste (shale gas), le «tight gas», le « coalbed
methane » (le grisou), les hydrates de méthane (figure 27).
35
Les ressources mondiales en gaz non-conventionnel semblent plus grandes que celles
de gaz conventionnel, mais leur évaluation est sujette à débat. Pour l’instant seul les
États-Unis produisent à grande échelle du gaz non conventionnel, le gaz du schiste
principalement.
A. La chaîne gazière
La chaîne gazière présente 5 maillons principaux. Les deux premiers qui sont
l’exploitation et la production sont les mêmes que ceux de la chaîne pétrolière.
Toutefois, l’exploitation du gaz naturel présente énormément de contraintes. Une fois
extrait du sous-sol il doit être épuré, est épuré et conditionné de manière particulière
pour pouvoir être transporté dans des conditions de sécurité acceptables. Pour le
transporter sur des milliers de km depuis les sites de production jusqu’aux lieux de
consommation, on fait recours à des technologies complexes et coûteuses.
Dans le transport par gazoduc, le gaz est transporté sous pression dans des
canalisations tubulaires d’acier soudées les unes aux autres, d’un diamètre de 0,2 à
1,5m. Pour donner au gaz une vitesse de transport suffisante (30km/h en moyenne),
36
une pression est nécessaire (de l’ordre de 70 bars). Des stations de compression
doivent donc être installées tout au long du parcours, tous les 100 à 150km environ.
Lorsque le transport par gazoduc est impossible ou trop coûteux, le recours au GNL
s’impose. Le transport par méthanier (bateaux à double coque), de gaz sous forme
liquide représente lui aussi une prouesse technique. Pour liquéfier le gaz à la pression
atmosphérique, on doit le refroidir à -160°C à l’aide de gigantesques réfrigérateurs
(les USA et le Japon, sont les deux pays les mieux équipés par ces installations). La
chaîne complète du GNL comporte ainsi (figure suivante) :
Ce processus est fort consommateur d’énergie et que des pertes existent aux
différentes étapes de la chaîne GNL. Pour la Belgique, le transport du gaz se fait via
des gazoducs terrestres qui assurent le transport du gaz venant de la Russie et des
Pays-Bas et les gazoducs sous-marins qui acheminent le gaz en provenance du
Royaume-Uni et de la Norvège.
Elle dispose également d’un terminal méthanier à Zeebrugge qui permet aux bateaux
de décharger le GNL qui sera ensuite regazéifié et injecté dans le réseau de transport
belge. Ce gaz provient des pays d’outre-mer comme le Qatar par exemple.
37
Pour adapter l’offre à la demande qui varie fortement notamment entre l’hiver et
l’été, des stockages sont indispensables. Le stockage se fait généralement dans le pays
importateur. De grands réservoirs souterrains pouvant contenir plusieurs centaines
de milliers de mètres cubes de gaz ont été aménagés dans la plupart des pays
européens : ils reçoivent durant l’été le gaz qui sera déstocké au moment de la forte
demande hivernale. Ces stockages s’effectuent en nappe aquifère ou en cavité saline.
Dans un réservoir souterrain en nappe aquifère, du gaz est injecté sous pression dans
une roche poreuse perméable saturée d’eau et surmontée par une couche
imperméable. Le gaz prend en quelque sorte la place de l’eau et se trouve emprisonné
entre la couche supérieure de d’argile et la couche inférieure d’eau.
1. 3. Le charbon
38
L’eau : plus il reste de l’eau dans le charbon, plus bas est son pouvoir
calorifique.
Les volatils : il s’agit surtout de CO2, du méthane et d’autres hydrocarbures
ainsi qu’un peu d’argon et d’hydrogène. A pression atmosphérique, les gaz se
dégagent que les mineurs appellent Grisou.
- Les mines çà ciel ouvert : sont exploitées de manière analogue à des carrières.
Les taux de récupération que l’on peut y atteindre sont très élevés (90% contre
40% en souterrain). Cette forme de production représente 80% de la
production au canada, 60% aux Etats-Unis, 50% en Australie, 33% en Russie.
- Les mines souterraines comportent au moins deux puits, pour permettre la
ventilation nécessaire pour évacuer les gaz et climatiser la mine. Ce genre
d’exploitation pose de nombreux problèmes de sécurité : risques
d’éboulement, coup de grisou et l’inondation, les maladies pulmonaires, …
La transformation du charbon
- Il doit être nettoyé, trié et calibré pour être séparé en fonction des tailles et des
qualités.
- Pour la production d’énergie, on utilise des variétés abondantes et peu
coûteuses.
- Pour augmenter la qualité, le charbon est broyé de plus en plus finement pour
avoir une bonne combustion et diminuer ainsi les émissions de polluants
(oxydes d’azotes en particulier).
1. En général, deux grands produits sortent de la mine ;
a. Produits de qualité mis directement sur le marché ou vendus à la
cokerie
b. Les produits de faible qualité sont utilisés dans la production de
l’électricité.
c. Dans la cokerie, en plus de la coke, d’autres produits de synthèse sont
fabriqués: ammoniac, méthanol, goudrons, …
1.4. Le nucléaire
L’énergie nucléaire est utilisée depuis le 20ème siècle, essentiellement pour produire
de l’électricité et pour la propulsion maritime. Très controversée, elle comporte des
atouts indéniables, mais aussi des risques majeurs.
40
Parmi ces atouts, la très haute densité énergétique (une pastille de 7g de combustible
nucléaire contient autant d’énergie qu’une tonne de charbon). L’énergie nucléaire
exploitée actuellement par plus de 31% de pays, produit 16% de l’électricité mondiale,
soit autant que tous les barrages hydroélectriques du monde. La prise de conscience
du réchauffement climatique, les variations des cours du pétrole et du gaz et les
incertitudes géopolitiques des approvisionnements ont provoqué un regain d’intérêt
pour cette source d’énergie mal aimée du public. La production de l’électricité se fait
par fission nucléaire.
41
2. La production physique de l’énergie
Les énergies renouvelables qui sont inépuisables à l’échelle l’humanité sont promises
sur le moyen et le long termes à un développement important. Bien qu’elles n’ont pas
encore atteint une certaine maturité pour entrer en concurrence avec les énergies
classiques, les dimensions climatique et économique et les politiques étatiques
plaident en leur faveur.
42
Selon leur origine, on peut distinguer différentes catégories d’énergies
renouvelables :
La figure montre que ce flux d’énergie peut être obtenu directement en utilisant une
technologie thermique ou photovoltaïque (énergie solaire), ou indirectement, grâce
au vent (éolienne), aux vagues, aux barrages sur rivière (hydroélectricité) et aux
biocarburants (énergie de la biomasse dépendant de la photosynthèse).
- L’énergie des marées, provenant de l’attraction lunaire et solaire sur les océans
qui peut être exploitée grâce à une usine marémotrice.
- L’énergie géothermique (voir le point ci-dessous).
La chaleur produite par la terre est à l’origine de l’énergie géothermique. Dans le sol,
la T° augmente d’environ 1°C tous les 30 à 40 mètres. Dans le sol belge par exemple
la température augmente d’environ 30°C par Km pour une valeur de départ de 10°C à
43
la surface (Ben Laenen, 2012 : guide de la géothermie en Belgique). Le gradient
thermique est plus favorable dans les régions volcaniques, il peut dépasser 1°C par
2,5m. De manière générale, les roches poreuses dans lesquelles l’eau est stockée sont
coiffées d’un couvercle minéral imperméable. Néanmoins quelques fuites
apparaissent ; ce son les sources, les geysers et mud-pots.
a. Origine de la géothermie
Elle trouve son origine dans trois processus liés à l'histoire géologique de la terre.
b. Exploitation de la géothermie
Le flux thermique moyen issu de la terre est évalué à 0,06Wm2. Les gisements
géothermiques peuvent être subdivisés selon la profondeur à laquelle l’énergie peut
être produite, en :
44
Géothermie à température intermédiaire (100-200°C).
Géothermie à basse température (50°C à 100°C).
Dans le 1er cas, le fluide géothermique peut être essentiellement constitué d’eau ou de
vapeur, dans les deux autres, il s’agit de l’eau, éventuellement sous pression. Les
réservoirs géothermiques de vapeur ou d’eau chaude se forment lorsque le magma se
rapproche suffisamment de la surface de la terre pour chauffer les nappes
phréatiques. Quand la température dépasse 50°C, la source géothermique peut être
associée à des pompes à chaleur pour fournir du chauffage en hiver et de la
climatisation en été. A plus de 100°C, l’énergie géothermique peut être utilisée pour
produire de l’électricité ; comme est le cas dans certains pays : Islande (Les Geysers),
Italie (Lardarello), …figure 28
La chaleur est gratuite, mais les eaux thermales sont souvent corrosives pour les
tuyauteries des centrales.
45
2.1.2. L’énergie solaire
Le rayonnement reçu par la terre varie selon la période de l’année. Une partie de ce
rayonnement est absorbé et réfléchi par l’atmosphère de telle sorte que le
rayonnement reçu au sol comporte une partie diffuse et une partie directe.
46
depuis l’antiquité, soit dans des éoliennes à axe horizontal ou vertical, soit pour la
propulsion des navires à voile.
Les premières éoliennes remontent au 19ème siècle, même si leur conception était très
artisanale. C’est le Danemark qui a pris la tête dans le développement des éoliennes
modernes et domine le marché mondial. Les allemands, les espagnols et les
américains sont également des fabricants concurrentiels.
On peut récupérer une partie de cette énergie lorsque l’on fait passer l’eau dans une
turbine. La puissance que l’on peut extraire d’une chute d’eau est proportionnelle à
son débit et à sa hauteur. Il faut une grande quantité d’eau et une dénivelée
(différence d’altitude entre deux points de la surface terrestre). Pour produire
beaucoup d’électricité.
47
L’énergie hydraulique résulte de l’action du soleil à travers le cycle de l’eau, évaporée
de la surface de la terre, puis condensée sous forme de pluie.
Les petites centrales, à l’instar des grandes centrales hydrauliques, peuvent être
installées sur des chutes d’eau de dénivelées très variables (1,5 à 400m) et contribuer
de manière significative aux besoins locaux en électricité ou en puissance mécanique.
Historiquement, les moulins hydrauliques ont joué un rôle majeur dans l’essor
artisanal et industriel.
L’hydraulique est de très loin, avec 2800 TWh, la principale source d’électricité
d’origine renouvelable (Barré, 2007). La chine, le Canada, la Norvège et le Brésil sont
les pays les plus producteurs.
1820 : Oersted (Danois), remarque qu’une aiguille aimantée placée à côté d’un
fil conducteur traversé par le courant est déviée. D’une importance capitale,
l’expérience d’Oersted établit pour la première fois un lien entre électricité et
magnétisme.
48
1830 : Michael Faraday (Anglais), montre qu’un courant passe dans une
bobine lorsqu’on y introduit un aimant.
L’histoire du début des applications de l’électricité est dominée par les
découvertes du physicien anglais, Michael Faraday en 1830. En reliant les
bornes d’une bobine à un galvanomètre (sorte d’ampèremètre), il observe le
passage d’un courant dans la bobine, lorsqu’il introduit ou retire un aimant de
cette bobine.
L’importance de cette découverte est extrême car elle rend possible la production de
courant électrique sans avoir à utiliser de piles. L’énergie mécanique peut, dès lors,
être directement convertie en énergie électrique. C’est ce que font, depuis, tous les
alternateurs.
La transformation d’une source d’énergie primaire en énergie finale dans des
centrales électriques se fait au moyen d’un alternateur (générateur synchrone).
(Figure 29) ; partie commune à toutes ces centrales. Dans l’alternateur, la puissance
mécanique est convertie en puissance électrique.
L’équation ci-dessus montre que pour produire une f.é.m v suffisamment élevée
pour l’usage pratique, il est nécessaire d’obtenir un champ magnétique (donc un flux
magnétique) de fort niveau et d’un conducteur aussi long que possible.
L’alternateur est constitué d’une partie tournante appelée rotor (un ou plusieurs
aimants) et d’une partie fixe appelé stator (bobine ou ensemble de bobines).
49
Figure 20. Structure d’un alternateur
B. Fonctionnement d’une centrale électrique
Une centrale électrique établit une chaîne énergétique afin de fabriquer de
l’électricité: une énergie primaire (chimique, nucléaire, mécanique, ..) subit une ou
plusieurs conversions pour devenir finalement une énergie électrique (figure ci-
dessous).
50
d’électrons, c’est-à-dire l’électricité. Les électrons peuvent alors être envoyés, par les
lignes de transport, là où on en a besoin.
On emploie des roues géantes appelées turbines pour faire tourner les aimants à
l’intérieur de l’alternateur, ce qui nécessite beaucoup d’énergie. La source d’énergie
varie selon le type d’installation de production – on utilise un flot déversant dans une
centrale hydraulique (figure 30), la vapeur dans une centrale nucléaire ou une
centrale thermique qui brûle un combustible fossile et la force de l’air en mouvement
dans une éolienne.
51
Chapitre V. Stockage de l’énergie
1. Introduction
L’énergie est d’une manière générale très difficile à stocker, sauf sous forme de
carburants, notamment liquides. Aujourd’hui, on ne sait pas stocker dans des
conditions économiques de grandes quantités d’électricité, ce qui oblige les
gestionnaires de parcs de centrales électriques à moduler leur production pour
répondre à une demande qui fluctue fortement, que ce soit au niveau journalier ou
saisonnier (Gicquel, 2016).
Cependant, les ressources en combustibles fossiles sont par définition finies et face à
une demande constamment croissante en énergie, on pourrait aboutir dans les
prochaines années à un plafond de production. De ce fait, l’offre ne pourrait plus
suivre la demande. L’enjeu global est donc de trouver des alternatives de stockage de
l’énergie à celui de son stockage « naturel ou biologique » : fossile (pétrole, gaz et
charbon) ou non (bois, récoles agricoles, etc.).
Pour atteindre les objectifs de l’Union Européenne à savoir (la formule des 3 fois 20),
réduction des gaz à effets de serre, diminuer la consommation d’énergie et augmenter
la part du renouvelable dans la fourniture de l’énergie primaire, il est essentiel de
disposer de structures de stockage.
L’énergie finale issue des énergies renouvelables est recueillie sous forme d’électricité
qui est injectée dans le réseau de distribution. Cependant, la variation de la puissance
électrique qui en résulte n’est pas ajustée à la variation de la demande. L’adéquation
entre l’offre et la demande d’énergie peut être assurée en modulant la puissance d’un
système thermique de production de l’électricité.
52
L’augmentation de la part de renouvelables dans la fourniture d’énergie nécessite
donc la mise en œuvre de système de stockage de cette énergie.
Pour l’électricité ;
Pour la chaleur ;
Le stockage est différent puisque celle-ci peut être stockée directement via un
matériau, mais elle peut aussi être transformée en un potentiel chimique ou de
sorption par exemple.
a) Stockage Mécanique
53
- stockage gravitaire ou STEP (station de transfert d’énergie par pompage)
- Installation de stockage par air comprimé (CAES, Compressed Air Energy
Storage).
- Stockage basé sur le principe du volant d’inertie
b) Stockage thermique : chaleur latente ou sensible
c) Stockage physique : au moyen des sels fondus
d) Stockage électrochimique
- Batteries à base de lithium
- Batteries sodium soufre
- Batteries à flux ou à circulation d’électrolytes
Figure 23 Densité de stockage des différents modes de stockage pour application mobiles
54
2.1. Le stockage mécanique
A. Station de transfert par pompage (STEP).
En plus d’une énergie propre, les STEP offrent également des services
d’approvisionnement en eau, une sécurité énergétique et facilite la coopération
régionale et le développement économique.
Constituées de deux bassins situés à des altitudes différentes, les STEP permettent de
stocker de l’énergie en pompant de l’eau du bassin inférieur (phase de stockage de
l’énergie nécessitant de l’énergie) vers le bassin supérieur lorsque la demande
55
électrique est faible (périodes creuses). En période de forte demande électrique, elles
restituent de l’énergie électrique sur le réseau en turbinant l’eau du bassin supérieur.
Le bassin supérieur est aussi alimenté par un bassin versant ou par les fentes de
neiges au printemps et donc la quantité d’eau turbinée en phase de restitution peut
être supérieure à celle qui a été pompée.
Dans le monde, les plus grosses installations se trouvent aux États-Unis et en Chine
avec des puissances dépassant les 3GW. En Europe, la Norvège dispose d’une
capacité inexploitée de 20GW qui est convoité par les pays d’Europe du Nord pour
réguler leur production renouvelable future, l’Italie, l’Allemagne, la France et
l’Espagne. Les pays du Benelux se heurtent aux problèmes topologiques, ce explique
l’absence de ce genre de stations.
La technique consiste à envoyer de l’air sous pression dans des cavités souterraines
(anciennes mine de sel ou caverne de gaz naturel) pour de longues durées, ce qui en
fait une alternative envisageable au stockage hydroélectrique. Le rendement des
CAES est cependant réduit car la compression de l’air s’accompagne d’un
échauffement. Les coûts d’installation sont moindres que ceux d’une STEP, même si
les tests de sûreté nécessitent souvent des moyens aussi importants que le stockage
hydroélectrique.
Le concept CAES est apparu en 1970 dans le cadre d’un projet européen, avec une
installation pilote de 290MW, toujours fonctionnelle, en Allemagne. L’air est stocké
dans le sous-sol à une profondeur entre 650 et 800m, à une pression d’environ
70bars et à une température proche de la température ambiante.
Une centrale de stockage de l’énergie par air comprimé est une centrale à gaz
modifiée. Elle permet de stocker de l’électricité en excès en la transformant en un
potentiel d’air comprimé susceptible d’être retransformé ultérieurement en électricité
par turbinage. Le principe de fonctionnement est le suivant :
Le stockage par air comprimé améliore non seulement le rendement par rapport à
une turbine à gaz qui fournirait le même service (35%), mais aussi réduit de façon
importante la consommation de combustible, qui n’est plus que le tiers de celui
nécessaire à la turbine pour la même puissance.
Il s’agit d’une gamme qui a pour objectifs de corriger les carences de la première
génération. Voici les options revues :
Projet européen réalisé dans les années 2000. Il portait sur un stockage adiabatique
d’énergie sous forme d’air comprimé (AA-CAES) avec un certain nombre
d’améliorations par rapport au procédé CAES classique.
57
Lors de la phase de compression, la chaleur produite par la compression de l’air
est récupérée en vue d’améliorer le rendement de l’installation. L’air comprimé
chaud est conduit vers un réservoir échangeur, où il cède sa chaleur avant d’être
temporairement stockée à faible température dans la caverne souterraine. Il y’ a
donc simultanément stockage d’air comprimé sous pression dans des cavités
souterraines, et stockage de la chaleur dans un récupérateur thermique.
58
sous forme d’énergie cinétique. Elle pourra être restituée en utilisant un moteur
comme génératrice électrique, entraînant la baisse progressive de la vitesse de
rotation du volant d’inertie. Les systèmes de stockage par volant d’inertie ont une très
forte réactivité et une grande longévité. En effet, ce système peut absorber de très
fortes variations de puissance sur de très grands nombres de cycles. Cependant, les
volants d’inertie subissent des pertes de charge en raison de phénomènes
d’autodécharge et ne permettent pas d’obtenir une durée d’autonomie importante.
Figure 26. Enthalpie emmagasinée dans un matériau lors d’un changement de phase : solide-liquide
59
Les installations de stockage thermique consistent majoritairement les marchés
industriels et tertiaires et les bâtiments (pour plus d’informations, voir power-point).
Constitution
Chaque batterie comporte une électrode négative capable de fournir des électrons (é)
au circuit extérieur lors de la décharge et une électrode positive qui accepte des é de
retours vers l’accumulateur. (Les électrodes sont dites : masses actives positive et
négative). Le passage des é se fait au moyen de conducteurs électroniques (fil
métallique par exemple). Les deux électrodes ont des compositions chimiques
différentes. Les deux électrodes baignent dans une solution électrolytique (ou
électrolyte), liquide ou sous forme de gel. C'est la réaction entre la solution et les
électrodes qui est à l'origine du déplacement des électrons et des ions dans la
solution. Ainsi, l'électrolyte a pour fonction d'assurer la conduction ionique et, plus
généralement, de participer à la réaction chimique. Les deux électrodes sont séparées
par un séparateur qui empêche le passage direct des é de la négative vers la positive à
l’intérieur de la batterie
60
Lors de la décharge, il y’a formation du sulfate de plomb (PbSO4) qui se dépose sur
les deux électrodes.
A l'électrode positive,
PbO2 + HSO4- + 3 H+ + 2 e- ==> PbSO4 + 2 H2O
A l'électrode négative,
Pb + HSO4- ==> PbSO4 + H+ + 2 e-
Lors de la charge, à l'électrode positive, les ions Pb2+ du sulfate de plomb sont oxydés
en dioxyde de plomb Pb02.
PbSO4 + 2 H2O ==> PbO2 + HSO4- + 3 H+ + 2 e-
A l'électrode négative, le sulfate de plomb est réduit en plomb métal.
PbSO4 + H+ + 2 e- ==> Pb + HSO4- + H2O
Le principe de fonctionnement d’une batterie est basé sur des réactions de type
oxydo-réduction (réaction chimique de transfert d’é).
L’électrolyte n’est pas consommé comme dans le cas des batteries au plomb.
-Batteries alcalines
-Accumulateur Ni-MH
Pour les deux types de batteries (voir power-point)
61
Conclusion
62
Chapitre VI. Intensité et efficacité énergétique
1. Intensité énergétique et création des richesses
La création de la richesse des pays s’est effectuée en consommant des quantités importantes
des énergies fossiles. Cassoret (2018), confirme que dans les pays riches, le PIB s’est
considérablement élevé après la seconde guerre mondiale, en même temps que la
consommation du pétrole. Toutefois, il faut bien moins d’énergie primaire aujourd’hui qu’il
en a fallait jadis pour produire la même quantité de richesses. Cette relation entre la
consommation d’énergie primaire d’un pays et la création des richesses (en termes de PIB) se
mesure à l’aide d’un indicateur appelé l’intensité énergétique. Autrement, l’intensité
énergétique est une mesure de l’efficacité énergétique d’une économie qui montre combien
d’énergie est nécessaire pour produire une unité de produit intérieur brut (intensité et
efficacité sont inversement proportionnel) (De Gerlache, 2019). L’intensité énergétique peut
être appliquée par secteur : transports, bâtiments, etc. Elle s’exprime en kWh/€ (ou en
MWh/K€). Plus l’intensité énergétique est faible plus l’économie est performante puisqu’elle
faut moins d’énergie pour produire une quantité de richesse équivalente.
N.B. Le PIB est un indice révélateur de la croissance économique d’un pays. Le PIB par
habitant mesure de façon approximative le niveau de vie à travers l’accès à des biens et à des
services.
L’intensité énergétique varie fortement dans le temps et dans l’espace, ce qui s’explique
autant par la structure de la consommation d’énergie que par celle du PIB. En effet, un PIB à
63
fort contenu industriel consommera plus d’énergie qu’un PIB à dominante agricole ou
tertiaire (Hansen, 2019). Le poids des industries énergivores (sidérurgie, pâte à papier, verre,
ciment, aluminium, etc.) est un déterminant d’un fort contenu énergétique du PIB.
Depuis le début de la révolution industrielle, les réductions d’intensité énergétique ont été
considérables (figure 20). Alors qu’au milieu du 19ème siècle, il fallait plus de 7 kWh pour
produire un euro de richesse, en 2015 ce chiffre était réduit à 2,4 kWh.
Fig. 27. Evolution de l’intensité énergétique depuis le début de la révolution industrielle (source : Charlez 2017).
L’historique de l’intensité énergétique suit une courbe d’apprentissage. Elle met en évidence
trois périodes économiques.
- La première période : l’intensité énergétique croît. Elle correspond à l’étape de
constructions d’infrastructures lourdes (nécessaires pour le développement économique :
industrie, réseaux de transports, aménagement urbain).
- La deuxième période : phase de saturation qui se manifeste par un maximum.
- La troisième période : phase de décroissance de la consommation énergétique ; la
consommation de matériaux de base à forte composante énergétique se stabilise, services
moins consommateurs de l’énergie se développent, et grâce à la technologie, l’efficacité
énergétique s’améliore.
Cette évolution en cloche (croissance-stabilisation et décroissance) de l’intensité énergétique
pourrait laisser croire que tous les pays qui s’industrialisent devraient connaître une telle
situation. Toutefois, l’avènement de la technologie, dont certains pays économiquement forts
aujourd’hui ne disposaient pas dans le temps, nous laissera également croire que les pays en
développement ne seront pas condamnés à suivre le même cheminement.
L’intensité énergétique varie fortement d’un pays à l’autre. Bien sûr, la situation
géographique, les conditions climatiques ou certaines pratiques culturelles, les politiques de
maîtrise de la consommation mises en œuvre, sont autant de facteurs qui peuvent intervenir.
Mais, pour l’essentiel, elle dépend surtout du degré de maturité du modèle économique (poids
64
des industries et des services). Une économie à forte intensité énergétique correspond à un
modèle industriel très énergivore dont la technologie reste souvent rudimentaire (Charlez,
2017). Au contraire, une économie à faible intensité énergétique se caractérise par davantage
de services et se montre beaucoup plus avancée en termes d’efficacité énergétique. Sa
réduction reflète donc à la fois une amélioration de la compétitivité, mais aussi de profondes
mutations sociétales.
La figure suivante, reprend les valeurs de l’intensité énergétique dans certains pays. On peut
remarquer que pour produire la même quantité de richesse, il y a une nette distinction à faire
entre les pays émergents (tous supérieurs à la moyenne mondiale) et les pays de l’OCDE (tous
inférieurs à la moyenne mondiale). Cette figure montre clairement, une fois encore, que les
principaux leviers de la transition se situent dans les pays émergents (faible technologie,
consommation accrue de l’énergie pour produire des richesses).
Selon l’Agence internationale de l’énergie (AIE), d’ici 2050, l’efficacité énergétique est
le moyen le plus économique et le plus rationnel de réduire les émissions et
d’améliorer la sûreté de l’approvisionnement en énergie. Ainsi, l’Union européenne a
fait de ce volet l’une de ses priorités. Elle a adopté la directive 2012/27/UE pour
promouvoir cette efficacité au sein des Etats membres et d’atteindre l’objectif de
20 % de réduction des consommations d’énergie à l’horizon 2020 (l’un des objectifs
de la règle 3 fois 20 !).
65
Cette directive impose aux États membres le calcul d’un objectif indicatif national en
matière d’efficacité énergétique ainsi qu’un cadre commun de mesures
contraignantes en ce qui concerne les économies d’énergie. Parmi ces mesures, on
peut citer :i) une rénovation annuelle de 3% des bâtiments de l’Etat (art. 5), ii) Des
investissements à long terme dans la rénovation du parc national des bâtiments à
usage commercial et résidentiel, public et privé (art.4), iii) Des audits énergétiques et
systèmes de management de l'énergie pour les grandes entreprises (art. 8), etc. A côté
de ce socle commun, chaque Etat membre est libre de développer en complément ses
propres mesures.
66
Chapitre VII. L’énergie et les questions d’environnement
67
La combustion est une réaction chimique d’oxydation impliquant un combustible
(généralement un hydrocarbure) et un comburant (l’oxygène). Ci-dessous l’exemple
de la combustion du méthane.
CH4 + 2O2 CO2 + 2H2O + 890kJ/mole de CH4
La contribution de l’énergie à la pollution atmosphérique peut être envisagée de deux
manières :
- Une contribution directe : il s’agit notamment de polluants émis lors de la
production de l’électricité par voie conventionnelle (centrales à base du gaz, du
pétrole et du charbon).
- Une contribution indirecte : le transport routier, aérien et maritime, utilisant les
dérivés du pétrole, l’industrie, le chauffage domestique (smog, fines particules, etc.).
Outre le monoxyde de carbone (CO) émis lors d’une combustion incomplète, le
dioxyde de carbone et la vapeur d’eau, les impuretés de combustion sont composées
principalement de monoxyde d’azote (NO) (pollution particulaire).
Lorsque la combustion est bien réglée, il s’agit de particules fines dont le diamètre est
majoritairement inférieur à 1µm. Les particules sont des imbrûlés, c'est-à-dire
constituées d’un noyau de carbone sur lesquels se condensent des hydrocarbures
dont certains sont cancérigènes, des composés de soufre sous forme principalement
de sulfates.
Selon le type de polluants, les mesures de dépollution peuvent être prises à l’échelle
locale ou internationale. Au niveau local, les particules fines impliquées dans des
pollutions dites sensibles proviennent essentiellement des véhicules à moteur diesel.
En Europe, par exemple, des normes dites « EuroX » ont été imposées sur tous les
véhicules lors de leur mise en circulation, à compter du seuil Euro 0 en 1990, puis par
paliers successifs : Euro 1, Euro 2, etc. Ces performances ont été obtenues au prix de
travaux considérables sur les technologies de ces moteurs.
68
1. Impacts de l’énergie sur l’atmosphère ; une question d’actualité
Effet de serre ? Les gaz à effet de serre (GES) présents dans l'atmosphère
contrôlent en grande partie la température sur la Terre. Comme la vitre d'une serre,
ils bloquent le rayonnement solaire réfléchi par la surface terrestre et retiennent ainsi
la chaleur. Sans cet effet de serre, la température moyenne sur la Terre serait
d'environ -18 °C et la vie telle que nous la connaissons serait impossible.
69
Figure 29 : le principe de l’effet de serre
Outre la contribution de nombreuses activités humaines dans les émissions des gaz à
effet de serre (élevage agricole, industrie, déchets, transports,…), la combustion des
énergies fossiles (charbon, pétrole et gaz naturel) produit de nombreux oxydes et du
CO2 demeurant jusqu’à plusieurs siècles dans l’atmosphère avant d’être recyclés dans
des puits à carbone comme la végétation (photosynthèse).
Le tableau ci-dessous regroupe les gaz à effets de serre, leur source principale, leur
pouvoir absorbant et leur contribution au réchauffement climatique.
Les activités énergétiques participent pour une part significative à l’effet de serre et à
son augmentation :
70
La combustion des combustibles fossiles représente environ 74% des
émissions de CO2 dues à l’homme, le reste provenant essentiellement de la
déforestation ;
La combustion des combustibles fossiles et de la biomasse représente près de
70% des émissions anthropogéniques de N2O ;
Dans le cas du méthane (CH4), la majeure partie des émissions provient de la
fermentation des matières organiques, la distribution et l’utilisation des
combustibles étant estimées représenter 10 à 30% du total.
La répartition sectorielle des émissions des gaz à effet de serre est donnée par la
figure suivante :
71
De Rio de Janeiro, en passant par le protocole de Kyoto, à la COP 25.
Le Sommet de la Terre s’est tenu à Rio de Janeiro en juin 1992. C’est là qu’a été
lancée la Convention cadre des Nations unies sur le changement climatique, un texte
fixant un objectif de « stabiliser les concentrations des gaz à effet de serre dans
l’atmosphère à un niveau qui empêche toute perturbation anthropique dangereuse
du système climatique». Aujourd’hui, pratiquement tous les pays du monde, États-
Unis inclus, sont signataires de cette convention. Ceci indique qu’il y a un consensus
parmi les États du monde sur les dangers de l’effet de serre et sur la nécessité d’une
action pour s’en protéger. Ce Sommet de la terre a donné naissance par après au
protocole de Kyoto signé en 1997, mais qui n’est entré en vigueur qu’en 2005 après
que 55 pays représentant 55% des émissions des gaz à effet de serre l’ont ratifié. Ce
texte impose une réduction de 8% des gaz entre 2008-2012 en considérant 1990
comme année de référence (Brohé, 2008). Ce protocole représente le seul traité
international contraignant qui se rapporte au problème du climat. Il n’est toujours
pas signé par les États-Unis (qui représentent 25% des émissions), qui déplorent la
concurrence des pays émergents comme la Chine et l’Inde non soumis au protocole et
qui devaient sortir leur population d’une extrême pauvreté. Toutefois, à partir de
2007, la donne a changé, la Chine est devenue le premier émetteur mondial des gaz à
effets de serre (Chauveau, 2009).
Le protocole de Kyoto devait expirer en 2020 et être remplacé par un nouveau texte,
qui est l’objet de la COP 21 (21ème Conférence des Parties, Paris décembre 2015), la
convention cadre des Nations unies sur les changements climatiques. En 2009, la
15ème conférence qui se tenait à Copenhague pour discuter le remplacement du
protocole de Kyoto s’est soldée par un échec total vu le manque d’un engagement
72
chiffré et le fait que tous les pays concernés prônent uniquement la coopération
comme slogan à une réduction aussitôt que possible.
Depuis 2011, les COP, qui sont tenues à Durban, Doha, Varsovie et Lima ont toutes eu
comme objectif de préparer un accord en 2015. L’objectif de la COP21 (Paris) est de
conclure le premier accord universel et contraignant applicable à partir de 2020 aux
195 pays pour limiter la hausse des températures à 2°C par rapport à l’ère
préindustrielle.
D’autres COP (22 , 23, 24 et 25) ont été tenus respectivement à Marrakech, à Bonn,
à Katowice (Pologne), et à Madrid (décembre 2019). Cette dernière a donné « des
résultats médiocres » et a renforcé la crise climatique selon tous les acteurs en
environnement. Il faut savoir que la question climatique n’est plus une priorité
partagée par tous les pays. Comme attendu, les États-Unis, le Brésil et l'Australie ont
tout fait pour saper la dynamique. Mais le plus gênant vient du Canada, du Japon,
de la Chine et de l'Inde, qui n'ont pas été à la hauteur pour contrer ces pays. L'Union
européenne, à elle seule, n'a pas réussi à faire basculer le leadership du côté de
l'ambition (souligne Florence Roussel, journaliste Actu-Environnement : pour plus d’infos sur cette COP 25,
https://www.actu-environnement.com/ae/news/Conference-climat-cop-madrid-chili-
resultats-deception-34635.php4).
73
Le GIEC estime que la température à la surface de la terre a augmenté de 0.85°C en
moyenne depuis 1880 et devrait croitre de 0.3 à 4.8°C d’ici 2100 en fonction de
l’évolution des gaz à effet de serre (Garric, 2015).
74
d) Les effets sur la santé humaine
Le changement climatique va avoir un effet indirect sur la santé humaine. Les
habitats des moustiques et d’autres vecteurs (transporteurs) de maladies vont
sûrement s’étendre à de nouvelles régions qui vont devenir chaudes. On aura des
maladies comme le paludisme, la fièvre jaune, le choléra,…etc.
e) Les effets sur l’agriculture
- Augmentation de la dureté et la fréquence de la sècheresse
- Augmentation des températures nocturnes auront des effets sur certaines
cultures notamment la tomate qui ne fait des fruits que si les températures
nocturnes descendent en dessous d’un seuil. D’autres cultures demandent des
étés frais et ou des gelées hivernales comme les myrtilles, les pommes ou le
brocoli.
- Au niveau des régions, les modèles actuels prévoient que la productivité
agricole augmentera dans certaines régions et diminuera dans d’autres. Ces
modèles suggèrent que le Canada et la Russie pourront peut-être augmenter
leur productivité agricole sous un climat plus chaud, tandis que les régions
tropicales et subtropicales, où vivent une grande partie des populations les
plus pauvres du monde seront les plus touchées par une productivité agricole
en baisse. L’Amérique centrale et l’Asie du sud-est risquent de connaître
certaines des plus grandes baisses de productivité agricole.
75
B. Les pluies acides
L’eau de pluie est normalement acide. La relation entre la composition chimique des
précipitations et la pollution de l’air a été montrée en 1852 par le chimiste anglais,
Robert Angus Smith en faisant des analyses sur la composition de l’eau de pluie et
celle de l’air de la région de Manchester.
La part imputable à l’énergie dans les pluies acides n’est pas clairement établie, mais
il semble indiscutable qu’elle joue un rôle important, du fait des émissions d’oxydes
de soufre et d’azote liées à la combustion des carburants liquides et solides (pétrole et
charbon). Les acides se forment dans l’atmosphère en phase gazeuse et ils se
dissolvent ensuite dans l’eau des hydrométéores : gouttes de nuage, de pluie, de
brouillard.
Des polluants sont injectés par voie
naturelle et humaine dans
l’atmosphère. En phase gazeuse, il se
forme des particules acides sèches et
humides qui vont se retrouver dans
l’environnement (forêts, sols, eaux
ou bien piégés dans les matériaux).
La lutte contre les pluies acides s’est traduite en Europe par la décision d’équiper les
véhicules automobiles de pots catalytiques et par le renforcement des mesures
réglementaires pour la génération d’électricité par le charbon.
L’ozone est une forme moléculaire particulière de l’oxygène qui répond à la formule
O3.
Au niveau de l’atmosphère, il occupe deux réservoirs :
- La stratosphère (entre 12 et 50 km d’altitude) : pour 97%, on parle de l’ozone
stratosphérique qui absorbe les rayons ultraviolets qui peuvent être nocifs
pour la santé humaine
- La troposphère (partie entre la terre et la stratosphère entre 8 à 12 km
d’altitude) ; dont l’accroissement est liée à l’activité humaine (mauvais ozone).
Il participe à l'effet de serre renforcé en permettant de conserver les gaz à effet
de serre sur la surface de la Terre. Cet ozone est également un constituant du
smog.
Sans l'ozone stratosphérique, la vie sur la surface de la Terre serait impossible à long
terme.
La concentration en ozone de la stratosphère varie de manière saisonnière au dessus
des pôles (phénomène lié à la rotation de la Terre et aux variations saisonnières des
mouvements atmosphériques de convection). Depuis la fin des années 70, on a
constaté une réduction nette et progressive de la concentration en O3 au-dessus des
pôles : la couche d’ozone présente une zone centrale particulièrement appauvrie,
qualifiée de « trou » d’ozone.
77
À l'inverse, l'ozone que l'on retrouve dans la troposphère (mauvais ozone, crée par
l’Homme) entre dans nos poumons et nuit à notre santé. Cet ozone est formé lorsque
les rayons solaires réagissent avec les molécules d'oxydes d'azote issus des gaz
d'échappement des voitures ou des usines. L'ozone troposphérique se combine à
d'autres polluants atmosphériques, comme le dioxyde d'azote et le dioxyde de soufre,
pour former le smog
En 1985, Farman et ses collaborateurs du British Antarctic Survey ont montré que la
quantité d’ozone au dessus de l’Antarctique avait diminué de plus 30% au printemps,
depuis la fin des années 70 (Fontan, 2003). La rupture de la couche d’ozone est
imputable à de nombreux gaz en particulier ceux qui contiennent le chlore. Parmi ces
gaz, figurent les chlorofluorocarbones (CFC), dont l’usage est pour environ 60%
directement lié à des applications énergétiques : production des isolants
thermiques en mousse expansée et utilisation comme fluide frigorigènes dans les
équipements de climatisation, les réfrigérateurs et les congélateurs.
78
scientifiques de l’époque sur la chimie des CFC, les pays industrialisés signataires du
traité ont fixé des limites strictes à l’utilisation de ces molécules chimiques.
Voici de manière simplifiée, les objectifs de l’UE aux horizons 2020, 2030 et 2050.
79
b) Objectifs pour 2030
Réduire de 40% les émissions de GES
Faire passer à 27% au moins la part du renouvelable
Améliorer de 27 à 30% l’efficacité énergétique
Atteindre 15% d’interconnexion électrique (autrement dit 15% de l’électricité
générée dans un pays de l’UE pourra être transférée ailleurs dans
l’Union).
c) Objectifs pour 2050
Réduire de 80 à 95% les émissions de GES par rapport aux niveaux de 1990.
La feuille de route pour l’énergie à l’horizon 2050 décrit les mesures à prendre
pour atteindre l’objectif. Pour y parvenir, l’Europe doit atteindre les
objectifs fixés pour 2030 (notamment une réduction de 40% de GES) et de
60% d’ici à 2040.
L’ensemble de ces objectifs insiste sur le rôle à jouer par les technologies propres. En
effet, des progrès considérables ont été réalisés dans tous les domaines prioritaires
regroupés dans ce qu’on a appelé le Plan stratégique des technologies propres de
l’énergie (PSTE). Le PSTE est composé de cinq dimensions : 1) Assurer sécurité
énergétique, solidarité et confiance (diversifier et faire une meilleure utilisation de
l’énergie produite dans l’UE), 2) Créer un marché interne de l’énergie, 3), augmenter
l’efficacité énergétique, 4). Décarbonation de l’économie (stimuler la mise en œuvre
de l’accord de Paris), 5) Stimuler l’innovation (technologie à faible intensité carbone)
(figure ci-dessous)
Figure 23. Le cadre stratégique pour une union de l’énergie résiliente : cinq dimensions qui se
renforcent mutuellement.
80
L’objectif du PSTE, est de renforcer l’économie de l’UE grâce à des technologies
propres et des énergies neutres en carbone, favorisant ainsi la croissance de l’emploi.
De réduire l’utilisation des ressources essentielles, de rendre l’Europe moins
dépendante des importations de pétrole et de gaz et en fin de réduire la pollution
générée par les combustibles fossiles.
Pour aller dans ce sens, l’UE va soumettre le plan à une consultation publique en
2013, on va assister également à un renforcement du cadre légal : étendre en 2016 le
système d’échange de quotas d’émission de carbone à d’autres secteurs non couverts
jusque-là.
81
Une réduction de 15% des émissions de gaz à effet de serre par rapport à leur
niveau de 2005 dans les secteurs qui ne sont pas couverts par le système
communautaire d’échange de quotas d’émission (logement et transports);
Un objectif indicatif de réduction de 18% de la consommation d’énergie
primaire en 2020
Une part de 13% des sources d’énergie renouvelables dans la consommation
finale brute d'énergie. Ce chiffre a été atteint en 2021 grâce notamment au principe
de solidarité européenne en matière d’énergie (interconnexion électrique). Et aux
progrès réalisés dans les industries énergétiques et les activités manufacturières qui
ont le plus contribué à la baisse globale des émissions depuis le milieu des années
2000, en raison essentiellement de l’abandon progressif des combustibles solides au
profit des combustibles gazeux, de la progression de la production d’électricité à
partir des sources renouvelables et de la fermeture de certaines installations
sidérurgiques. Toutefois, le problème provient essentiellement des deux principaux
secteurs ne relevant pas du système d’échange de quotas d’émissions : les transports,
dont les émissions se sont accrues de 20.5 % en 1990-2012 ; et le logement, où les
émissions ont diminué, mais restent très élevées par rapport aux pays de l’OCDE.
(OCDE, 2015).
Pour la période 2021-2030, la Belgique comme tous les pays de l’UE dans le cadre
du fameux PSTE, a finalisé fin 2019 un Plan National d’Énergie Climat (PNEC), qui
doit expliquer comment le pays compte contribuer aux objectifs climatiques à
l’horizon 2030.
82
compétences et l’absence d’organe de coordination indépendant“ deux freins au
développement » d’une vision commune à long terme et à la mise en œuvre de
politiques cohérentes ».
83
Chapitre VII. Production énergétique et environnement : analyse
économique
Nombreuses sont les externalités négatives liées notamment aux effets des activités
anthropiques sur le fonctionnement de l’environnement (déforestation, perturbation
des cycles de la matière, disparition de la biodiversité, etc.). Ces externalités
représentent des défaillances de l’économie du marché qui se traduisent par une
mauvaise allocation des ressources entre agents économiques. L’un des objectifs de
l’économie des ressources naturelles (gestion de la rareté) et de l’environnement
(étude d’incidence) est d’intégrer ces externalités dans la comptabilité économique
afin de réorienter le comportement des agents économiques et de dédommager les
pertes qui leur sont associées.
85
ce cadre que se sont par exemple développés les mécanismes de marché sous
forme d’échanges de quotas ou d’achats de certificats (permis de pollution) de
réduction des émissions. C’est le cas aussi de règlementations concernant les
performances environnementales d’un appareil (exemple les émissions de
particules fines d’un véhicule automobile). Il y a aussi des taxes dites affectées
qui n’ont pas pour objectif d’inciter les choix des agents, mais de constituer
une réserve de fond destinée à financer les opérations de lutte contre une
pollution donnée.
l’obligation de moyens : c’est le cas de l’instauration d’une taxe incitative pour
changer les comportements techniques d’agents industriels fabricants des
biens et les comportements des usagers de ces biens plus conformes à des
objectifs environnementaux donnés. C’est sur base de ce principe qu’on évoque
la mise en place d’une taxe carbone (voir plus loin) progressivement croissante
pour les lutter contre les émissions de CO2.
86
ses effets sur les générations futures, les effets d’accidents comme celui de
Tchernobyl), et le prix accordé à la vie humaine.
D’une manière générale, pour chiffrer les dommages, les économistes doivent
valoriser des objets non cotés sur un marché. Par exemple, les évaluations
monétaires de la biodiversité et des écosystèmes posent énormément de problèmes.
De ce qui changement climatique, les économistes doivent donner un prix aux pertes
humaines que provoquerait une augmentation de la température. A cet égard, les
méthodes classiques utilisées (la méthode de consentement à payer ou celle des
revenus d’une vie) montrent clairement que la valeur des habitants des pays
développés vaut plusieurs fois celle d’un habitant d’un pays en développement. Ceci
reste un frein à l’estimation des dommages du réchauffement climatique.
Toutefois, malgré les critiques qu’on fait à ces méthodes d’évaluation des risques et
d’internalisation des coûts, ils ont eu quand même le mérite de proposer un cadre
référentiel dans le processus de prise de décision.
87
La concurrence pure et parfaite entre agents conduit normalement à une situation
optimale d’équilibre au sens de Pareto, économiste néoclassique italien. L’optimum
correspond à un état de la société dans lequel on ne peut pas améliorer le bien être
d’un individu sans détériorer celui d’un autre.
88
En pratique, trois solutions ou instruments de régulation sont alternativement ou
conjointement utilisées par les pouvoirs publics (l’Etat) pour limiter les émissions de
CO2 : normes légales, les taxes et les permis d’émission négociables.
a) L’instauration de normes : par norme on désigne au sens large un
ensemble de règles obligatoires édictées par les autorités publiques. La
constitution, les lois, les ordonnances, les décrets, les règlements ou arrêtés
représentent autant de normes. Les normes représentent un moyen indirect
pour fixer le prix du CO2 (normes de rejet de CO2 à ne pas dépasser par
exemple). Système simple, tous les opérateurs sont soumis à la même règle et
nul n’étant censé ignorer les normes. Fixer les normes, c’est opter pour un prix
implicite du carbone, une sorte de valeur de référence. Un exemple concret est
celui du secteur automobile (zones basses émissions) avec les normes
d’environnement (Euro1, 2, 3, 4 etc.). Les normes appelées aussi « label » sont
très différentes d’un pays à un autre. Parmi les normes internationales, les plus
connues figurent les règles ISO (Association Internationale de Normalisation).
Il existe des normes ISO spécifiques à chaque secteur de production. De ce
qui est énergie, nous pouvons citer la norme ISO 50001 qui propose les
modalités pratiques pour réduire la consommation énergétique par la mise en
place d’un système de management de l’énergie.
b) L’instauration de taxes et mesures de subvention. Il s’agit ici de la taxe
pigouvienne (par rapport à Arthur Pigou, néoclassique britannique) ; qui aura
effet sur le prix de vente du produit à l’origine de la pollution, donc supporté à
la fin par le consommateur. Une taxe qui procure des recettes fiscales à l’État
tout en envoyant un bon signal au consommateur. C’est le cas des taxes sur les
produits pétroliers notamment après le premier choc pétrolier et qui ont été
conçues comme un simple impôt à la consommation. Sans parler
explicitement de la taxe CO2, l’accroissement de la fiscalité sur les énergies
fossiles se justifie comme des contraintes financières indispensables à la
transition énergétique. En parallèle, pour encourager le déploiement de
l’éolien et du solaire, qui sont encore loin d’être économiques, la plupart des
Etats sont dans une politique de subvention massive !
Pour éviter de pénaliser les entreprises, les subventions sont supportées en
priorité par les particuliers via une augmentation de la taxe sur les énergies
fossiles, mais aussi et surtout sur l’électricité. Il n’est donc pas surprenant que
89
là où la transition vers les renouvelables est la plus avancée, le tarif du kWh
soit beaucoup plus cher pour les particuliers (Charlez, 2017).
c) Le marché du carbone ou tout simplement la mise en place de quotas avec
mécanismes d’échange est une autre option qui permet de donner un prix aux
GES. Une entité publique internationale (Nations Unies), régional (Union
européenne) ou nationale (les Etats) distribue un droit à émettre gratuitement
jusqu’à un certains plafond. C’est le système adopté depuis 2005 dans l’Union
européenne pour les émissions de CO2, qui est en pratique un
« marchandage de Ronald Coase, 1960 ». Selon la théorie de Coase, un
marchandage entre les agents concernés conduit à la réalisation d’une
allocation optimale des ressources, en cas d’externalités, si certaines
conditions sont simultanément réunies.
Tous les agents concernés participent à la négociation
Ils peuvent réaliser entre eux des transactions monétaires
Ils négocient sans frais, c’est à dire qu’il n’y a pas de coûts de
transaction attachés au déroulement de la négociation
Ils sont parfaitement informés des conditions de cette
négociation
Le marchandage est mené jusqu’au point où il n’est plus possible
d’améliorer, au bénéfice de tous les participants, la situation à la
quelle ils sont parvenus.
L’attribution des quotas d’émissions de CO2 est déterminée par les pouvoirs publics
et le prix du quota est fixé par la loi de l’offre et de la demande. Trois solutions sont
envisageables :
90
des émissions. Deux difficultés à noter : certains pays profitent des
efforts des autres sans s’engager dans le programme de réduction, le
caractère contraignant ou non des engagements pris (en absence de
lois, certains pays ne respectent pas les engagements de réduction).
- Utiliser le principe d’une carte carbone. Chaque personne se voit
remettre par son gouvernement un quota individuel de droits
d’émissions qu’il utilise au moment où il consomme de l’énergie, ces
droits figurent sur une carte à puce.
91
dans les rangs des économistes. Ainsi à la question comment introduire un prix du
carbone, voici la liste de quelques œuvres historiques liées à la problématique :
-Alfred Marshall, économiste néoclassique a proposé une taxe « environnementale »
en 1880, avec le souci de financer un fonds destiné à améliorer les conditions de vie
de populations ouvrières (ici c’est une externalité positive).
-Arthur Cecil Pigou en 1920, inspiré par les travaux d’Alfred Marshall, a instauré une
taxe (taxe pigouvienne), mais dans le souci de lutter contre la pollution, cette taxe
devait correspondre au coût supporté par les victimes des externalités négatives.
-Dans les années soixante, les économistes ont proposé une autre voie pour
internaliser les externalités environnementales : définir des droits de propriété
représentant l’externalité et mettre en place un marché de pollution. Ronald Coase
(économiste britannique, prix noble d’économie en 1991), a critiqué la taxe de Pigou
et a montré que moyennant des conditions préalables relatives à la définition de
droits de propriété et à l’absence de coûts de transactions prohibitifs, les parties en
présence peuvent négocier une solution au sein d’un marché qui permettra
d’internaliser l’externalité et de satisfaire aux conditions d’allocation optimale (c'est-
à-dire une allocation automatique par le jeu des échanges et des marchandages
auxquels les agents procèdent).
Les pollueurs disposent d’un quota d’émissions qu’ils ne peuvent théoriquement pas
dépasser, mais rien ne les empêche d’acheter des quotas à d’autres agents ou de
vendre leurs quotas s’ils ne l’utilisent pas. Ils peuvent aussi en acquérir en les
achetant à d’autres agents.
La taxe carbone est un outil qui fixe le prix du carbone sans maîtriser les
quantités de CO2 émises (politique des quotas). Ce genre de taxe peut être
d’application pour les petits émetteurs difficiles à intégrer dans le système de quotas
(la taxe reste d’application au niveau national). Tandis que sur un marché de permis,
on cherche à quantifier les émissions et à placer un plafond de pollution. Dans ce
marché, le prix peut être volatil en fonction de pas mal de paramètres (conjoncture
économique, météo, de la spéculation, etc.).
92
Pendant les années 1990, l’Union européenne n’était pas parvenue à imposer cette
taxe au secteur industriel et il a fallu mettre en place un autre système aux effets
comparables en termes d’internalisation de la pollution : le système de quotas.
Les systèmes des quotas sont nés d’abord aux USA afin de limiter les émissions
d’oxyde d’azote et de soufre. La thématique environnementale adressée par ce
marché obligatoire de droits d’émission concernait la pollution par les pluies acides
(Brohé, 2010). Le marché mondial du carbone est venu par après et représente l’un
des acquis les plus remarquables du protocole de Kyoto.
Au niveau européen, le système mis en place consiste à répartir, entre les acteurs
industriels gros émetteurs de CO2, un montant attribué à chaque pays membre. Les
acteurs sont autorisés à échanger les permis entre eux à un prix fixé sur le marché par
la loi de l’offre et la demande. Ils seront amenés, à respecter la contrainte
d’émission selon les quotas. Il faut soit réduire ses émissions au niveau des quotas
attribués, soit en achetant des permis à d’autres industriels qui sont parvenus à
réduire leurs émissions en dessous des quotas.
93
Le système des quotas constitue le plus grand marché jamais mis en place pour
réduire les émissions des GES. Sa première phase de fonctionnement correspondait à
la période 2005-2007. Elle a constitué une période d’essai grandeur réelle avant la
phase d’application du protocole de Kyoto (2008-2012).
Durant les deux premières phases, les quotas ont été très largement (à 95%)
attribuées gratuitement, mais la part gratuite a été réduite à 42% lors de la phase III
(2013-2020). Les entreprises soumises à ce système ont l’obligation de posséder
l’équivalent en quotas de leurs émissions, sous peine d’amende, et pour
remplir cette obligation elles peuvent soit participer aux enchères lors de l’attribution
des quotas soit racheter des quotas à des entreprises qui disposent de quotas en
excédent. Les revenus générés par les enchères de quotas ont atteint près de 4
milliards d’€ en 2016 au niveau de l’Union européenne.
La figure ci-dessous montre les dates clefs du marché européen d’échange de quotas
de CO2
L’objectif est de geler un certains volume de quotas pour permettre une augmentation
du prix de carbone. Ce volume pourra être injecté dans le futur si les prix s’envolent
94
trop. Cette réserve de stabilité du marché n’ayant eu qu’un effet timide sur le marché
du carbone, l’UE procède en 2018 à une double modification du système SEQE
(Collard, 2018).
-Projet : Discussion autour du prix plancher du carbone. La France, par son président
François Hollande qui souhaiterait instaurer ce mécanisme (prix de 30€ la tonne
contre les 5€ sur le marché de quotas) s’est heurtée à une opposition des pays comme
l’Allemagne (qui utilise encore de nombreuses centrales au charbon) et la Pologne.
Le système de quotas est incitatif, car les industriels qui ont réussi à réduire
leurs émissions en dessous de leur quota annuel peuvent vendre des permis qui leur
ont été attribués gratuitement. A l’inverse, les industriels peu efficaces et qui
dépassent leurs quotas devront acquérir des permis à un prix qui est à priori
inconnu. En effet, depuis l’entrée en vigueur du système de quotas, le prix d’échange
d’une tonne de carbone varie d’une année à l’autre. Parfois, il chute énormément
comme était le cas en 2014 en raison d’une crise économique qui a frappé les
industriels (- de 5€ la tonne), voire à 1€ en 2007 suite à un ralentissement
économique qui a mis sur le marché plus de permis que nécessaire.
Le graphique suivant nous montre l’intérêt d’un tel système de point de vue de
l’allocation optimale des ressources.
95
Les deux industriels sont soumis à la même contrainte de dépollution : réduire
la quantité de la pollution d’un montant Oq1
L’intérêt de l’industriel A est de limiter sa dépollution au montant Oq 2, et
d’acheter la quantité q2q1 à l’industriel B à un prix de l’ordre de Px, l’industriel
B aura intérêt à dépolluer jusqu’au point q3 et à vendre la quantité q1q2 de
permis à l’industriel A.
Le gain net de A est donné par la surface EFG (coût éviter en limitant ses efforts de
dépollution à q2 et en achetant un permis. Le gain net de B est donné par la surface
EHK (recettes nettes liées à la vente d’un montant q1q3). Le prix Px sera fixé à un
niveau tel que le gain retiré de l’échange soit identique entre les deux parties.
La mise en place d’un marché d’échange des droits d’émission implique la définition
d’un plafond sur les émissions (plafonnement ou cap) dans un périmètre déterminé.
La définition du périmètre est à la fois géographique, temporelle, relative à certaines
96
émissions et à certaines activités. Le graphique ci-dessous montre les éléments
constitutifs d’un marché de droits d’émission (Brohé, 2008).
Mise en place d’un registre pour suivre les mouvements de quotas entre
acteurs
Bien que les deux instruments (taxe et permis) devront coexister en Europe et ce en
tenant compte du coût marginal de dépollution et le dommage marginal, les
décideurs ont choisi de mettre en place un marché de permis et ce pour quatre
raisons (Schubert, 2009) :
97
Pour rendre davantage la relation entre la taxe et les émissions, un nombre limité de
pays (18 au total en 2015) ont mis en place une taxe carbone explicite (Charlez, 2017).
Toutefois, il faut signaler que des taxes carbones ont été instaurées au début par
quelques pays européens (Pays scandinaves et la France). L’introduction de ces taxes
s’est effectuée à partir de 1990 dans le cadre d’une « réforme fiscale verte » plus large
et visant à préserver la compétitivité de certains secteurs ou de certaines industries.
Le principe de la taxe consiste à réduire les émissions des GES en faisant payer les
pollueurs à hauteur de leurs émissions. Les revenus de ces taxes seront utilisés pour
subventionner les énergies renouvelables. Il s’agit d’une taxe très hétérogène puisque
son taux varie de 0,9€/tCO2 au Mexique à 118€/ tCO2 en Suède. Cependant, la taxe
carbone n’a pas eu d’effet massif, ce qui peut s’expliquer par la faiblesse de son taux
(sauf en Suède) et par les exemptions conséquentes et nombreuses qui ont aboutit à
ce que l’industrie ne paie quasiment pas de taxe. Le graphique ci-dessous montre que
la réduction des GES est obtenue moyennant un investissement dans des filières dites
propres (solaire et éolienne).
Certaines activités sont soumises à la taxe carbone (produits pétroliers par exemple),
tandis que d’autres doivent acquérir des quotas sur le marché européen du carbone.
La Chine, gros émetteur de carbone, a officialisé en 2017 un marché national de
carbone et la décision a été prise par le Gouvernement chinois en 2015, c'est-à-dire
juste avant la COP 21 à Paris sur le climat. Toutefois, la décision chinoise s’explique
autant par la lutte contre la pollution des villes que par la lutte contre le
réchauffement climatique ! (Hansen, 2021). Notons que pas mal d’entreprises privées
et publiques, à commencer par celles du secteur de l’énergie, introduisent « un prix
98
de référence » du carbone dans le processus de choix de leurs investissements, ce qui
est un moyen d’anticiper l’instauration d’une taxe et/ou de privilégier les solutions
« bas carbone ». On parle ici d’une « valeur tutélaire » du carbone. Une telle valeur a
été introduite en France en 2008 en fixant une valeur de 100€ par t/CO2 à l’horizon
de 2030 et de 200€ à l’horizon de 2050. En Suède par exemple, cette valeur est
largement supérieure à celle adoptée en France.
99
Bibliographie
Abdelmalki, L., Mundler, P. 2010. Economie de l’environnement et du
développement durable. Edition de Boeck supérieur.
Barré, B. 2007. Atlas des énergies. Quels choix pour quel développement ? Éditions
Autrement, Paris.
Barthélemy D, Nieddu, M et Vivier F.D., 2004. Externalités ou production de
patrimoines ? Les enseignements de travaux récents sur l’agriculture et
l’environnement. In Géographie, Economie, société. 2004/3 (vol.6); Edition
Lavoisier.
Bliefert, C. et Perraud, R. 2001.Chimie de l’environnement. Edition De Boeck
Université
Brohé, A. 2008. Les marchés de quotas de CO2. Group De Boeck, Éditions Larcier.
Cassoret, B. 2018. Transition énergétique. Ces vérités qui dérangent ! Ed. Deboeck
Supérieur.
Charlez, P. 2017. Croissance, énergie et climat. Dépasser la quadrature du cercle.
Edition Deboeck Supérieur.
Chauveau, L. 2009. Le développement durable. Produire pour tous, protéger la
planète. Édition Petite encyclopédie Larousse.
Collard, F. 2018. La politique énergétique en Europe. Courrier hebdomadaire du
CRISP. Pp. 5-66.
101