CO₂, NOx, vapeur d’eau et aérosols : comment bien comptabiliser tous les effets de l’aviation sur le climat ?

auteurs

  1. Grégoire DannetResponsable projet Climaviation, Sorbonne Université
  2. Didier HauglustaineDirecteur de recherche au CNRS, spécialiste des interactions entre la chimie atmosphérique et le climat, Sorbonne Université
  3. Nicolas BellouinProfessor of Climate Processes, University of Reading
  4. Olivier BoucherDirecteur de recherche au CNRS, Sorbonne Université

Déclaration d’intérêts

Grégoire Dannet bénéficie du financement de la Direction Générale de l’Aviation Civile (DGAC) à Sorbonne Université pour étudier les effets non-CO2 de l’aviation.

Didier Hauglustaine bénéficie du financement de la Direction Générale de l’Aviation Civile (DGAC) à Sorbonne Université pour étudier les effets non-CO2 de l’aviation.

Nicolas Bellouin bénéficie du financement de la Direction Générale de l’Aviation Civile (DGAC) à Sorbonne Université pour étudier les effets non-CO2 de l’aviation.

Olivier Boucher bénéficie du financement de la Direction Générale de l’Aviation Civile (DGAC) à Sorbonne Université pour étudier les effets non-CO2 de l’aviation. Il est membre du Comité des parties prenantes du Groupe ADP et reçoit une rémunération pour ce rôle. Il est occasionnellement consultant pour d’autres organismes publiques ou entreprises privées.

Partenaires

Sorbonne Université apporte des fonds en tant que membre fondateur de The Conversation FR.

University of Reading apporte un financement en tant que membre adhérent de The Conversation UK.

Voir les partenaires de The Conversation France

CC BY NDNous croyons à la libre circulation de l’information
Reproduisez nos articles gratuitement, sur papier ou en ligne, en utilisant notre licence Creative Commons.

Republier cet article

Traces laissées par un avion dans le ciel
Traînées de condensation laissées par un avion volant à haute altitude. William Hook / Unsplash

Comme tout secteur économique, l’aviation a un impact sur le climat et contribue au réchauffement climatique en cours.

Cette contribution est largement dominée par les émissions en vol des avions : elle est due aux émissions de dioxyde de carbone (CO2) – en 2018, elles représentaient 2,5% des émissions mondiales de CO2 dues aux énergies fossiles –, mais aussi à un certain nombre d’effets dits « non-CO2 ».

Ces effets « non-CO2 » sont liés aux oxydes d’azote (NOx), à la vapeur d’eau, et aux particules – aussi appelées aérosols lorsque ces particules sont en suspension dans l’air – émis lors de la combustion du kérosène par les moteurs.

Les effets non-CO₂ de l’aviation

Les NOx n’ont pas d’effet direct sur le climat, mais ils ont un impact sur l’ozone (dont ils contribuent à augmenter la concentration à court terme) et le méthane (dont ils contribuent à diminuer la concentration sur le moyen terme). Or l’ozone (O3) et le méthane (CH4) sont deux gaz à effet de serre.

Dans les conditions actuelles, il est couramment admis que l’effet réchauffant de l’augmentation de l’ozone due à l’aviation l’emporte sur l’effet refroidissant de la diminution du méthane. L’effet résultant dépend non seulement de la quantité de NOx émise, qui dépend des modèles d’avion, mais aussi de l’altitude, de la latitude et de la saison du vol.

La vapeur d’eau émise par les avions est un gaz à effet de serre qui tend à réchauffer le climat quand elle est émise en altitude. Mais, surtout, elle est à l’origine de traînées de condensation quand les conditions atmosphériques permettent leur formation – et la transformation occasionnelle de celles-ci en nuages cirrus.

Dans ce dernier cas, on parle de « cirrus induits par les traînées » ; la glace qui constitue les cirrus ne se serait pas condensée sans le passage de l’avion ou alors elle l’aurait fait seulement plus tard.

L’effet de serre réchauffant des traînées d’avion et des cirrus l’emporte sur leur effet d’albédo refroidissant. Mais, là aussi, il y a des variations très importantes sur l’effet total selon les conditions atmosphériques, la latitude, l’heure du vol et la saison.

Enfin, les particules émises par les avions peuvent modifier les propriétés optiques des différents types de nuages qu’elles rencontrent avant d’être entraînées par les pluies ou déposées à la surface. Ces effets sont néanmoins très complexes et encore très incertains, si bien que même leur caractère réchauffant ou refroidissant reste inconnu.

Infographie montrant les différents effets de l’aviation sur le climat
Les impacts climatiques de l’aviation. ClimaviationCC BY-NC-ND

Des échelles de temps différentes

Plusieurs échelles de temps distinctes sont associées à ces différents effets.

Le CO2 est un gaz à longue durée de vie dans l’atmosphère. Quand une tonne de CO2 fossile est émise dans l’atmosphère, environ 30 % de l’augmentation initiale de la concentration persiste après 100 ans et encore 20 % après 400 ans.

À l’inverse, les NOx, les particules et la vapeur d’eau disparaissent de l’atmosphère après quelques semaines s’ils sont émis à l’altitude de croisière des avions. Il en est de même de leurs effets induits sur l’ozone ou sur les nuages.

En revanche, les effets des NOx émis par l’aviation sur le méthane se matérialisent sur une échelle de temps intermédiaire puisque la durée de vie du méthane dans l’atmosphère suite à une perturbation est de 12 ans.

Au-delà des échelles de temps associées à la durée de vie des espèces chimiques, il faut aussi considérer celles du système climatique lui-même. Une perturbation de l’énergie introduite dans le système climatique, même sur une courte durée, a un impact durable sur le climat, car l’océan absorbe cette énergie additionnelle avant de la restituer progressivement à l’atmosphère.

L’indice de forçage radiatif, une mauvaise idée pour comptabiliser les émissions

On mesure habituellement les perturbations du climat via le concept de « forçage radiatif » : cette quantité mesure le déséquilibre radiatif de la planète dû aux émissions passées ; elle est exprimée par rapport à une période de référence généralement fixée à 1850, une époque où les activités industrielles étaient encore faibles.

Pour le CO2, qui a une longue durée de vie dans l’atmosphère, et dans une moindre mesure le méthane, cela intègre les émissions passées qui impactent durablement les concentrations atmosphériques. Pour des polluants à courte durée de vie, seules les émissions les plus récentes importent, car les émissions les plus anciennes n’exercent plus de forçage radiatif.

[Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du mondeAbonnez-vous aujourd’hui]

Pour le secteur de l’aviation, en l’état actuel des connaissances, les effets non-CO2 sont responsables d’un forçage radiatif positif qui tend à réchauffer le climat. Le rapport entre le forçage radiatif total et le forçage radiatif dû au CO2 est appelé Radiative Forcing Index (ou RFI).

Certains calculateurs de l’empreinte carbone utilisent le RFI comme facteur multiplicatif des émissions de CO2 pour prendre en compte les effets non-CO2 et « convertir » ainsi les émissions de CO2 en « CO2-équivalent ». Nous estimons toutefois que cela n’a pas grand sens.

Pour nous en convaincre, nous pouvons faire l’expérience de pensée suivante : admettons qu’avant la crise du Covid-19, en 2019, les effets non-CO2 soient responsables d’un forçage radiatif double de celui du CO2, ce qui correspond à un RFI de 3 (c’est-à-dire, (2 + 1)/1). À une tonne de CO2 émise par l’aviation correspondraient donc 3 tonnes de « CO2-équivalent ».

Au pic de la crise du Covid-19, au printemps 2020, l’activité aérienne a été divisée par un facteur 4. Les émissions de CO2 dues à l’aviation ont alors drastiquement baissé par rapport à leur niveau de 2019, mais cela n’a pas entraîné une diminution du forçage radiatif dû au CO2, car sa concentration dans l’atmosphère a continué de croître.

Le forçage radiatif des effets non-CO2, au contraire, a diminué de concert avec la diminution du trafic (voire plus d’un facteur 4, car les effets sur le méthane des émissions passées perdurent dans le temps). Pendant le Covid-19, en prenant en compte le même forçage radiatif pour le CO2 – qui n’augmente que très légèrement d’une année sur l’autre – mais un forçage divisé par 4 pour les effets « non-CO2 » pour prendre en considération la réduction du trafic en 2020, nous arrivons à un RFI de 1,5 (c’est-à-dire, (2/4 + 1)/1). À une tonne de CO2 émise par l’aviation ne correspondraient donc plus que 1,5 tonnes de CO2-équivalent au lieu des 3 tonnes de CO2-équivalent d’avant le Covid.

On arrive ici à un non-sens car les vols réalisés au printemps 2020 ont bien entendu le même impact climatique que les mêmes vols réalisés au printemps 2019 ! Il n’y a donc pas de raison que les vols de 2020 « comptent » moitié moins que ceux de 2019.

La raison fondamentale pour laquelle le RFI n’est pas approprié comme coefficient multiplicatif est que le forçage radiatif cumule les effets des émissions passées alors que nous souhaitons comparer les effets climatiques des émissions actuelles, soit pour attribuer à un utilisateur de l’aviation sa juste part d’émissions, soit pour évaluer différentes options d’ordre technologique ou opérationnelle qui pourraient être mises en œuvre dans le futur.

Quelle métrique climatique utiliser ?

Heureusement, il existe des métriques du changement climatique qui permettent d’estimer l’impact climatique futur d’un vol effectué aujourd’hui, et ce malgré la courte échelle de temps du forçage radiatif des effets non-CO2.

En particulier, le pouvoir de réchauffement global (PRG), qui permet de mesurer l’impact radiatif sur une période future, typiquement 100 ans, d’émissions qui ont lieu de manière ponctuelle. On peut alors comparer le PRG d’un kg de polluant (comme le CH4 ou les NOx) avec celui d’un kg de CO2 et le concept peut facilement être étendu aux traînées d’avion.

Une autre métrique, le pouvoir de changement global de température (PGT), est définie de manière similaire, mais à partir de la variation de la température moyenne à la surface à une certaine échéance (50 ou 100 ans) après un pulse d’émission.

Ces métriques conduisent à des facteurs multiplicatifs du CO2 beaucoup plus faibles que le RFI sauf si des échéances beaucoup plus courtes que 50 ans sont choisies. Le choix de l’échéance est un choix politique qui peut avoir des implications importantes. Une échéance courte néglige la partie substantielle du réchauffement dû au CO2 qui se produit au-delà de l’échéance. Choisir une échéance longue peut minimiser l’efficacité à court terme des solutions de réduction du réchauffement basées sur les effets non-CO2.

Afin d’illustrer l’importance de la métrique utilisée pour estimer l’impact total de l’aviation sur le climat ou lors du calcul de l’empreinte carbone, comparons le RFI de l’aviation aux facteurs multiplicatifs associés à ces autres métriques.

D’après une estimation récente, les différents forçages radiatifs de l’aviation entraînent un RFI de 2,9. Si l’on utilise le PRG à un horizon temporel de 100 ans pour calculer les émissions équivalentes des différentes perturbations de l’aviation, on en déduit un facteur multiplicatif de 1,7. Pour le PGT à une échéance temporelle de 100 ans également, le facteur multiplicatif n’est plus que de 1,1.

On voit donc que le choix d’une métrique plutôt qu’une autre s’avère bien crucial pour calculer le facteur multiplicatif.

Graphe montrant les différentes manières de calculer l’impact de l’aviation sur le climat
Afin d’illustrer l’importance de la métrique utilisée pour estimer l’impact total de l’aviation sur le climat ou lors du calcul de l’empreinte carbone, comparons le RFI de l’aviation aux facteurs multiplicatifs associés à ces autres métriques. D’après l’estimation récente de Lee et al. (2021), les différents forçages radiatifs de l’aviation entraînent un RFI de 2,9. Si l’on utilise le PRG à un horizon temporel de 100 ans pour calculer les émissions équivalentes des différentes perturbations de l’aviation, on en déduit un facteur multiplicatif de 1,7. Pour le PGT à une échéance temporelle de 100 ans également, le facteur multiplicatif n’est plus que de 1,1. On voit donc que le choix d’une métrique plutôt qu’une autre s’avère bien crucial pour calculer le coefficient multiplicateur. Auteurs, CC BY-NC-ND

Une aide à la décision

Certaines solutions envisagées pour réduire les impacts climatiques de l’aviation ont le double avantage de diminuer à la fois les effets CO2 et non-CO2.

Dans ce cas de figure, les métriques servent simplement à quantifier le gain net pour le climat. En revanche, d’autres solutions nécessitent de faire un compromis entre les effets CO2 et non-CO2 de l’aviation. Par exemple, les fabricants de moteurs savent réduire les émissions de NOx mais souvent au détriment des émissions de CO2. Un carburant partiellement ou totalement décarboné, comme l’hydrogène, pourrait induire des effets non-CO2 plus importants.

On peut aussi envisager des stratégies de modification des trajectoires des avions pour diminuer les effets des traînées ou des NOx, mais au prix sans doute d’une augmentation de la consommation de carburant et donc du CO2 émis. Il est pertinent dans ces cas de figure de comparer les différents effets (CO2 et non-CO2) avec plusieurs métriques adaptées pour comprendre quel effet l’emporte sur l’autre et à quelles échéances (20, 50 et 100 ans par exemple) et pouvoir prendre les meilleures décisions possibles.

En l’état actuel de nos connaissances, les effets non-CO2 de l’aviation ont, dans l’ensemble, un effet réchauffant sur le climat. Il est donc pertinent d’essayer de les réduire pour diminuer l’impact total de l’aviation sur le réchauffement.

Il faut aussi s’assurer que les technologies en cours de développement pour décarboner l’aviation n’induisent pas des effets non-CO2 trop importants. Chaque solution doit être examinée et ses impacts doivent être évalués avec les métriques climatiques les plus adaptées sans oublier de prendre en compte d’éventuels autres impacts (qualité de l’air, bruit, biodiversité…)

Au Québec, les arts littéraires flirtent avec les publics

auteur

  1. Carole Bisenius-PeninProfesseur d’Université en Sciences de l’information et de la communication, CREM, Université de Lorraine

Déclaration d’intérêts

Carole Bisenius-Penin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

Partenaires

Université de Lorraine apporte des fonds en tant que membre fondateur de The Conversation FR.

Voir les partenaires de The Conversation France

CC BY NDNous croyons à la libre circulation de l’information
Reproduisez nos articles gratuitement, sur papier ou en ligne, en utilisant notre licence Creative Commons.

Republier cet article

« Autour du rose enfer des animaux », un spectacle issu du Laboratoire des Nouvelles Technologies de l’Image, du Son et de la Scène. Carole Bisenius-Penin, Fourni par l’auteur

Depuis 2019, le milieu littéraire québécois parvient à rendre visible la question des arts littéraires sur son territoire et participe ainsi à une certaine institutionnalisation de la notion.

Ce phénomène s’inscrit dans certains lieux emblématiques, du côté des acteurs culturels, comme la Maison des arts littéraires de Gatineau (MAL, 2020), vitrine annuelle de diffusion en arts littéraires imaginée en complément du salon du livre de l’Outaouais ou encore le festival « Québec en toutes lettres ».

Du côté de la recherche, un récent dossier paru dans une revue franco-québécoise entend également faire le point sur ces pratiques littéraires contemporaines privilégiant une poétique de la convergence et de l’hybridité.

Sur le terrain et sur le plan de la réception, on peut donc s’interroger sur la façon dont les arts littéraires entretiennent avec leurs publics un rapport en tension, entre participation et déstabilisation, à travers une création littéraire plurielle, médiatisée et spectacularisée. Notre analyse porte sur ces formes au sein d’un cadre de médiation et de médiatisation de la littérature spécifique et éphémère celui de la manifestation festivalière)

Une littérature médiatisée, entre dispositif numérique interactif et cartomancie

Au sein de la Maison de la littérature, se niche durant le festival « Québec en toutes lettres », l’installation « Clairvoyantes » empruntant à l’univers de la fête foraine son décor et à la cartomancie, cet art divinatoire recourant au tirage de cartes. Après avoir pénétré dans ce chapiteau intimiste et sombre, l’utilisateur face au miroir et à l’écran tactile pose sa question à l’oracle virtuelle, qui l’invite à tirer trois cartes (un personnage, un lieu et un objet) correspondant à des fragments littéraires visuels et sonores.

Cette combinatoire interactive imaginée par une autrice (Audrée Wilhelmy) et une maison d’édition atypique disposant de son propre laboratoire éditorial) entremêle les textes de quinze écrivaines québécoises selon le parcours de chaque utilisateur et des supports iconiques (figures féminines, lieux, objets) particulièrement esthétiques qui revisitent le tarot et favorisent l’immersion des publics.

Cet oracle littéraire qui croise les médiums offre une littérature médiatisée par les technologies du numérique qui, au-delà de sa dimension ludique, vise à reconfigurer les pratiques créatives issues des arts littéraires et à capter d’autres publics. De la même manière, le dispositif de l’oracle a été pensé dans cette transmédialité, d’une part sous la forme d’un objet, un coffret comprenant quarante-cinq cartes et un livre d’interprétation, et d’autre part, grâce à une plate-forme numérique) prolongeant en ligne l’expérience littéraire. L’intérêt de ce dispositif réside dans le processus d’hybridation mené.

Le dispositif immersif et multimédia « Clairvoyantes » invite le spectateur à s’installer pour bénéficier d’un oracle littéraire. Carole Bisenius-Pénin, Author provided

Cabinet de consultation poétique : de l’adaptation au spectacle de contes revisité et performé

Loin d’une adaptation théâtrale classique, le dispositif de la compagnie Théâtre à corps perdus (« Rx : contes-gouttes ») a été pensé comme un cabinet de consultation poétique éphémère et intime qui distille au compte-gouttes des extraits de contes issus des œuvres de l’auteur québécois Martin Bellemare, en fonction d’un jeu d’échanges entre un comédien en blouse médicale et un participant ayant pris place sur une table de consultation revisitée pour l’occasion.

Ce parcours sur mesure déployé à partir d’un questionnaire à choix multiple repose sur une matrice combinatoire à la manière du Conte à votre façon de R. Queneau et relève d’une véritable prouesse mémorielle : le comédien doit mettre en récit et performer, selon les choix de chaque participant, les nombreux extraits mobilisés durant le spectacle (une trentaine de contes).

Un comédien vous attend pour une consultation littéraire sur mesure. Carole Bisenius-Pénin, Author provided

Cette consultation, sorte de « posologie sur mesure » d’une vingtaine de minutes décline, à travers cette proximité, ce face-à-face potentiellement déstabilisant, une littérature parfois chuchotée à l’oreille du participant-patient qui donne à entendre d’une autre manière le conte et nécessite une participation active des publics, sollicitant fortement une implication corporelle et sensorielle au sein du dispositif.

Outre la singularité du texte littéraire choisi et l’originalité de l’installation détournant le cadre médicalisé, cette forme spectacularisée de « médecine narrative ») interroge également une des tendances actuelles, la « littérature du care » selon Alexandre Gefen ou celle du « soin à voix haute » sous l’angle de la bibliothérapie prônée par Régine Détambel.

Dramaturgie plurielle : avatars technologiques et participation active

Spectacle issu du Laboratoire des nouvelles technologies de l’image, du son et de la scène (LANTISS de l’université de Laval, la proposition du collectif DTT, intitulé Autour du rose enfer des animaux (AREA) est également une adaptation de la pièce Le rose enfer des animaux du poète et dramaturge Claude Gauvreau, digne représentant du mouvement artistique québécois, dit de l’automatisme s’inspirant du surréalisme et source inépuisable de métaphores poétiques affleurant à la conscience.


À lire aussi : À quand les livres remboursés par la Sécurité sociale ?


Le recours aux arts littéraires croisant texte théâtral et divers outils interactifs (mapping vidéo, voix de synthèse générées en temps réel) correspond certes à la volonté de ces jeunes créateurs de rendre hommage avec jubilation à Claude Gauvreau, tout en questionnant la fonction du poète, mais plus spécifiquement encore de positionner les publics dans une véritable posture performative.

En effet, cette forme de littérature spectacularisée est avant tout envisagée sous une modalité participative car elle invite 8 personnes du public à endosser des personnages de l’œuvre sous un masque et à s’installer sur scène « au festin virtuel et déjanté de Domitien Dolmansay, gorille robotisé et hôte de la soirée ». Au prisme de leurs avatars technologiques et animaliers, les volontaires peuvent au choix suivre ou refuser les directives affichées dans leur assiette, selon les tableaux vidéo et sonores élaborés. Ils deviennent ainsi de véritables co-auteurs du spectacle.

Pour conclure, les arts littéraires sous leur forme festivalière offrent une opportunité d’appréhender la perception des publics à l’égard de la création littéraire dont ils sont habituellement exclus et « de mieux approcher d’autres types de publics par les croisements disciplinaires effectués » selon Valérie Lambert, directrice de la Maison de la littérature de Québec, afin de comprendre comment les formes de socialisation littéraire induites peuvent aussi participer à la transformation des pratiques culturelles et au renouvellement des publics.

Comment l’affaire de l’Ocean Viking révèle l’ambiguïté des « zones d’attente »

auteur

  1. Florian AumondMaître de conférences en droit public, Université de Poitiers

Déclaration d’intérêts

Florian Aumond ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

Partenaires

Région Nouvelle-Aquitaine a apporté des fonds à The Conversation FR en tant que membre bienfaiteur.

Université de Poitiers apporte un financement en tant que membre adhérent de The Conversation FR.

Voir les partenaires de The Conversation France

CC BY NDNous croyons à la libre circulation de l’information
Reproduisez nos articles gratuitement, sur papier ou en ligne, en utilisant notre licence Creative Commons.

Republier cet article

Une jeune femme rescapée du Ocean Viking s'apprête à quitter le navire humanitaire pour un lieu temporaire d'accueil en France. Les 234 personnes ont été prises en charge par les secours le 10 novembre après trois semaines d'errance.
Une jeune femme rescapée du Ocean Viking s’apprête à quitter le navire humanitaire pour un lieu temporaire d’accueil en France. Les 234 personnes ont été prises en charge par les secours le 10 novembre après trois semaines d’errance. Vincenzo Circosta / AFP

 

Vendredi 11 novembre, les 234 migrantes et migrants secourus par le navire Ocean Viking ont pu rejoindre la base navale de Toulon, après trois semaines d’errance en mer. Ultime épisode du drame de la migration qui se joue en Méditerranée et dont le déroulement puis le dénouement peuvent donner lieu à plusieurs clés de lecture. Au niveau de la politique et de l’intégration européennes, le bras de fer entre Paris et Rome, rejouant le duel ayant opposé en 2018 Emmanuel Macron avec l’alors Président du Conseil des ministres italien et actuel Vice-Président Matteo Salvini, a souligné les obstacles à l’affirmation de la solidarité européenne sur la question. Au niveau de la politique interne, ensuite, l’on a vu combien la situation de l’Ocean Viking a accusé les clivages entre « humanistes » et partisans de la fermeté.

Rappelons d’ailleurs que les propos ayant valu l’exclusion pour deux semaines du député du Rassemblement national Grégoire de Fournas ont précisément été tenus à l’occasion de l’allocution d’un député de la France insoumise dénonçant le sort réservé aux passagers du navire humanitaire.

Le dernier épisode en date dans l’épopée de l’Ocean Viking est également et entre autres justiciable d’une analyse juridique.

Les limites du droit international de la mer

Pendant son errance, les difficultés à trouver un lieu de débarquement ont de nouveau souligné les limites d’un droit de la mer peinant à imposer à un État clairement défini d’ouvrir ses ports pour accueillir les rescapés. La décision de laisser les passagers de l’Ocean Viking débarquer à Toulon est également significative. Elle signe certes leur prise en charge temporaire par la France, mais n’emporte pas, du moins dans un premier temps, leur admission sur le territoire français (au sens juridique). Ce dont le ministre de l’Intérieur ne s’est d’ailleurs fait faute de souligner).

Cette situation permet alors de mettre en exergue l’une des singularités de la conception juridique du territoire, notamment en ce qui concerne la situation des étrangers. Les zones d’attente en sont une claire illustration.

Les « zones d’attente »

Les aéroports ont été les premiers espaces où sont apparues ces zones considérées comme ne relevant pas juridiquement du territoire de l’État les accueillant. Le film Le Terminal, dans lequel Tom Hanks campait un iranien ayant vécu plusieurs années à Roissy – où il s’est d’ailleurs éteint ce samedi 12 novembre –, avait en 2004 porté à la connaissance du grand public cette situation.

En France, les « zones internationales », initialement nimbées d’un flou quant à leur fondement juridique et au sein desquelles les autorités prétendaient par conséquent n’y être pas assujetties au respect des règles protectrices des droits humains, ont cédé la place aux « zones d’attente » à la faveur de la loi du 6 juillet 1992).

[Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du mondeAbonnez-vous aujourd’hui]

À une situation d’exclusion – du moins, alléguée par les autorités – du droit, s’est alors substitué un régime d’exception : les personnes y étant maintenues n’étaient toujours pas considérées comme ayant pénétré juridiquement le territoire français.

N’étant plus – prétendument – placées « hors du droit » comme l’étaient les zones internationales, les zones d’attente n’en restaient pas moins « hors sol ». L’une des conséquences en est que les demandes d’asile qui y sont le cas échéant déposées relèvent alors de l’« asile à la frontière ». Elles sont par conséquent soumises à un régime, notamment procédural, beaucoup moins favorable aux demandeurs (Code de l’entrée et du séjour des étrangers et du droit d’asile CESEDA, Titre V, article L.350-1 à L.352-9).

La « fiction juridique »

La « fiction juridique » que constituent les zones d’attente s’étend désormais entre autres aux gares ferroviaires ouvertes au trafic international, aux ports ou à proximité du lieu de débarquement (CESEDA, article L.341-1). Ces « enclaves » au sein du territoire, autour d’une centaine actuellement, peuvent par ailleurs inclure, y compris « à proximité de la gare, du port ou de l’aéroport ou à proximité du lieu de débarquement, un ou plusieurs lieux d’hébergement assurant aux étrangers concernés des prestations de type hôtelier » (CESEDA, article L.341-6).

Tel est le cas de la zone d’attente créée par le préfet du Var par le biais d’un arrêté, à la suite de l’accueil de l’Ocean Viking.

« pour la période du 11 novembre au 6 décembre 2022 inclus, une zone d’attente temporaire d’attente sur l’emprise de la base navale de Toulon et sur celle du Village Vacances CCAS EDF 1654, avenue des Arbanais 83400 Hyères (Giens) ».

Accueillis dans ce Village Vacances dont les « prestations de type hôtelier » ne semblent aucunement correspondre à la caricature opportunément dépeinte par certains, les rescapés demeurent, juridiquement, aux frontières de la France.

Aux portes du territoire français

Ils ne se situent pas pour autant, de ce fait, dans une zone de non-droit : placés sous le contrôle des autorités françaises, ils doivent se voir garantir par elles le respect de leurs droits humains. Aux portes du territoire français, les migrantes et migrants secourus par l’Ocean Viking n’en relèvent pas moins de la « juridiction » française comme le rappelle la Cour européenne des droits de l’Homme. La France est ainsi tenue d’observer ses obligations, notamment au regard des conditions de leur maintien contraint au sein de la zone.

Une partie des rescapés recouvreront leur liberté en étant admis à entrer juridiquement sur le territoire de la France. Tel est le cas des mineurs non accompagnés, dont il est annoncé qu’ils seront pris en charge par l’Aide sociale à l’enfance.

Tel est également le cas de ceux qui auront été autorisés à déposer une demande d’asile sur le territoire français et se seront vus, à cette fin, délivrer un visa de régularisation de huit jours. Parmi eux, la plupart (175) devraient être acheminés vers des États européens qui se seraient engagés à les accueillir, vraisemblablement afin que soient examinées leurs demandes de protection internationale. Expression d’une solidarité européenne a minima dont il faudra cependant voir cependant les suites.


À lire aussi : Podcast : « Quand la science se met au service de l’humanitaire », le Comité international de la Croix-Rouge


Pour tous les autres enfin, ceux à qui un refus d’entrer sur le territoire français aura été notifié et qui ne seront pris en charge par aucun autre État, le ministre de l’Intérieur précise qu’ils seront contraints de quitter la zone d’attente vers une destination qui demeure cependant encore pour le moins incertaine. Ceux-là auront alors été accueillis (très) temporairement par la France mais seront considérés comme n’ayant jamais pénétré sur le territoire français.

Ariane 6 et les nouveaux lanceurs spatiaux, ou comment fabriquer une fusée en 2023

auteur

  1. Marie JacquessonChef de service Structures, Thermique et Matériaux pour les Systèmes de Transport Spatial au CNES, Centre national d’études spatiales (CNES)

Déclaration d’intérêts

Marie Jacquesson ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

Partenaires

Centre national d’études spatiales (CNES) apporte un financement en tant que membre adhérent de The Conversation FR.

Voir les partenaires de The Conversation France

CC BY NDNous croyons à la libre circulation de l’information
Reproduisez nos articles gratuitement, sur papier ou en ligne, en utilisant notre licence Creative Commons.

Ce mercredi 16 novembre doit décoller, après plusieurs reports, la fusée SLS de la NASA – celle qui amènera des humains sur la Lune dans le cadre du programme Artémis. L’année 2022 a aussi été marquée par le décollage du nouveau lanceur Vega-C de l’Agence spatiale européenne et aussi par les annonces de développement de microlanceurs, de moins de 30 mètres de haut, d’un grand nombre de nouveaux entrants européens qui veulent eux aussi proposer un accès à l’espace.

Fin 2023, ce sera le tour d’Ariane 6, successeur de la mythique Ariane 5 – qui a récemment lancé le James Webb Telescope dans l’espace, parmi ses nombreuses missions (plus de 110) et qui doit prendre la relève de celle-ci mais aussi du lanceur russe Soyouz.

Un des objectifs est de permettre des lancements moins onéreux, notamment face à la concurrence des lanceurs privés comme Falcon ou Falcon Heavy de SpaceX qui sont partiellement réutilisables.

De nos jours, les nouveaux lanceurs doivent être performants, c’est-à-dire efficaces et légers, mais aussi les moins chers et les plus modulaires possible. Toutes ces exigences nécessitent des innovations technologiques et industrielles permanentes et une coopération européenne pour assumer les coûts.

Comment fonctionne une fusée ?

Une fusée, ou « lanceur », est un empilement de pièces ayant chacune un rôle pour former un « étage », soit un ensemble de réservoirs alimentant un moteur. Chaque étage fait sa part de la mission pour arracher le véhicule à la gravité terrestre et l’emmener jusqu’à l’orbite de libération du satellite.

Décollage de Véga C
Le décollage de Vega-C le 13 juillet 2022, le nouveau lanceur européen pour transporter des plus petites charges que les fusées Ariane. M. Pedoussaut/ESA

Ainsi, le premier étage est particulièrement puissant pour décoller – grâce aux boosters latéraux pour Ariane 5 et 6 par exemple. Il est largué dès que les réservoirs sont vides, et le second étage poursuit la mission selon la trajectoire programmée, pour arriver au point visé dans l’espace. Le dernier étage poursuit sa route jusqu’au largage du cargo.

Installé en partie haute du lanceur, l’ordinateur de bord déroule le programme de vol, pilote la fusée automatiquement et communique avec le centre de contrôle à terre. Les corrections de trajectoire se font automatiquement et les mesures enregistrées par les capteurs à bord sont envoyées au sol pour une analyse en direct de la bonne marche du système.

[Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du mondeAbonnez-vous aujourd’hui]

Une fusée transporte des « objets » de différentes natures : des satellites bien sûr, mais aussi des sondes spatiales qui iront explorer le système solaire, des « rovers » pour découvrir les surfaces des planètes ou des comètes, du fret pour la station spatiale internationale ou même… des astronautes. Ce chargement est localisé tout en haut de la fusée, installé sur le dernier étage, et emmitouflé dans la coiffe. Celle-ci est conçue pour protéger le fragile objet à bord et pour être aérodynamique, c’est-à-dire que sa forme limite les frottements avec l’air de l’atmosphère pour brûler moins de carburant. Une fois à environ 120 kilomètres d’altitude (au bout de 3 minutes de vol sur Ariane 5), il n’y a quasiment plus d’air et la coiffe de protection peut être larguée. Comme une fleur qui s’ouvre, elle se sépare en deux grands pétales qui se détachent de la fusée et retombent dans la mer.

Ces derniers étages de la fusée ne sont actuellement pas récupérés, mais pour des questions environnementales et économiques, beaucoup d’études cherchent les solutions technologiques permettant leur récupération et leur réutilisation.


À lire aussi : Détruire des fusées pour protéger la Terre


Les moteurs

La fusée SLS dans son hangar, vue d’en bas
Les boosters connectés au cœur de la fusée SLS sont en cours de vérification. Glenn Benson/NASA

Pour s’arracher de la gravité terrestre, les fusées utilisent des moteurs d’une puissance extraordinaire, utilisant des carburants et comburants à « poudre » ou liquides, qui, mis en contact, génèrent des gaz de combustion détendus dans la tuyère du moteur, ce qui engendre la fameuse poussée libératrice.

Les modes de propulsion solide et liquide sont actuellement utilisés sur Ariane 5 et Ariane 6, mais, à l’avenir, on utilisera probablement principalement la propulsion liquide. Celle-ci permet d’arrêter un moteur, de moduler sa poussée, notamment pour récupérer un premier étage en contrôlant son retour sur Terre, plutôt que de le laisser couler au fond de l’eau.

Ces moteurs sont moins puissants unitairement que les moteurs à poudre d’Ariane par exemple, mais on peut les assembler en fagot pour un premier étage et utiliser le même moteur pour le second étage.

Innover pour mieux voler

Le satellite dans la coiffe a besoin d’un maximum de place et de masse pour emporter le plus de fonctions et de carburant possible pour son propre usage. Les éléments de la fusée doivent donc être les plus légers possibles, tout en restant résistants et rigides pour supporter de grosses accélérations, des environnements vibratoires élevés, des variations de température allant de la cryogénie à plusieurs centaines de degrés Celsius, tout en étant les plus minces possibles.

On utilise par exemple des alliages d’aluminium ou des matériaux composites à fibre de carbone, comme on en trouve sur les skis ou les vélos, mais mis en forme pour fabriquer les grandes structures qui constitueront la charpente ou la colonne vertébrale de la fusée.

Les matériaux peuvent être recouverts d’autres matériaux pour les protéger thermiquement : du liège (et oui !), des mousses polymères, des films sophistiqués… le tout enduit d’une peinture ayant des propriétés thermiques et électriques adéquates.

schéma illustrant le principe d’Ariane Next
Le concept d’Ariane Next, après Ariance 6 : premier étage réutilisable et moteurs au méthane identiques pour le premier et le deuxième étage. Objectif : diviser par deux les coûts d’Ariane 6. CNES/Œil du Chat, Author provided (no reuse)

Ces assemblages peuvent être complexes et donc coûteux. Pour une fusée commerciale comme Ariane, soumise à la concurrence des autres fusées internationales, la diminution des coûts est le principal enjeu. Les activités de recherche et développement sont donc orientées vers ces gains de coût tout en maintenant la performance des produits. On cherche par exemple à améliorer les procédés de fabrication pour utiliser moins de matière et produire plus vite en limitant l’impact environnemental ; et une idée éprouvée en aéronautique ou dans l’éolien peut fournir une véritable innovation pour nos fusées.

Des lanceurs réutilisables

Réutiliser un ou plusieurs étages d’un lanceur limite le nombre d’étages fabriqués, ce qui réduit l’impact environnemental du secteur et a un intérêt économique direct. Mais, avant de les remettre en vol, il faut pouvoir les récupérer et les « revalider ».

Les agences spatiales et les industriels du secteur travaillent ainsi à acquérir la capacité technologique de récupération (développer les systèmes de récupération, savoir récupérer avec le bon niveau de précision par exemple) et pour valider les techniques de revalidation (diagnostiquer l’état de santé, éventuellement réparer). Ces connaissances permettront de statuer sur l’intérêt économique de la réutilisation, car elle dépend notamment du type et de l’architecture de la fusée et de la cadence de lancement visée – qui impacte le rythme de production.

Port spatial vu de l’espace et légendes
Le port spatial européen vu de l’espace, avec les infrastructures dédiées aux différents lanceurs. ESA/NASA

Aujourd’hui, on vise à réutiliser le premier étage de la fusée (les boosters ou le premier étage à propulsion liquide) : celui-ci ne monte pas très haut et n’aura pas à subir une rentrée atmosphérique trop sévère, au contraire du dernier étage qui emmène le satellite en orbite et qui subira, pour rentrer, la traversée de l’atmosphère à de très grandes vitesses, comme la navette américaine (« shuttle »), dont les besoins de protection thermique sont bien plus importants et exigent des solutions technologiques complexes et encore difficiles à revalider de manière économe.

Le mode de retour est aussi très discuté : récupérer un premier étage « debout » comme le fait SpaceX est jugé aujourd’hui la solution la plus simple – c’est ce qui est envisagé pour Themis, le lanceur réutilisable développé par le CNES et ses partenaires allemands et japonais. Pour des étages allant en orbite, des solutions de retour à l’horizontale avec des surfaces ailées sont des pistes à creuser, en alternative à des solutions avec des boucliers et des parachutes qui sont récupérés de manière moins précise.

Le grand jeu de lego spatial et international

Pour assembler tous ces éléments, il faut de véritables coopérations internationales. Si Ariane est née française, elle est complètement européenne depuis déjà des décennies, et plus de 20 pays y contribuent.

VEGA-C est une petite fusée voulue par les pays européens pour compléter notre gamme de lanceurs et faire en sorte que l’Europe puisse transporter tous types de satellites vers toutes les orbites possibles. Les Européens optimisent les budgets et les programmes : VEGA-C et Ariane 6 se partagent le même booster à propergol solide, le P120C, qui est le premier étage sur VEGA-C et l’un des deux ou quatre boosters d’Ariane 6.

Les programmes spatiaux sont très chers. À titre d’exemple, le développement d’Ariane 6 et de son nouveau pas de tir coûte plus de 4 milliards d’euros. Jouer la carte de l’Europe, c’est partager les coûts et permettre à chaque pays qui le souhaite de faire participer son industrie et ses laboratoires à ces projets exigeants et valorisants.

Si les budgets de ces programmes peuvent sembler exorbitants, les retombées pour le citoyen sont aussi très importantes à travers les évolutions techniques et scientifiques engendrées qui peuvent ensuite servir d’autres secteurs : en France, pour 1 euro investi, on estime que 20 euros de retombées économiques sont générées. La France est d’ailleurs le premier pays européen qui investit dans le spatial, le second pays mondial derrière les États-Unis, rapporté au nombre d’habitants.

Climat : l’épineuse question de la responsabilité historique des pays industrialisés

auteurs

  1. Michel DamianProfesseur honoraire, Université Grenoble Alpes (UGA)
  2. Patrick CriquiDirecteur de recherche émérite au CNRS, Université Grenoble Alpes (UGA)

Déclaration d’intérêts

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

Partenaires

Université Grenoble Alpes (UGA) apporte des fonds en tant que membre fondateur de The Conversation FR.

Voir les partenaires de The Conversation France

Langues

CC BY NDNous croyons à la libre circulation de l’information
Reproduisez nos articles gratuitement, sur papier ou en ligne, en utilisant notre licence Creative Commons.

Republier cet article

Une petite Sénégalaise observant la construction d’une digue
À Saint-Louis (Sénégal), en août 2021, une petite fille observe les travaux de construction d’une digue contre la montée des eaux due au réchauffement climatique. John Wessels/AFP

 Adresse électronique

 Twitter17

 Facebook80

 Linkedin

 Imprimer

Cela ne vous aura pas échappé : la 27e Conférence des parties à la Convention climat des Nations unies s’ouvre ce lundi 7 novembre 2022 à Charm el-Cheikh, en Égypte. Les discussions, qui s’annoncent âpres, se poursuivront jusqu’au 18 novembre prochain. Ce sera en effet la première COP où la question des compensations financières pour les dommages subis par les pays en développement figurera en haut de l’ordre du jour.

Cette rencontre au sommet, qui réunit près de 200 pays, promet d’être chahutée par la défiance grandissante du Sud envers le Nord, et par les revendications récurrentes du groupe « pays en développement + Chine », rien moins que 6,5 milliards d’habitants sur les 8 de la planète !

La saga des 100 milliards

Pour comprendre les tensions et débats autour de cette question centrale (qui est responsable du réchauffement, qui devrait payer ?), il faut faire un retour en arrière.

Décembre 2009 : alors que les négociations à la COP15 de Copenhague entrent dans leur dernière ligne droite, le président états-unien Barak Obama propose une enveloppe de 100 milliards de dollars par an, à mobiliser à partir de 2020 pour le financement des politiques d’atténuation et d’adaptation dans les pays en développement.

Il s’agissait ici moins d’une « solidarité Nord-Sud » que d’une tentative d’arracher un deal : des transferts financiers en provenance des pays industrialisés contre des engagements de réduction des émissions des grands émergents. Tous se refuseront, Chine en tête, à promettre quoi que ce soit.

Treize ans plus tard, selon l’OCDE, les 100 milliards seraient en passe d’être réunis. Mais l’annonce est accueillie avec scepticisme et méfiance par les pays en développement. Cette enveloppe est en effet constituée très majoritairement de prêts – qu’il faudra donc rembourser – plutôt que de dons.

Peu transparents quant à leur caractère « nouveau et additionnel » par rapport à l’aide au développement traditionnelle, ces financements échappent presque à tout contrôle des pays du Sud quant à leur affectation.

Le bol d’air qu’avait constitué la promesse des 100 milliards s’est aujourd’hui mué en une profonde frustration.

Le serpent de mer des « pertes et dommages »

Dès 1991, lors des premières négociations pour la Convention climat des Nations unies, l’Alliance des petits États insulaires (AOSIS), tous vulnérables à la montée des eaux, proposait déjà un « mécanisme international de compensation financière pour les pertes et dommages associés aux effets négatifs du changement climatique ».

De fait, un mécanisme international pour pertes et préjudices sera créé en 2013 à la COP19 de Varsovie. Mais, deux ans plus tard, l’Accord de Paris précisait qu’il s’agissait d’un outil de coopération et non de réparation, et qu’il « ne peut donner lieu ni servir de fondement à aucune responsabilité ni indemnisation ».

Un « dialogue sur les pertes et dommages pour les pays les plus vulnérables » aura finalement été engagé à la COP26 de Glasgow (2021) (dit « Pacte climatique de Glasgow »).

[Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du mondeAbonnez-vous aujourd’hui]

Ces dernières années, les pays du Sud auront mis la pression pour qu’un mécanisme financier de compensation des préjudices puisse être officiellement lancé à la COP27. Mais les États-Unis et l’Europe n’en ont jamais voulu et ils ne soutiendront pas la création d’un nouveau fonds.

À Charm el-Cheikh, pour cette COP27, ils se limiteront donc à proposer – c’est la position officielle de l’UE – de renforcer les institutions existantes.

Ces tensions intenses trouvent leurs racines dans la représentation des « responsabilités historiques », concept qui structure les négociations depuis le début des années 1990.

Les responsabilités historiques, cette dimension structurante des négociations climat

Le principe des « responsabilités communes mais différenciées », inscrit dans la Convention climat de 1992, a gravé dans le marbre la division du monde en deux blocs ainsi que le concept de responsabilité historique des seuls pays industrialisés.

Il a jusqu’ici exonéré les pays du Sud, Chine comprise, de toute obligation de réduction des émissions ; puis fait entrer la thématique du financement de l’adaptation ; et enfin, celle des compensations financières pour les dommages subis par les pays du Sud.

C’est, depuis 30 ans, un élément central des négociations climat, exprimant la demande d’une solidarité internationale face aux menaces du réchauffement. Au moins dans les discours, car les difficultés ont été constantes. Ce principe des responsabilités historiques s’est en effet transformé au fil du temps en revendications de plus en plus pressantes, toutes formulées en termes de « justice climatique ».

Les États-Unis ont toujours été un opposant tenace à ce principe. Ils ne s’y sont jamais ralliés et ce sera couché sur le papier dès la conférence de Rio (1992). Ce principe ne peut donc être interprété comme une reconnaissance d’obligations internationales de leur part ; encore moins comme « une diminution des responsabilités des pays en développement ».

Cette position demeure la ligne rouge de la diplomatie climatique de Washington.

Des responsabilités historiques toutes relatives

L’économiste Olivier Godard a bien souligné que la responsabilité historique des pays industrialisés, qui sous-tend les revendications de compensation pour les pertes et dommages, n’est pas aussi simple à établir qu’il n’y paraît, que ce soit en termes de fondements juridiques et moraux, ou même de statistiques.

Mais pour ses défenseurs, représentants des pays émergents ou des pays moins avancés, les choses sont claires. Dès 1991, le South Centre, un laboratoire d’idées des pays du Sud, indique que les pays industrialisés auraient historiquement préempté l’espace environnemental. Et le simple constat des émissions cumulées relatives suffirait à démontrer cette responsabilité. Il serait alors fondé d’imputer aux États et à leurs populations actuelles les agissements des générations passées. Il leur appartiendrait alors d’assumer des obligations de réparation des dommages produits par les comportements de leurs aïeux.

Qu’en est-il dans les chiffres ? Pour y voir plus clair il faut étudier l’évolution relative des émissions de gaz à effet de serre, annuelles et cumulées, des pays industrialisés (dit groupe Annexe 1 dans la Convention climat) et celle des pays en développement, grands émergents et Chine comprise (groupe Non-Annexe 1).

Auteurs, données PRIMAP, PIK (Institut du climat de Postdam), CC BY-NC-ND

L’examen des émissions annuelles fait apparaître une rupture dans les pays Annexe 1 à partir de 1980 (le second choc pétrolier), avec depuis une décroissance lente. En revanche, pour les pays Non-Annexe 1, elles n’ont cessé d’augmenter, et de manière exponentielle. Résultat : si, en 1980, les émissions des pays industrialisés représentaient deux fois celles du groupe « pays en développement + Chine », cette proportion est aujourd’hui inversée.

Pour les émissions cumulées (celles qui pourraient mesurer la responsabilité historique) jusqu’à la fin du XIXe siècle, avant le plein déploiement de la révolution industrielle au Nord, ce sont les émissions des pays du Sud qui dominent.

Le paysage change ensuite du tout au tout, et cela jusqu’en 1980, date à laquelle la part des pays du Nord atteint son maximum (70 %). Depuis, elle n’a cessé de décroître du fait de la forte croissance économique des pays émergents. Aujourd’hui, elle est encore supérieure à 50 %, mais il ne faudra pas dix ans pour que les émissions cumulées des pays en développement et émergents ne dépassent celles des pays industrialisés. Les responsabilités historiques seront alors partagées de manière égale.

Une responsabilité morale ?

D’autre part, avant 1990 les conditions élémentaires pour fonder un argument de responsabilité n’étaient pas réunies. Les générations antérieures n’avaient pas la connaissance préalable du fait que les émissions de gaz à effet de serre altéreraient le climat, impossible donc de le leur reprocher et, a fortiori, d’en rendre responsables les générations ultérieures. Et, il va de soi que les générations actuelles n’ont aucune capacité d’action, aucun moyen d’infléchir les choix énergétiques et de développement des générations passées.

Par ailleurs, c’est à partir des années 1990, que l’accélération de la croissance économique des pays émergents, fondée sur une augmentation massive de leurs consommations d’énergies fossiles, se traduit par une augmentation également massive de leurs émissions. En résultat chaque année depuis vingt ans, leurs émissions dépassent toujours plus celles des pays Annexe 1.

Pour autant, en termes de responsabilité individuelle instantanée, les émissions par tête sont encore beaucoup plus élevées au Nord qu’au Sud, en raison notamment de l’intensité de leur consommation d’énergie. Avec une exception de taille cependant, puisque les émissions par tête de la Chine dépassent maintenant celles de l’Union européenne.

Graphe montrant les émissions de GES par habitant
SDES, ministère de la transition écologique (Chiffres-clé du climat 2022)

On le voit, il sera impossible de trancher la question de la responsabilité historique. Elle restera indécidable, passionnelle et au plus haut point politique. Aucun chiffre, ni aucune théorie de la justice ne pourra jamais fonder un consensus, et cette question constituera de manière durable un « skandalon », une pierre d’achoppement, susceptible de faire trébucher la négociation.

Un conflit insoluble

Les exigences des pays du Sud ne pourront être pleinement satisfaites à Charm el-Cheikh.

Sur les « pertes et dommages », une étude d’envergure publiée en 2018 les estimait à rien moins que 290-580 milliards de dollars par an d’ici 2030. Avec une intensification du réchauffement, le coût des impacts pourrait excéder 1 000 milliards de dollars chaque année d’ici 2050.

Quelle que soit la fiabilité de ces évaluations, il est irréaliste d’imaginer que les États-Unis et l’Union européenne, se lient à une responsabilité qui les contraindrait à débourser des centaines de milliards de dollars chaque année.

Personne n’a cependant intérêt à ce que la COP27 se solde par un fiasco. Un compromis, insatisfaisant, et au premier chef pour les pays en développement, devra être trouvé. La diplomatie est aussi l’art de masquer les conflits qui ne trouveront jamais de solution

Sortir du capitalisme, condition nécessaire mais non suffisante face à la crise écologique

auteur

  1. Victor CourtEnseignant-chercheur en économie à IFP School, IFP Énergies nouvelles

Déclaration d’intérêts

Victor Court est membre de la chaire « Énergie & Prospérité » et chercheur associé au Laboratoire Interdisciplinaire des Energies de Demain (LIED, Université Paris Cité). Les opinions exprimées dans ces pages n’engagent que leur auteur, elles ne reflètent en aucun cas le point de vue des institutions auxquelles il est affilié.

Partenaires

IFP Énergies nouvelles apporte un financement en tant que membre adhérent de The Conversation FR.

Voir les partenaires de The Conversation France

CC BY NDNous croyons à la libre circulation de l’information
Reproduisez nos articles gratuitement, sur papier ou en ligne, en utilisant notre licence Creative Commons.

Republier cet article

Illustration représentant des personnages dont certains partent en fumée
Avec la fin du capitalisme, la fin de la destruction de notre environnement ? Shutterstock

Alors que les impératifs de sobriété et de décarbonation se font de plus en plus pressants, les pays restent dans leur immense majorité extrêmement dépendants des ressources fossiles, dont la combustion à l’échelle mondiale aggrave et accélère la crise climatique. Dans « L’Emballement du monde », qui vient de paraître aux éditions Écosociété, l’ingénieur et économiste Victor Court propose d’explorer les liens historiques entre énergie et domination au sein des sociétés humaines. L’extrait que nous vous proposons ci-dessous se consacre plus particulièrement à l’examen critique du concept de « Capitalocène », proposé par le chercheur et militant suédois Andreas Malm, pour identifier les responsables du réchauffement climatique.


Le concept d’Anthropocène suggère que toutes les actions humaines peuvent être instantanément subsumées sous une activité globale dont l’empreinte affecte la biogéosphère. Il fabrique ainsi une humanité abstraite, aussi uniformément concernée que responsable.

Ce grand discours est problématique, car, s’il est certain que tous les humains vont subir les conséquences du dérèglement climatique et de l’effondrement de la biodiversité (dans des proportions très différentes cependant), il est impossible au regard de l’histoire d’affirmer que tous les membres de l’humanité partagent le même degré de responsabilité dans ce désastre.

Un Nord-Américain ne peut pas être aussi responsable des bouleversements du système Terre qu’un Kenyan qui consomme en moyenne 30 fois moins de matières premières et d’énergie que lui.

C’est principalement en raison de cette défaillance conceptuelle qu’Andreas Malm a proposé, l’un des premiers, la notion de « Capitalocène » comme solution de remplacement.

L’humanité évoluerait dans cette époque depuis environ 200 ans, au moment de la mise en place du capital fossile – un système défini par Malm, rappelons-le, comme « la production de valeur d’échange et la maximisation des profits au moyen de l’énergie fossile ».

Bien qu’elle soit très enrichissante sur le plan intellectuel, cette idée n’est pas non plus exempte de défauts.

L’avènement du capitalisme fossile

Tout d’abord, si le concept de Capitalocène sert à désigner une nouvelle époque géologique qui aurait commencé avec la révolution industrielle, alors il souffre d’un problème de dénomination, car le capitalisme ne désigne pas un mode d’organisation économique que l’on peut restreindre aux 200 dernières années. […]

Il a existé en Europe un capitalisme marchand que l’on peut qualifier de « concentré » à partir du XIIe siècle environ. De plus, les premiers indices d’acquisition de terres par quelques riches familles datent du milieu du IIIe millénaire avant l’ère commune à Sumer, tandis que la propriété privée lucrative – concept qui fonde probablement plus que tout autre la notion de capitalisme – est avérée depuis les Romains.

Comme le synthétise l’archéologue Dominique Garcia :

« L’accumulation du capital couplée à la recherche de profit s’est d’abord développée avec l’appareil d’État et les institutions des palais et des temples. » […]

La question de l’origine antique ou médiévale du capitalisme est très complexe, et il n’est pas question ici de tenter d’y répondre convenablement. Malgré tout, il faut admettre que le capitalisme marchand du second Moyen Âge et du début de la période moderne a été suivi à partir du XIXe siècle par un capitalisme fossile, auquel on peut d’abord ajouter le qualificatif d’« industriel », mais qui serait peut-être mieux désigné aujourd’hui par le terme « financier » – même si l’industrie reste forcément le soubassement sur lequel la finance et les services s’appuient pour activer leurs processus d’accumulation du capital.

Il est même clair qu’à partir du XVIe siècle, le capitalisme marchand a préparé le terrain pour que le capitalisme industriel s’exprime pleinement par la suite, notamment par le biais du système colonial des plantations esclavagistes.

En effet, nous disent Christophe Bonneuil et Jean-Baptiste Fressoz :

« L’Anthropocène n’est pas sorti tout armé du cerveau de James Watt, de la machine à vapeur et du charbon, mais d’un long processus de mise en relation économique du monde, d’exploitation des hommes et du globe, remontant au XVIe siècle et qui a rendu possible l’industrialisation. »

La dénomination de Capitalocène n’est donc pas adaptée pour désigner les 200 dernières années du capitalisme fossile, comme Andreas Malm et d’autres souhaitent le faire. Si Capitalocène il y a, celui-ci remonte au XVIe siècle, voire au début du second Moyen Âge (XIIe siècle), et peut-être même à l’Antiquité dans des formes plus diffuses.

Des régimes non capitalistes extrêmement extractivistes

Ensuite, le terme Capitalocène tend à évincer un fait majeur du XXe siècle, à savoir que des régimes non capitalistes – ou en tout cas n’autorisant pas la propriété privée – ont été extrêmement extractivistes et polluants. Tout comme les sociétés capitalistes, ces régimes d’inspiration socialiste prenant la forme de collectivismes bureaucratiques et totalitaires ont massivement eu recours aux énergies fossiles, tout en engendrant des désastres écologiques comparables à ceux du capitalisme occidental.

Partant de ce constat, le philosophe Serge Audier écrit :

« Si l’on décidait de parler de « capitalocène », peut-être faudrait-il alors se résoudre à parler également, en un certain sens, de « socialocène » et surtout de « communistocène », ce que curieusement personne ne se risque à faire. Aussi pénible que soit la reconnaissance du rôle majeur joué dans la crise écologique non seulement par les régimes communistes, mais aussi, beaucoup plus largement, par le socialisme et la gauche dans leur axe majoritaire, cette responsabilité historique doit être pleinement assumée. »

Andreas Malm reconnaît cette objection et il propose d’ailleurs de désigner par « stalinisme fossile » ce type de système économique qui se définit par « la maximisation du pouvoir bureaucratique au moyen des combustibles fossiles ». Pour autant, Malm ne conclut pas que cette réalité invalide sa proposition d’utiliser le concept de Capitalocène pour désigner l’époque où l’humanité est devenue une force agissante d’ampleur tellurique.

Ses arguments consistent à dire que « chronologiquement, causalement, historiquement, le lien entre l’économie fossile et le capitalisme semble plus étroit » et que « surtout, le stalinisme est mort ».

Certes, le stalinisme n’est plus, et allons même jusqu’à admettre l’intensité moindre de son lien avec l’énergie fossile par rapport au capitalisme (hypothèse hautement contestable qu’il s’agirait de démontrer). Cela n’enlève strictement rien au problème : il a existé des économies fossiles ne reposant pas sur le capitalisme (de propriété privée) au XXe siècle, et il faut reconnaître que les doctrines socialistes et communistes ne se sont réellement souciées des contraintes écologiques qu’assez récemment.

Ceci renforce l’idée que le concept de Capitalocène est inadapté pour correctement qualifier la période pendant laquelle les activités humaines ont fait sortir la Terre de l’Holocène.

Un jour, la fin de l’accumulation infinie ?

En plus de son incapacité à capter la réalité du passé, le concept de Capitalocène pourrait être aussi inopérant dans le futur.

Même s’il est difficile de le définir, le capitalisme a bien eu un début et par extension il est fort probable qu’il aura une fin – même s’il nous paraît parfois plus facile d’imaginer la fin du monde que celle du capitalisme.

En vérité, on peut être absolument certain que la fin du capitalisme arrivera un jour pour une raison très simple : dans un monde où les limites physiques sont par définition finies, l’accumulation infinie du capital est logiquement impossible […].

Cette fin du capitalisme ne correspondra sûrement pas à une chute brutale. Comme son origine, elle sera issue d’un long processus qui impliquera qu’au bout d’un moment, à force de mutations, le mot « capitalisme » recouvrira une réalité trop différente pour que les politologues et les économistes continuent d’utiliser cette notion.

Dans ce futur hypothétique, les humains vivront peut-être dans des sociétés non capitalistes, mais en soi cela n’implique pas automatiquement que les activités humaines ne perturberont plus l’environnement à une échelle planétaire. Dans un monde où la propriété (privée ou étatique) aurait disparu – ou en tout cas ne serait plus une source de domination et d’exploitation comme aujourd’hui –, il faudrait encore parvenir à empêcher la mise en place d’autres formes d’accaparement sauvage de l’énergie et des matières premières pour que les humains ne poursuivent pas leur entreprise de destruction massive de la biogéosphère.

L’hypothèse d’un communisme réel

Plutôt que de réfléchir à cette question par un voyage dans le futur, tentons de voyager dans le passé. Imaginons qu’à partir du XVIe siècle, le monde ait emprunté une trajectoire différente.

Au lieu de prendre la voie du capitalisme moderne en allant exploiter les Amériques et l’Afrique, l’Europe aurait choisi celle d’un communisme réel – donc très loin des expériences soviétiques et chinoises de collectivisme d’État que nous avons connues au XXe siècle. On parle ici d’un communisme libertaire tel que celui imaginé par Murray Bookchin dans les années 1970-80, ou plus récemment par Bernard Friot et Frédéric Lordon. On pourrait aussi évoquer l’écosocialisme d’André Gorz et d’Ivan Illich.

Maintenant, quels arguments peut-on avancer pour établir que, dans ce genre de configuration, les combustibles fossiles n’auraient pas été exploités ? Bien sûr, les penseurs que nous venons de citer ont justement formulé leurs propositions pour nous aider à sortir des combustibles fossiles – et plus largement à rester à l’intérieur des limites du système Terre.

Mais est-on certain que ces intellectuels auraient fait preuve du même égard pour le climat et la biodiversité s’ils avaient vécu au XVIIIe ou au XIXe siècle ? Et en dehors de ces individus, en quoi les sociétés dans leur ensemble auraient-elles été mieux positionnées pour choisir délibérément de renoncer à l’abondance matérielle associée à la manne fossile ? Honnêtement, on ne voit pas bien comment élaborer un argumentaire convaincant.

Tout au plus peut-on imaginer que les ressources fossiles auraient été exploitées un peu moins frénétiquement, et sûrement aussi avec plus d’équité. Mais on peut penser que le résultat en matière de déstabilisation du système Terre aurait été grosso modo le même, le désastre environnemental que nous connaissons aujourd’hui serait seulement arrivé un peu plus tard.

Ainsi, si on peut être certain de la nature intrinsèquement destructrice du capitalisme – et qu’en cela les souhaits de développement durable, de croissance verte et d’économie circulaire s’inscrivant dans ce cadre ne pourront jamais être autre chose que de vaines incantations –, rien ne dit qu’une économie non capitaliste conduirait automatiquement à une société plus soutenable.

Exploitation, accaparement, pillage

Mettre le capitalisme à l’arrêt est donc une condition nécessaire, mais non suffisante pour instaurer un vivre humain qui demeurerait à l’intérieur des limites du système Terre. Si les géologues du présent entérinent finalement la sortie de l’Holocène et nomment Capitalocène l’époque géologique actuelle, ceux du futur se retrouveront dans une situation très embarrassante si le capitalisme vient à disparaître, mais qu’en même temps les humains maintiennent leur emprise destructrice sur la planète.

Enfin, comme le concept d’Anthropocène, celui de Capitalocène entraîne un problème d’identification des responsabilités.

Il pourrait tout d’abord laisser penser à certains que les capitalistes – c’est-à-dire les détenteurs des moyens de production – sont les seuls coupables. Nul doute que par le pouvoir et la richesse qu’ils détiennent, certains capitalistes, sinon la plupart, sont individuellement responsables d’un grand nombre d’actions néfastes pour l’humanité.

La réalité est tout de même plus complexe […], et chaque individu peut comprendre qu’il participe lui aussi à la perpétuation du capitalisme fossile, ne serait-ce que par ses choix de consommation – ou plutôt par son non-choix de changer radicalement son mode de vie –, sans oublier bien sûr la responsabilité énorme qui revient aux dirigeants politiques à cause de leur inaction. […]

C’est bien parce que tous ces acteurs sont interconnectés aux processus de production et de consommation – très souvent au travers de relations antagonistes – que nous avons tant de mal à renoncer aux énergies fossiles.

Mais quoi qu’il en soit, avec le concept de Capitalocène, ce que Malm et d’autres penseurs souhaitent désigner comme le vrai responsable des maux de l’humanité correspond plutôt au capital, c’est-à-dire le rapport social d’exploitation qui existe entre les capitalistes et les travailleurs ne détenant pas les moyens de production.

La source de la propension destructrice de certaines sociétés humaines – dans lesquelles se trouve la quasi-totalité de l’humanité aujourd’hui – se situerait donc non pas dans le fait qu’il existe des capitalistes en tant que tels, mais dans le fait que ces derniers – comme d’autres avant eux – sont en mesure d’exploiter leurs semblables, notamment en rétribuant leur force de travail à une valeur inférieure à celle produite réellement par ce travail, afin de créer une plus-value qu’ils peuvent accaparer.

En fin de compte, la logique du capital renvoie à un phénomène plus large que chacun peut observer dans l’histoire et surtout dans sa vie quotidienne : l’existence protéiforme et omniprésente de relations de domination entre les individus […]. Et l’existence d’une domination institutionnalisée qui traverse la totalité de la société n’est pas une exclusivité des 200 à 300 dernières années.

[…]

« L’Emballement du monde » est paru aux éditions Écosociété le 10 novembre 2022. CC BY-NC-ND

Finalement, malgré ses qualités indéniables, le concept de Capitalocène souffre d’insuffisances à la fois trop nombreuses et trop importantes pour être un substitut pertinent du concept d’Anthropocène. L’exploitation de la majorité par une minorité pour accaparer des surplus tout en pillant les ressources de la nature n’a pas attendu le capitalisme moderne pour exister.

Le capitalisme n’est donc pas en soi la cause ultime de la destruction de notre environnement global, même s’il faut reconnaître qu’il fait preuve d’une efficacité redoutable dans ce domaine, en particulier depuis qu’il est basé sur l’énergie fossile.

Et si les océans tropicaux piégeaient plus de CO₂ que prévu

auteurs

  1. Sophie BonnetDirectrice de recherche IRD, Océanographe, Institut Méditerranéen d’Océanologie (M.I.O), Institut de recherche pour le développement (IRD)
  2. Frédéric A.C. Le MoigneFrédéric Le Moigne, Chargé de recherche CNRS, océanographe, Laboratoire des Sciences de l’Environnement Marin (LEMAR), Université de Bretagne occidentale

Déclaration d’intérêts

Sophie Bonnet a reçu des financements de l’ERC, de l’ANR, de l’IRD et du CNRS-INSU.

Frédéric A.C. Le Moigne a reçu des financements de ANR, CNRS-INSU.

Partenaires

Institut de Recherche pour le Développement (IRD) apporte des fonds en tant que membre fondateur de The Conversation FR.

Voir les partenaires de The Conversation France

CC BY NDNous croyons à la libre circulation de l’information
Reproduisez nos articles gratuitement, sur papier ou en ligne, en utilisant notre licence Creative Commons.

Republier cet article

L’océan constitue un puits de carbone, porteur d’enjeux majeurs dans l’évolution du climat. Parmi les phénomènes impliqués dans ce piégeage de CO2 par l’océan, le plancton végétal (ou phytoplancton) absorbe le CO2 par photosynthèse, fabrique de la matière organique constituée de carbone, qui est transférée le long de la chaîne alimentaire marine. À la mort des organismes, une partie de cette matière carbonée sédimente au fond des océans soustrayant ainsi du CO2 à l’atmosphère. C’est ce que l’on appelle la pompe biologique de carbone en terme scientifique.

Les océans tropicaux et subtropicaux (environ 50 % de la surface de l’océan global) sont considérés comme peu efficaces pour piéger du CO2 par voie biologique car ce sont des zones pauvres en azote (nitrates) (Fig. 1A). L’absence de ce nutriment essentiel limite la croissance du phytoplancton, et par extension la pompe biologique de carbone. Ces vastes régions peu productives et donc dites « oligotrophes » (Fig. 1B) abritent pourtant un type de plancton particulier appelé « diazotrophe ».

Figure 1. A : Carte mondiale des concentrations en nitrates de surface, World Ocean Atlas. B : Concentrations en chlorophylle (une estimation du contenu en phytoplancton) de surface montrant les zones dites « oligotrophes » en bleu et violet, essentiellement en zone (sub)tropicale. World Ocean/NASA

Ces microorganismes fixent du CO2 comme le phytoplancton classique mais sont également capables de transformer l’azote gazeux dissous dans l’eau (le N2, une ressource inépuisable), en azote disponible pour le métabolisme.

Cet azote nouvellement apporté à l’océan soutient la photosynthèse et la chaîne alimentaire marine qui en découle, maintenant ainsi en partie la production biologique dans ces régions pauvres en nitrates. Parmi ces diazotrophes, l’espèce Trichodesmium est la plus étudiée à ce jour car elle est de grande taille (>100 µm) et peut former de vastes floraisons s’étendant sur plusieurs centaines de kilomètres, pouvant ainsi être détectée par satellite (Fig. 2).

Figure 2. A : Efflorescence de Trichodesmium détectée par satellite dans l’océan Pacifique subtropical Sud, NASA. B : Colonie de Trichodesmium erythraeum (x100). C : Diazotrophes unicellulaires (x400). Sophie Bonnet/NASA

D’autres diazotrophes de plus petite taille (1 à 8 µm), appelés unicellulaires, sont également omniprésents dans l’océan (sub)tropical, l’aire de répartition de certains groupes s’étendant même jusqu’aux régions tempérées et polaires. Mais alors, si ces organismes soutiennent la production biologique dans ces vastes régions océaniques, quel est leur rôle dans la pompe biologique de carbone ? Cette question est de la plus grande actualité car les simulations de l’océan du futur prédisent une expansion géographique de l’océan (sub)tropical, et avec elle une probable expansion de l’aire de répartition des diazotrophes. Malheureusement, les recherches sur ce sujet restent rares, et ce, pour plusieurs raisons.

Des diazotrophes dans l’océan profond ?

Tout d’abord, il est généralement admis que les diazotrophes ne sédimentent pas vers l’océan profond, mais sont recyclés dans la couche de surface, restituant leur CO2 à l’atmosphère. En effet, la taille et la densité des cellules ne seraient pas suffisantes pour pouvoir engendrer une chute vers les profondeurs océaniques (au-delà de 100 m)

Nos récentes études menées dans le cadre du projet TONGA (Pacifique Sud) viennent néanmoins de remettre en cause ce paradigme : en effectuant des mesures dans l’océan profond (entre 100 et 1 000 m) à l’aide d’un couplage d’outils collectant la matière carbonée qui sédimente, nous avons démontré que les diazotrophes chutent vers l’océan profond, contribuant à certains endroits à la majeure partie du flux d’export de carbone.

L’étude révèle en outre que les organismes sont peu dégradés (Fig. 3), voire quasi intacts à cette profondeur, suggérant une chute rapide et donc un faible recyclage en CO2 pendant la descente. Dans une étude complémentaire, nous révélons que certains de ces organismes (Trichodesmium) sont encore vivants à 1000 m de profondeur, confirmant leur chute rapide et donc leur export direct vers l’océan profond, où ce carbone sera piégé sur le long terme. Par des études en laboratoire, nous avons par la suite mesuré la vitesse à laquelle cette « neige marine » issue de diazotrophes coule (100 à 400 m par jour), confirmant les observations de terrain. Ces vitesses de chute relativement élevées seraient dues au fait que les petites cellules de diazotrophes (1-8 µm) ont la capacité de s’agglomérer pour former des agrégats de neige marine suffisamment grands (50-500 µm) et volumineux pour couler.

Diazotrophes (Trichodesmium sp. et unicellulaires) collectés dans les pièges à particules dans l’océan profond (170, 270, et 1000 m) dans le Pacifique Sud (Campagne TONGA). À, B, C : Photos prises en microscopie à épifluorescence. D, E, F : Photos prises en microscopie électronique à balayage. S. Bonnet, K. Leblanc, Fourni par l’auteur

L’inextricable lien entre diazotrophes et cycle du carbone

En plus de la sédimentation directe des diazotrophes, d’autres voies possibles de piégeage du carbone dérivées des diazotrophes existent (des voies indirectes), qui sont extrêmement complexes et difficiles à saisir avec les méthodes actuelles. En effet, dans ces régions où les diazotrophes soutiennent majoritairement la production biologique en surface, la neige marine résultante en profondeur peut être composée de diazotrophes (export direct), de phytoplancton non diazotrophe, de zooplancton, de détritus, de déjections ou d’un mélange de ces éléments, dont la taille varie de quelques µm à plusieurs cm.

À ce jour, il est impossible de déchiffrer ces différentes voies, de quantifier l’efficacité relative de chacune, et de savoir quels paramètres physico-chimiques et biologiques les contrôlent. Pour compliquer le tout, les processus biologiques qui contrôlent la production et la sédimentation de carbone dérivé des diazotrophes se produisent sur une large gamme d’échelles spatiales et temporelles, souvent difficiles à saisir dans l’océan. En particulier, les systèmes d’observation actuels manquent de résolution temporelle pour évaluer comment les changements environnementaux rapides (horaires, quotidiens ou saisonniers) influencent la communauté des diazotrophes en surface et, par conséquent, la quantité et la qualité du carbone exporté vers l’océan profond. Il est urgent de développer des approches appropriées pour déchiffrer ces voies si nous voulons comprendre comment et dans quelle mesure les diazotrophes exportent du carbone vers l’océan profond.

[Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du mondeAbonnez-vous aujourd’hui]

Le projet HOPE financé par l’ERC à hauteur de 2,5 millions d’euros, a pour ambition de contribuer à lever ces verrous technologiques grâce à un couplage d’approches à l’interface entre l’océanographie microbienne, la géochimie et la technologie des capteurs autonomes, qui examinent les processus se produisant à différentes échelles spatio-temporelles, et sont capables de saisir les caractéristiques transitoires et saisonnières de la pompe biologique soutenue par les diazotrophes.

Dans sa phase finale, HOPE a pour ambition de produire des cartes globales et spatialement résolues de la contribution des diazotrophes à l’export global de carbone, et les métriques nécessaires pour alimenter la composante marine des modèles de climat. Ces modèles prévoient un océan du futur plus chaud et plus stratifié, dans lequel l’aire de répartition des diazotrophes pourrait encore s’étendre. Explorer en détail leur rôle dans la pompe biologique à carbone est donc de la plus grande actualité.


Cet article est publié dans le cadre de la Fête de la science (qui a lieu du 7 au 17 octobre 2022 en métropole et du 10 au 27 novembre 2022 en outre-mer et à l’international), dont The Conversation France est partenaire. Cette nouvelle édition a pour thème : « Le changement climatique ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr

Vladimir Poutine et le fiasco des services secrets en Ukraine

auteur

  1. Andreï KozovoïMaître de conférences HDR, Université de Lille

Déclaration d’intérêts

Andreï Kozovoï ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

Partenaires

Université de Lille et Université Lille Nord-Europe (ULNE) fournissent des financements en tant que membres adhérents de The Conversation FR.

Voir les partenaires de The Conversation France

CC BY NDNous croyons à la libre circulation de l’information
Reproduisez nos articles gratuitement, sur papier ou en ligne, en utilisant notre licence Creative Commons.

Republier cet article

Militaire devant des chars détruits
Un militaire ukrainien passe devant des chars russes détruits, près de Kiev, le 24 avril 2022. La Russie a déjà perdu près de 1 200 chars et au moins 6 000 soldats. Sergei Supinsky/AFP

 Adresse électronique

 Twitter5

 Facebook

 Linkedin

 Imprimer

Quand la Russie a lancé son invasion à grande échelle de l’Ukraine le 24 février 2022, Vladimir Poutine s’attendait sans doute à ce que cette « opération militaire spéciale » (selon l’euphémisme systématiquement employé par le Kremlin, qui réfute contre toute logique le terme de « guerre ») se solde par un rapide triomphe. Plus de huit mois plus tard, il n’en est rien : l’Ukraine s’est révélée bien plus déterminée – et bien plus soutenue – que le Kremlin l’avait prévu. Pour comprendre l’erreur d’analyse initiale de la direction russe, nous vous proposons ici un extrait du « Livre noir de Vladimir Poutine », ouvrage collectif dirigé par Stéphane Courtois et Galia Ackerman, qui paraît le 11 novembre aux éditions Robert Laffont/Perrin. Ce passage est issu d’un chapitre que l’historien Andreï Kozovoï (Université de Lille), auteur notamment de « Les services secrets russes », consacre à ce fiasco des services de renseignement dont Moscou n’a pas fini de payer le prix.


Début mars 2022, moins de deux semaines après le début de l’invasion russe de l’Ukraine, plus aucun doute n’était permis : en lieu et place d’une entrée triomphale dans Kiev, sous les vivats de ses habitants, la glorieuse armée de Poutine fut mise en déroute, subissant de lourdes pertes. L’ombre de la guerre d’Afghanistan (1979-1989) commença à planer sur l’« opération militaire spéciale », les rumeurs allant bon train sur le fait que Vladimir Poutine, « intoxicateur » professionnel, avait lui-même été « intoxiqué ».

Au vu de l’humiliation, de nombreuses têtes devaient inévitablement tomber. En toute logique, Poutine aurait dû d’abord s’en prendre à Alexandre Bortnikov, le directeur du FSB, le Service fédéral de sécurité, et à Nikolaï Patrouchev, secrétaire du Conseil de Sécurité qui, à en croire un ouvrage à paraître, l’auraient convaincu de privilégier la solution militaire en Ukraine. Poutine aurait dû s’en prendre au ministre de la Défense, Sergueï Choïgou, et au chef de l’état-major, Valeri Guerassimov, qui l’avaient rassuré en lui vantant « la grande expérience » des troupes russes. […] Les punir pour l’exemple et en public aurait cependant pu s’avérer contre-productif et constituer un aveu d’échec, alors qu’officiellement la Russie n’avait pas dévié d’un iota de son plan en Ukraine. Et puis, Bortnikov, Patrouchev, Choïgou et Guerassimov ont sans doute plaidé « non coupables » en clamant qu’eux aussi avaient été bernés par des rapports, fournis par les services secrets. Des rapports qui décrivaient l’armée ukrainienne comme non opérationnelle, Volodymyr Zelensky en bouffon sans réelle étoffe de président, et misaient sur un Occident désuni et passif, comme en 2014 après l’annexion de la Crimée.

Vladimir Poutine échange avec le ministre de la Défense Sergueï Choïgou (à gauche) et le chef d’état-major Valéri Guerassimov à Moscou, le 27 février 2022. Alexey Nikolsky/AFP

Ces services de renseignement, rappelons-le, sont constitués de trois organisations principales : une militaire, connue sous son nom de la GRU (Direction principale du renseignement) –, placée sous le commandement du ministre de la Défense, mais en réalité de Poutine ; et deux organisations civiles dépendant directement du président de la Fédération de Russie, le SVR, Service de renseignement extérieur, et le FSB, Service fédéral de sécurité, chargé du contre-espionnage, mentionné plus haut.

[Plus de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du mondeAbonnez-vous aujourd’hui]

Contrairement aux services occidentaux, juridiquement encadrés et contrôlés, les services secrets russes forment l’ossature du système poutinien, l’alpha et l’oméga de sa gouvernance. Leur particularité est de ne pas seulement s’occuper du renseignement, de la collecte et de l’analyse d’informations, mais aussi de remplir des fonctions de police politique, de répression (voire d’élimination) des opposants et des « traîtres », dans la pure tradition soviétique. Les empoisonnements au Novitchok de l’ancien colonel de la GRU Sergueï Skripal, en 2018, et de l’opposant Alexeï Navalny, en 2020, sont deux exemples récents d’opérations pour lesquelles l’implication des services secrets russes a été démontrée – deux exemples parmi de nombreux autres. Leurs cadres, les siloviki (du mot russe sila, « la force »), sont une « nouvelle noblesse », expression que l’on doit à Nikolaï Patrouchev, ancien directeur du FSB, désormais secrétaire du Conseil de sécurité, qui est perçu comme le plus grand « faucon » du Kremlin.

Au final, ce ne sont donc ni Choïgou, ni Guerassimov, ni Patrouchev, ni aucune autre personnalité de l’entourage de Poutine qui allait faire les frais du fiasco de la « guerre éclair » russe en Ukraine, mais des « seconds couteaux » issus des services secrets et d’abord du FSB, parmi lesquels un haut gradé, Sergueï Besseda, un général de 68 ans, [chef depuis 2008] du Cinquième Service du FSB, le Service des informations opérationnelles et des relations internationales. Accusé en mars 2022 de corruption et d’avoir « sciemment désinformé » ses supérieurs, celui-ci fut d’abord placé en résidence surveillée. Vers la mi-avril, dans le contexte du naufrage du croiseur Moskva, quand Poutine fut incapable de contenir sa colère et exigea des coupables, il fut transféré dans le plus grand secret à Lefortovo, célèbre prison moscovite réservée aux personnalités éminentes.

[…]

Même si la GRU et le SVR avaient leurs réseaux en Ukraine, c’est le Cinquième Service qui, de l’avis de plusieurs experts, aurait eu la plus grande influence auprès du Kremlin avant le lancement de l’« opération militaire spéciale ». De fait, l’unité ukrainienne dont il avait la charge passa de 30 personnes en 2019 à 160 à l’été 2021. Des agents envoyés en Ukraine se voyaient confier l’objectif de recruter des collaborateurs et de neutraliser des adversaires de Moscou. C’est Besseda qui aurait donc exercé une influence déterminante sur Poutine par ses analyses et l’aurait convaincu de donner son feu vert. Mais a-t-il « sciemment » désinformé le président russe ? N’était-il pas lui-même convaincu que la conquête de l’Ukraine serait une promenade de santé ? Après tout, on sait aujourd’hui que quelques jours avant l’invasion, les hommes de Besseda avaient envoyé à leurs agents ukrainiens l’ordre de laisser les clés de leurs appartements aux « hommes de Moscou » qui seraient venus organiser l’installation d’un régime marionnette après la victoire de la Russie.

À la décharge de Besseda, il a pu exister au sein du renseignement russe une tendance sinon à désinformer, du moins à croire exagérément dans les chances de succès de cette opération, et ce pour plusieurs raisons. En effet, le renseignement militaire avait amorcé une « mue agressive » depuis 2011, avec la nomination, au poste de premier adjoint du directeur, du général Vladimir Alekseïev. Celui-ci profita du renforcement du rôle de la GRU sous la direction de Choïgou pour devenir le principal collecteur de l’information en provenance d’Ukraine.

À une certaine prudence propre au renseignement militaire aurait succédé, avec cet ancien membre des forces spéciales – les spetsnaz –, la volonté de prendre plus de risques, ce qui pourrait expliquer les opérations d’empoisonnement, dont la plus connue fut celle de Sergueï Skripal en Grande-Bretagne. Ajoutons-y les effets délétères sur l’information de la concurrence entre les renseignements militaire et civil, la GRU et le FSB, qui aurait pu pousser Besseda à vouloir « surenchérir » pour ne pas laisser son adversaire occuper le terrain.

Cadavres en uniforme de l’armée russe
Les corps de onze soldats russes tués au combat au village de Vilkhivka, à l’est de Kharkiv, photographiés le 9 mai 2022. Igor Tkachov/AFP

[…]

« Personne n’aime les porteurs de mauvaises nouvelles. » Au fil des ans et des élections truquées, le président a peu à peu perdu le sens des réalités, réduisant son cercle d’amis et de confidents. Les seuls susceptibles d’avoir encore une influence sur lui étaient Alexandre Bortnikov, le directeur du FSB, et Sergueï Narychkine, le directeur du SVR, pour le renseignement civil. Or, Poutine méprise le renseignement – ainsi Narychkine fut-il publiquement humilié le 21 février 2022, trois jours avant l’invasion, en pleine réunion du Conseil de sécurité ; et l’amiral Igor Kostioukov, l’actuel patron de la GRU, serait affublé de sobriquets. Si les services secrets occupent une place centrale dans le processus décisionnel poutinien, paradoxalement, Poutine ne les tient pas en haute estime. […]Ukraine : l’échange lunaire entre Poutine et le chef du renseignement extérieur russe, Le Parisien, 21 février 2022.

Dans ce contexte, que restait-il aux « seconds couteaux » comme Besseda, sinon de trier soigneusement l’information pour conforter le Maître dans ses illusions ? […]

Besseda [aurait été libéré et] serait revenu travailler à son bureau de la Loubianka. Il ne faut pas y voir la trace d’une quelconque volonté de le réhabiliter, et encore moins le signe d’une prise de conscience, tardive, chez le président, de ses propres erreurs de jugement, mais plutôt la volonté de limiter le risque d’une aggravation de la situation. […]

De fait, si l’arrestation de Besseda doit être interprétée comme un avertissement lancé aux services de renseignement, au FSB en particulier, sa libération correspond à un « repli tactique » destiné à couper court aux rumeurs sur les divisions internes et les dissensions entre les dirigeants et la « base ». Il s’agit de rassurer les « seconds couteaux » dont dépendent à bien des égards la stabilité du système et la bonne gestion du processus décisionnel.

Ce texte est issu de « Le Livre noir de Vladimir Poutine », qui vient de paraître aux éditions Robert Laffont/Perrin. Robert Laffont/Perrin

Ce monde de l’ombre est soumis à la pression de l’exécutif, mais également aux sanctions occidentales qui ont mis à mal les réseaux de renseignement russe à l’étranger. Entre février et avril 2022, plus de 450 « diplomates » russes ont été expulsés de 27 pays et d’organisations internationales, soit trois fois plus qu’après le scandale de l’affaire Skripal. Poutine a d’autant plus intérêt à ménager ses cadres du renseignement qu’il est confronté à la présence d’un « parti de la guerre », une fraction des siloviki en désaccord avec les objectifs revus à la baisse de l’« opération militaire spéciale » – non plus la conquête de l’Ukraine, mais l’occupation et l’annexion du Donbass. Ces cadres de la base voudraient voir Poutine annoncer la mobilisation générale et utiliser des armes de destruction massive pour en finir au plus vite.

[…]

La libération de Besseda semble donc indiquer que Poutine tenterait d’apprendre de ses erreurs. L’effet de cette prise de conscience sera-t-il durable ? Cela est peu probable tant que Poutine sera aux commandes, avec sa vision paranoïde du monde et de l’Histoire, son système de valeurs anti-occidental et son obsession d’une Ukraine « dénazifiée », mais aussi tant que le principal modèle d’inspiration des services secrets russes restera le KGB d’Andropov et, de plus en plus, le NKVD stalinien.

Climat : planter des millions d’arbres pour lutter contre le réchauffement… mais pas n’importe comment

auteurs

  1. Lander BaetenAssociate professor conservation ecology, Ghent University
  2. Charlotte GrossiordProfessor of environmental sciences and engineering, EPFL – École Polytechnique Fédérale de Lausanne – Swiss Federal Institute of Technology in Lausanne
  3. Christian MessierFull professor, forest ecology, Université du Québec à Montréal (UQAM)
  4. Haben BlondeelPostdoctoral associate, Ghent University
  5. Hervé JactelDirecteur de recherche en écologie forestière, Inrae
  6. Joannès GuillemotResearcher in forest ecophysiology, Cirad
  7. Kris VerheyenProfessor, forest ecology and management, Ghent University
  8. Michael Scherer-LorenzenProfessor, Biodiversity and Ecosystem Functioning, University of Freiburg

Déclaration d’intérêts

Lander Baeten a reçu des financements du programme Climate & Biodiversity de la Fondation BNP Paribas (projet CAMBIO).

Charlotte Grossiord a reçu des financements de la Fondation Sandoz et du Fonds national suisse.

Christian Messier a reçu des financements du Conseil de recherche en Sciences et Génie du Canada (CRSNG).

Hervé Jactel a reçu des financements de l’UE via l’appel Biodiversa (projet MixForChange).

Joannès Guillemot a reçu des financements de l’UE via l’appel Biodiversa (projet MixForChange).

Michael Scherer-Lorenzen a reçu des financements de Deutsche Forschungsgemeinschaft (DFG).

Haben Blondeel et Kris Verheyen ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur poste universitaire.

Partenaires

Université du Québec à Montréal (UQAM) apporte des fonds en tant que membre fondateur de The Conversation CA-FR.

INRAE apporte des fonds en tant que membre fondateur de The Conversation FR.

Université du Québec à Montréal (UQAM) apporte un financement en tant que membre adhérent de The Conversation CA.

Cirad et AUF (Agence Universitaire de la Francophonie) fournissent des financements en tant que membres adhérents de The Conversation FR.

Voir les partenaires de The Conversation France

Langues

CC BY NDNous croyons à la libre circulation de l’information
Reproduisez nos articles gratuitement, sur papier ou en ligne, en utilisant notre licence Creative Commons.

Republier cet article

Un homme plante de jeunes arbres sur l’île de Bornéo
Un membre du projet de reforestation de Pesalat, sur l’île de Bornéo, replante des arbres dans une zone de marécage tourbeux défrichée par les incendies et l’exploitation forestière. World Ressources Institute, CC BY

 Adresse électronique

 Twitter

 Facebook1

 Linkedin

 Imprimer

Compte tenu de l’accentuation des dérèglements climatiques, il est indispensable de restaurer les espaces forestiers et de veiller à la pérennité des nouvelles plantations. Le Tree Diversity Network, un réseau international de recherche, s’y emploie.

Si l’intérêt des responsables politiques pour les cérémonies de plantation d’arbres ne date pas d’hier, les projets de reboisement raisonnés revêtent aujourd’hui une importance grandissante, comme le montre la multitude d’initiatives internationales visant à décupler la couverture forestière mondiale en réhabilitant des millions d’hectares de terres dégradées et déboisées.

Lancé en 2017, le plan stratégique des Nations unies pour les forêts est sans aucun doute l’une des initiatives les plus emblématiques en ce sens, puisqu’elle vise à accroître la couverture forestière mondiale de 3 % d’ici à 2030 ; cela équivaut à 120 millions d’hectares, soit une superficie plus de deux fois supérieure à celle de la France.

Mobilisant plus de 60 pays, le Défi de Bonn a quant à lui pour objectif de restaurer le double de la surface visée par le plan de l’ONU, soit 350 millions d’hectares, sur la même période.

Pour les écologistes forestiers, ces efforts indispensables soulèvent néanmoins de grandes interrogations. Comment faire en sorte que les forêts restaurées assurent toutes les fonctions que nous attendons d’elles ? Que faire pour les rendre résilientes afin qu’elles continuent de pleinement jouer leur rôle à l’avenir, tout particulièrement dans le contexte des dérèglements climatiques à l’œuvre ? Dans quelle mesure la restauration des zones forestières peut-elle contribuer à résoudre d’autres problèmes majeurs à l’échelle mondiale, tels que la lutte contre l’appauvrissement de la biodiversité et la dégradation de l’environnement ?

Choisir les zones propices au reboisement

Pour passer des promesses des responsables politiques à une restauration efficace des forêts, assurée par les acteurs de terrain, il est nécessaire de s’appuyer sur la science. Le principal défi consiste à recenser les zones de la planète les plus adaptées au reboisement, en ayant recours à une planification intégrée du paysage qui tienne notamment compte des considérations suivantes :

  • répondre aux besoins croissants en matière de production alimentaire ;
  • éviter de cibler les espaces riches en biodiversité tels que les pâtures exploitées de manière intensive, qu’il convient de ne pas convertir en zones boisées, même si elles se prêtent a priori aux plantations sylvicoles ;
  • tenir compte des atouts économiques et culturels qu’offrent les autres modes d’utilisation des sols.

Des chercheurs s’emploient à établir des cartes détaillées visant à illustrer ce potentiel de restauration à l’échelle mondiale en dehors des zones forestières, agricoles et urbaines existantes. Malgré tout, la question de savoir quelle proportion de ces terres devrait être transformée en forêts suscite de nombreux débats.

Bien sélectionner les essences

Une fois définies les zones de reboisement appropriées, le défi suivant consiste à déterminer la nature des plantations, laquelle s’avère décisive au regard des efforts déployés. Les forêts couvrent aujourd’hui environ 30 % des terres émergées de la planète, et selon l’Évaluation des ressources forestières mondiales menée en 2020 par la FAO (l’Organisation des Nations unies pour l’alimentation et l’agriculture), les forêts plantées représentent d’ores et déjà 290 millions d’hectares, soit environ 7 % de la superficie forestière mondiale, et fournissent près de 50 % des volumes de bois récoltés.

Les experts forestiers s’intéressent tout particulièrement aux essences à planter, sachant qu’elles détermineront la nature des parcelles reboisées pour les décennies à venir. Il convient donc de veiller à ce qu’elles soient bien adaptées, en présentant par exemple un fort potentiel de croissance, de bonnes capacités en matière de séquestration du carbone et une forte contribution à la biodiversité.

Elles doivent par ailleurs être en mesure de faire face aux défis environnementaux croissants du XXIe siècle, et tout particulièrement aux dérèglements climatiques, en résistant à des périodes de sécheresse sans précédent, telles que celles qui ont frappé de nombreuses parties de l’Europe au printemps et à l’été 2022.

Malheureusement, aucune essence ne présente à elle seule toutes ces caractéristiques, ce qui oblige à faire des compromis lorsqu’il s’agit de faire des choix dans le cadre des projets de reboisement.

Privilégier les plantations diversifiées

Jusqu’à présent, la plupart des projets de plantation d’arbres à grande échelle se sont inspirés de modèles monoculturels faisant presque exclusivement appel à un nombre très réduit d’essences commerciales (le plus souvent, des pins, des épicéas ou des eucalyptus). Or, il est bien difficile en observant ces monocultures de savoir comment planifier, planter et gérer des forêts à même de résister aux contraintes environnementales. Fort heureusement, des scientifiques du monde entier ont établi des plantations expérimentales, riches en enseignements.

Les expérimentations menées par notre équipe dans le cadre du réseau Tree Diversity visaient à évaluer de manière rigoureuse la façon dont telle ou telle essence se développe, tout particulièrement lorsqu’on les associe les unes aux autres.

Ces études relativement récentes ne portent pour l’instant que sur des sujets d’une vingtaine d’années tout au plus, et donc sur les premiers stades de l’évolution des forêts ; cela permet néanmoins d’obtenir des renseignements précieux au regard de l’implantation des arbres et de leur croissance.

[Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du mondeAbonnez-vous aujourd’hui]

À l’heure actuelle, nos travaux tournent essentiellement autour de la pousse des arbres. Nous nous efforçons ainsi de déterminer s’ils grandissent plus rapidement lorsqu’ils partagent leur espace de croissance avec d’autres essences dont les besoins diffèrent. Nous étudions également la résistance de diverses essences aux variations climatiques et à d’autres phénomènes potentiellement nocifs.

Les équipes du TreeDivNet interviennent dans la plupart des grandes zones climatiques du globe, notamment boréales et tempérées, la Méditerranée et les tropiques.

Ces espaces de travail couvrent plus de 850 hectares – l’équivalent de 1 200 terrains de football – et représentent l’une des plus vastes installations de recherche écologique au monde, où sont menées pas moins de 30 études sur l’évolution d’environ 250 essences. Des données cruciales y sont recueillies, afin de nous permettre d’en savoir davantage sur les combinaisons d’essences qui permettent d’obtenir les résultats voulus et présentent la meilleure résistance aux menaces pesant sur l’environnement.

Résister aux phénomènes extrêmes

Dans le cadre de la lutte contre le réchauffement de la planète, les chercheurs du TreeDivNet unissent leurs efforts afin de déterminer quelles associations d’essences sont les plus adaptées pour permettre aux plantations de prospérer dans un contexte environnemental incertain et en pleine mutation.

Leur contribution potentielle aux efforts d’atténuation des dérèglements climatiques et d’adaptation à leurs effets repose sur la capacité des jeunes plants à survivre aux phénomènes extrêmes, comme la sécheresse et les incendies, ainsi qu’aux parasites tels que les scolytes.

Nos travaux ont permis d’estimer la survie de centaines de milliers d’arbres au cours de leurs premières années de croissance, et les premiers résultats révèlent que les plantations mixtes sont moins susceptibles de conduire à un échec total.

Par ailleurs, les monocultures, généralement plus productives, s’avèrent en général moins résilientes, ne résistant pas toujours à des épisodes de fortes contraintes. La réduction du risque de mortalité des arbres dans les plantations mixtes, connue sous le nom d’« effet de portefeuille » ou d’« effet d’assurance », pourrait ainsi offrir une stratégie d’adaptation aux gestionnaires forestiers qui s’efforcent d’assurer la pérennité des forêts dans des contextes futurs incertains. Comme ces expressions l’indiquent, ce procédé s’apparente à la manière dont nous diversifions notre épargne pour garantir des revenus plus réguliers à long terme.

Les arbres que nous étudions sont soumis à des tests poussés reposant sur des techniques de pointe. Des radiographies de carottes de bois permettent de recenser les sujets dont la croissance a été retardée par la sécheresse ou d’autres aléas, tandis que l’observation des isotopes du carbone nous indique s’ils ont subi un stress hydrométrique, ce qui ralentit le cas échéant la photosynthèse.

Notre objectif consiste à synthétiser ces observations sous forme de profils écologiques pour les différents types d’arbres, afin d’aider les gestionnaires de forêts à choisir les combinaisons d’essences les plus à même de faire face aux défis à venir.

Radiographie d’une carotte de bois provenant d’un tilleul (Tilia cordata) cultivé dans le cadre de l’expérimentation belge FORBIO : à gauche, le cœur de l’arbre ; à droite, son écorce. La croissance annuelle se présente sous forme de bandes distinctes, les plus larges correspondant aux années de forte pousse. Lander Baeten/Ghent University, Fourni par l’auteur

Pour un recours concret à la science

Bien que nos travaux soient essentiellement menés par des universitaires, nous souhaitons avant tout qu’ils servent d’orientation scientifique aux gestionnaires des forêts sur le terrain. Dans les mois à venir, nous allons chercher à nous rapprocher des propriétaires et exploitants fonciers en nous appuyant sur les avancées scientifiques pour contribuer à la mise en œuvre de pratiques de boisement viables susceptibles d’être adoptées par le plus grand nombre.

Il est par ailleurs indispensable de nouer des liens pérennes avec les exploitants, les instituts de recherche et les organisations sylvicoles du monde entier. De tels partenariats pourraient en effet favoriser une transition naturelle et permettre de passer de monocultures limitées à quelques essences commerciales à des plantations riches en biodiversité et bien adaptées à divers facteurs de stress, notamment dus aux dérèglements climatiques, pour les décennies à venir.


Le projet de recherche « Tree bodyguards », dans lequel s’inscrit la présente publication, a bénéficié du financement de la Fondation BNP Paribas au titre de son programme de mécénat « Climate and Biodiversity Initiative ».

Traduit de l’anglais par Damien Allo pour Fast ForWord

La suppression de l’ISF commence à produire ses premiers effets positifs

La suppression de l’ISF commence à produire ses premiers effets positifs

auteur

  1. Éric PichetProfesseur et directeur du Mastère Spécialisé Patrimoine et Immobilier, Kedge Business School

Déclaration d’intérêts

Éric Pichet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

Partenaires

Kedge Business School apporte des fonds en tant que membre fondateur de The Conversation FR.

Voir les partenaires de The Conversation France

CC BY NDNous croyons à la libre circulation de l’information
Reproduisez nos articles gratuitement, sur papier ou en ligne, en utilisant notre licence Creative Commons.

Plus encore que le prélèvement forfaitaire (« flat tax ») à 30 % sur tous les revenus du patrimoine mobilier des particuliers (intérêts, dividendes et plus-values), la suppression de l’impôt de solidarité sur la fortune (ISF) et son remplacement par l’impôt sur la fortune immobilière (IFI) limité aux seuls biens immobiliers constituait bel et bien en 2017 la mesure phare de la révolution de la fiscalité patrimoniale du premier quinquennat du président de la République Emmanuel Macron.

Cette décision visait à réorienter l’épargne vers les investissements de l’économie réelle et l’emploi en renforçant l’attractivité du pays et en stoppant l’expatriation des grandes fortunes. Selon les dernières statistiques (de 2021 parues en juin 2022), le nombre d’assujettis à ce nouvel avatar de l’impôt sur la fortune française a logiquement diminué, avec 153 000 foyers imposables contre 358 000 pour la dernière année de l’ISF en 2017, les recettes chutant de 4,2 milliards d’euros à 1,37 milliard et l’actif net imposable total de 1 028 milliards d’euros avant la réforme à 373 milliards en 2021.

Un impôt clivant

Depuis sa création en 1981 sous l’intitulé d’impôt sur les grandes fortunes (IGF), qui fleurait bon la lutte des classes ; puis son rétablissement en 1988 sous la forme de l’impôt de solidarité sur la fortune (ISF) destiné à financer le revenu minimum d’insertion (RMI) instauré au même moment, l’impôt sur la fortune a toujours été populaire, puisque moins de 1 % des foyers fiscaux le payait.

Il a également toujours été politiquement clivant. La droite conservatrice et libérale le dénonçait au nom de son inefficacité et de son caractère parfois spoliateur comme dans l’affaire des terrains de l’ile de Ré, où des propriétaires modestes se voyaient assujettis à l’impôt en raison de la flambée du prix du foncier. Quant à la gauche, elle appelait à l’alourdir au nom de la justice sociale.

La littérature scientifique sur le thème s’est également rapidement divisée en deux cadres théoriques inconciliables. Pour les uns, comme les économistes Thomas Piketty et Gabriel Zucman, il s’agissait d’un instrument efficace de justice sociale destiné à réduire les inégalités de patrimoine incontestablement beaucoup plus fortes que celles liées aux revenus : les 10 % les plus riches détenant 46 % de la richesse, contre 25 % des revenus. Pour les autres, cet impôt entraînait une expatriation des plus fortunés et représentait in fine un coût élevé pour l’économie et même pour les recettes fiscales.

Dans un article publié dans La Revue de droit fiscal du 5 avril 2007 nous avions analysé les conséquences économiques de l’ISF. Selon nos conclusions, la fuite légale des capitaux à l’étranger depuis sa création en 1988 représentait alors environ 200 milliards d’euros et une perte de recettes fiscales de 7 milliards d’euros par an, soit près du double des montants collectés. En outre, l’ISF réduisait probablement la croissance du PIB de 0,2 % par an, soit environ 3,5 milliards (l’équivalent de ce qu’il rapportait alors).

Un impôt en voie de disparition

En conclusion, dans un monde ouvert, l’ISF appauvrissait le pays et générait même un transfert de la charge fiscale des expatriés vers tous les autres contribuables, à l’exact opposé de la justice fiscale. Nous avions d’ailleurs participé dès 2016 au débat fiscal de la présidentielle 2017 en rappelant les effets nocifs de l’ISF dans un environnement de fiscalité patrimoniale déjà très lourd en France.

La disparition progressive de l’impôt sur la fortune des systèmes fiscaux européens depuis 1994 pour des raisons d’efficacité économique et budgétaire est un fait incontestable qui corroborait notre hypothèse de nocivité de l’ISF.

[Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du mondeAbonnez-vous aujourd’hui]

Ainsi les Pays-Bas, qui l’avait instauré en… 1894 l’ont supprimé en 2001, précédés par l’Autriche en 1994, le Danemark en 1995, l’Allemagne et l’Irlande en 1997 et suivies par la Finlande en 2006 et la Suède de 2007. Les motivations étaient diverses mais la fuite des capitaux, les distorsions dans l’allocation des ressources ou les questions d’équité dans la valorisation des différents biens (comme en Allemagne) étaient les plus fréquemment avancées.

Actuellement seule une poignée de pays conserve encore cet impôt mais dans un environnement fiscal globalement favorable au patrimoine, comme la Suisse, la Norvège ou le Liechtenstein. L’Espagne, qui l’avait supprimé en 2007, fait figure d’exception, l’ayant rétabli officiellement à titre temporaire pour des raisons budgétaires en 2011.

Le retour des exilés fiscaux

Cinq ans après son entrée en vigueur, on peut commencer à mesurer les effets positifs de la suppression de l’ISF. Le rapport d’étape du Comité d’évaluation des réformes de la fiscalité du capital de France stratégies traite pertinemment la problématique de l’impôt sur la fortune dans le cadre global des prélèvements sur l’ensemble du capital – soit l’ensemble des prélèvements sur les ménages et les entreprises au titre d’une détention, d’un revenu ou d’une transmission de patrimoine – qui s’établissaient en 2020 au même niveau qu’en 2017 et qui demeuraient parmi les plus élevés dans le monde

Certes, les experts de France Stratégies notent « qu’il n’est toujours pas possible d’estimer […] si la suppression de l’ISF a permis une réorientation de l’épargne des contribuables concernés vers le financement des entreprises », ce qui était l’un des buts de la réforme, mais ce type d’impact ne peut se traduire qu’à long terme une fois la stabilité fiscale bien ancrée dans les esprits.

En revanche, l’organisme de réflexion relève que, « depuis le passage de l’ISF à l’IFI, on observe une baisse du nombre d’expatriations et une hausse du nombre d’impatriations fiscales de ménages français soumis à l’imposition sur le patrimoine, si bien que depuis 2018, le nombre de retours de foyers taxables à l’IFI dépasse le nombre de départs (380 versus 220 en 2020), alors que l’on constatait l’inverse pour les flux de contribuables à l’ISF (470 versus 1 020 en 2016) ».

Le rapport de France Stratégies montre en outre que la «  flat tax » à 30 % a provoqué une hausse des dividendes, ce qui a généré suffisamment de rentrées fiscales pour compenser le coût de la réforme. Enfin, «  les ménages dont les dividendes ont crû très fortement en 2020 par rapport à 2017 n’ont en moyenne pas réduit leurs revenus d’activité » soumis à une fiscalité moins avantageuse, balayant ainsi les critiques d’une réforme poussant à l’optimisation fiscale.

Une fiscalité immobilière toujours très lourde

Même si la quasi-totalité des assujettis à l’ISF bénéficie de la nouvelle donne, avec l’IFI la fiscalité de l’immobilier reste toujours particulièrement élevée en France par rapport au reste de l’Europe, avec quatre des impôts sur l’immobilier progressifs (IFI, revenus fonciers, droits de succession et parfois même les plus-values). Le rendement locatif après impôts peut ainsi se révéler négatif pour les gros patrimoines, d’autant que le plafonnement de 75 % de l’IFI prend en compte l’ensemble des revenus du contribuable et non pas seulement les revenus fonciers.

Nous avions d’ailleurs relevé en 2019 le fait que la France restait le seul pays riche cumulant les six grands types d’imposition patrimoniale aux différentes étapes du cycle économique : sur l’acquisition (et la vente) via les droits d’enregistrement, sur la détention avec les impôts fonciers et l’impôt sur la fortune, sur les revenus du patrimoine, sur les mutations avec les droits de succession et de donation, et enfin sur les plus-values.

En conséquence, la France est toujours aujourd’hui le pays de l’OCDE qui impose le plus l’immobilier, avec un record de 4,60 % du PIB en 2020, devant la Belgique (3,51 %), la moyenne se situant à 2,26 % dans l’UE et à 1,33 % en Allemagne.

La suppression de l’ISF et son replacement n’a finalement que modérément affecté les prélèvements sur le patrimoine tout en révélant la lourdeur des impositions sur l’immobilier qui explique en grande partie le déficit de logements en France évalué à 100 000 par an. C’est d’ailleurs la raison pour laquelle, depuis des décennies et notamment la loi Quilès de 1984, les gouvernements successifs, quelle que soit leur obédience, usent de la carotte fiscale sous forme de baisse d’impôt sur le revenu pour inciter les particuliers à investir dans des logements neufs à louer. Plutôt que de créer des niches fiscales qui profitent d’abord aux intermédiaires, il serait plus judicieux de mettre en place une fiscalité simple et stable pour l’immobilier sur le modèle de la « flat tax ».