• Actualités régionales
    • Communes limitrophes
    • Régionales
  • Adhésion
  • André Lhote
  • Au-delà du 14 juillet, des interrogations tenaces sur l’usage des armées
  • Auteurs morts en 17, (déjà…)
  • BD « Sciences en bulles » : À la recherche des exoplanètes
  • Bonnes feuilles : Le château d’If, symbole de l’évasion littéraire
  • Comment la lecture enrichit l’éducation des enfants
  • Corruption, contrebande : le drame de Beyrouth et la question de la sécurité dans les zones portuaires
  • Des crises économiques à la crise de sens, le besoin d’une prospérité partagée
  • Evènements
  • Lecture : comment choisir un album qui peut vraiment plaire aux enfants
  • L’économie fantôme de l’opéra
  • L’Europe s’en sortirait-elle mieux sans l’Allemagne ?
  • Maladie de Lyme : attention au sur-diagnostic !
  • Mirmande
    • Pages d’histoire
    • AVAP et PLU
    • Fonds de dotation et patrimoine
  • NutriScore : quand l’étiquetage des aliments devient prescriptif
  • Penser l’après : Le respect, vertu cardinale du monde post-crise ?
  • Podcast : le repos, une invention humaine ?
  • Prévoir les changements climatiques à 10 ans, le nouveau défi des climatologues
  • Qui sommes-nous?
  • Réforme de la taxe d’habitation… et si la compensation financière n’était pas le seul enjeu ?
  • Revues de presse et Chroniques
  • S’INSCRIRE AU BLOGUE
  • Scène de crime : quand les insectes mènent l’enquête
  • The conversation – Changement climatique : entre adaptation et atténuation, il ne faut pas choisir
  • Une traduction citoyenne pour (enfin) lire le dernier rapport du GIEC sur le climat

Mirmande PatrimoineS Blogue

~ La protection des patrimoines de Mirmande.com site

Mirmande PatrimoineS Blogue

Archives de Catégorie: Uncategorized

Interne

Vivons-nous une ère de soulèvements ?

31 vendredi Mar 2023

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

auteur

  1. Alain BerthoProfesseur émérite d’anthropologie, Université Paris 8 – Vincennes Saint-Denis

Déclaration d’intérêts

Alain Bertho ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

Partenaires

Voir les partenaires de The Conversation France

CC BY NDNous croyons à la libre circulation de l’information
Reproduisez nos articles gratuitement, sur papier ou en ligne, en utilisant notre licence Creative Commons.

Republier cet article

Des manifestants anti-gouvernementaux de Hong Kong encerclés par des gaz lacrymogènes lors d'un affrontement avec la police anti-émeute à Wong Tai Sin, le 1 octobre 2019
Des manifestants anti-gouvernementaux de Hong Kong encerclés par des gaz lacrymogènes lors d’un affrontement avec la police anti-émeute à Wong Tai Sin, le 1 octobre 2019. Shutterstock, CC BY-SA

Comment un mouvement majoritaire et légitimement démocratique peut-il faire plier l’intransigeance néo-libérale d’un gouvernement ? Telle est la question d’actualité en France.

Elle résume sans doute l’enjeu mondial d’un XXIe siècle déjà marqué par des vagues d’émeutes et de soulèvements d’une ampleur et d’une densité rare.

Une récente étude américaine montre qu’au XXe siècle les résistances civiles non violentes ont été plus efficaces que les luttes armées. Mais l’étude s’arrête en 2006 et dans un entretien au Monde en décembre 2022, la politologue américaine Maria J. Stephan, une des deux autrices, admet que cette efficacité est en net déclin depuis une décennie.

Vers la violence ?

Une rupture est intervenue au début du siècle dans l’interlocution politique entre les peuples et les pouvoirs, cassant le pacte politique et démocratique implicite selon lequel le cratos (le pouvoir en grec) ne peut être sourd au demos (le peuple). Dans la recherche du consentement populaire, les États semblent passés de la construction patiente de l’hégémonie à l’établissement brutal de l’obéissance.

Nombre d’émeutes et d’affrontements civils par continent entre 2009 et 2022
Nombre d’émeutes et d’affrontements civils par continent entre 2009 et 2022. Alain Bertho, Author provided (no reuse)

« Oderint, dum metuant ». « Qu’ils me haïssent, pourvu qu’ils me craignent » aurait dit l’empereur Caligula selon Cicéron. Cette phrase exprime l’essence la phase de brutalisation des rapports politiques qui s’est ouverte avec le XXIe siècle. Alors que le Forum social Mondial de Porto Alegre a fait lever l’espoir d’une contre-mondialisation pacifique, la répression des manifestations contre le sommet du G8 coûte la vie à Carlo Giuliani, un étudiant de 24 ans abattu par la police de Gènes le 20 juillet 2001.

[Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

Les peuples ne choisissent pas sans raison de déborder du terrain de la non-violence. Depuis 20 ans, l’émeute ou l’affrontement prend souvent le pas sur le débat politique, comme nous l’avons vu le week end dernier lors des manifestations contre les mégabassines à Sainte-Soline. Tandis que la stratégie de répression mesure l’inquiétude des pouvoirs, le langage du corps prend de plus en plus souvent le pas sur le langage des mots.

Ce tournant est quantifiable. Je m’y suis investi depuis 2007 en constituant une base de données mondiale consultable en ligne sur le site [ Anthropologie du présent]. Le relevé se fait sur Google news les dernières 24 heures à partir de cinq mots clefs : émeutes, affrontements, riots, clashes, disturbios. Il est complété par des recherches spécifiques sur chaque lieu identifié en anglais et dans la langue du pays sur Google et sur YouTube. L’unité statistique de compte est un jour/une ville.

Toute confrontation physique collective entre des civils et les forces de l’ordre (armée ou police), ou entre les gens eux-mêmes (affrontements communautaires ou incidents de stade) y est répertoriée quelle que soit la gravité de l’événement ou son origine, de l’émeute spontanée aux incidents de manifestation. On parlera de soulèvement quand cette confrontation s’installe dans la durée et s’étend sur un territoire plus vaste.

Des vagues de soulèvements

Si les situations d’émeutes et d’affrontements civils locaux se multiplient, parfois, sans crier gare, l’étincelle met le feu au pays… ou à plusieurs. L’émeute devient soulèvement comme en France en 2005, en Grèce en 2008, en Tunisie en 2010, aux États-Unis en 2020, en Iran en 2022, la mort d’un jeune, d’un homme noir, d’une femme assassiné·e·s par le pouvoir est le levier de l’embrasement.

« Une émeute est le langage de ceux qui ne sont pas écoutés », sur une pancarte brandie lors d’une manifestation dénonçant la mort de George Floyd à Los Angeles, Californie le 30 mai 2020
« Une émeute est le langage de ceux qui ne sont pas écoutés », sur une pancarte brandie lors d’une manifestation dénonçant la mort de George Floyd à Los Angeles, Californie le 30 mai 2020. Shutterstock, CC BY

Ce début de siècle a été scandé par des vagues de soulèvement successives. En 2011, le « printemps arabe » sidère le monde. Partout des peuples se sont levés avec le drapeau national comme étendard et la volonté farouche de « dégager » des pouvoirs honnis.

À compter du 15 mai 2011, le soulèvement et l’occupation des places traversent la méditerranée. Le double modèle de Tahrir (Égypte) et de la Puerta del Sol (Madrid), inspire les initiateurs d’Occupy Wall Street (New York) à partir du 15 octobre. Plus de 600 villes sont ainsi « occupées », redonnant temporairement consistance à la puissance symbolique de la non-violence. Ces places en sont le chaudron populaire de Taksim en Turquie (mai-juin 2013) à Maidan en Ukraine (2013-2014) jusqu’au mouvement des Ombrelles à Hong Kong (novembre-décembre 2014), puis au soulèvement de cette ville en juin-août 2019.

La troisième vague est celle de la justice et de la moralité politique (contre la corruption et le clientélisme). Par une révolte sur le prix de l’essence, les gilets jaunes ont inauguré et marqué une année exceptionnelle de soulèvements nationaux. Vingt pays sont concernés, sur quatre continents (France, Venezuela, Soudan, Haïti, Sénégal, Algérie, Colombie, Honduras, Hong Kong, Indonésie, Éthiopie, Bolivie, Équateur, Panama, Irak, Liban, Guinée, Catalogne, Iran, Inde). L’onde de choc se fait sentir jusqu’en 2022, y compris durant la pandémie.

Vivre et survivre

Le mouvement français contre la réforme des retraites s’inscrit dans cette troisième vague. Celle-ci s’enracine dans les mobilisations antérieures de survie ou de résistance vitale contre la vie chère et l’austérité, la pénurie d’eau ou d’électricité, la casse du statut et de la valeur du travail, jusqu’aux conséquences sociales de la gestion de la pandémie. Cette montée en puissance de la lutte contre la précarisation néo-libérale ne concerne pas que les pays les plus pauvres.

Graphique qui représente les émeutes et affrontements civils au cours de mobilisations sociales dans le monde entre 2009 et 2022
Emeutes et affrontements civils au cours de mobilisations sociales dans le monde entre 2009 et 2022. Alain Bertho, Author provided (no reuse)

On peut remonter en 2006 dans notre pays avec le refus du Contrat Premier Embauche (CPE), dernière grande mobilisation nationale victorieuse. À l’échelle mondiale, le point de départ est sans doute l’année 2008, celles des « émeutes de la faim » consécutives à la spéculation financière sur les céréales. Des mobilisations violentes ont alors lieu en Indonésie en janvier, au Cameroun et aux Philippines en février au Sénégal en mars, à Haïti, en Côte d’Ivoire, en Égypte en avril.

Émeutes et affrontements durant des mobilisation pour la retraite 2009-2022. Alain Bertho

La retraite comme question vitale n’est pas qu’une affaire française, ni même européenne. Si elle mobilise l’Espagne (2011), la Grèce (2016) et la Russie (2018), elle mobilise aussi en Asie (Sri Lanka 2011 et Taiwan 2017), en Afrique du Nord (Maroc 2016 et Algérie 2018) et surtout en l’Amérique latine (Argentine 2012, Chili 2016, Nicaragua 2018, Colombie 2019 et Brésil 2021).

La France y tient pourtant une place particulière. A-t-on déjà oublié la dureté du mouvement de 2010, sa détermination tant dans les blocages que dans les solidarités interprofessionnelles, la place particulière tenue par une jeunesse lycéenne réprimée avec une brutalité sans précédent] ? A-t-on oublié que cette puissance collective fut sans effet décisif sur les décisions gouvernementales ? Il est vraisemblable que les stratégies syndicales de l’époque cherchaient moins la victoire immédiate que le pouvoir de peser sur l’élection de 2012.

La quête d’une autre politique

La stratégie syndicale de 2023 semble assimiler l’expérience de 2010, dans ses rapports avec les partis comme dans son attitude inclusive à l’égard de la diversité des luttes.

Émeute lors de manifestations contre le gouvernement à Antagagosta au Chili le 21 octobre 2019
Émeute lors de manifestations contre le gouvernement à Antagagosta au Chili le 21 octobre 2019. Shutterstock, CC BY-NC-SA

Mais l’ampleur et de la rapidité de la catastrophe climatique comme l’expérience de la pandémie semble accélérer le temps des exigences. La question du sens du travail et de la valeur de la vie prend une épaisseur inédite, notamment dans une jeunesse tentée par la « désertion ».

Des dominations structurelles de l’humanité sont massivement remises en cause, faisant de « I can’t breathe » et de « Femme Vie Liberté » des slogans à résonance mondiale. Face à la gestion purement comptable de la vie, l’époque s’apparente à une sorte de « soulèvement du vivant ».

Ce contexte alimente la profondeur du refus populaire de la réforme. Mais la question stratégique reste entière. S’il est avéré que depuis le début du siècle, les stratégies non-violentes perdent nettement en efficacité en raison de l’intransigeance des pouvoirs, émeutes et soulèvements n’ont pas fait la preuve d’une plus grande efficience.


À lire aussi : Réforme des retraites : bloquer les chaînes d’approvisionnement est-il plus efficace que manifester ?


Combien, depuis le début du siècle, ont été couronnés de succès et à quel prix ? Qu’est devenu le « printemps de jasmin » tunisien de 2011 ? Où en est « Femmes Vie Liberté » en Iran ? Quel prix ont payé les Chiliennes et Chiliens à qui on avait « tout volé même la peur », pour finalement renverser le Président Pinera ?

Face à l’incontournable confrontation, l’enjeu est partout de dépasser la simple capacité de résistance pour incarner une alternative face à la brutalité de gouvernements qui dépolitisent leurs décisions. Voilà le fil rouge des soulèvements du siècle : comment incarner une restauration de la politique, de la délibération populaire, de la décision collective.

« I can’t breathe ». Saint-Denis juin 2020. Alain Bertho

Santé mentale et soins psychiques de l’enfant : la surmédication dépasse toutes les bornes scientifiques

30 jeudi Mar 2023

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

auteurs

  1. Sébastien PonnouPsychanalyste, Maître de Conférences en Sciences de l’Education à l’Université de Rouen Normandie, Université de Rouen Normandie
  2. Xavier BriffaultChercheur en sciences sociales et épistémologie de la santé mentale au Centre de recherche médecine, sciences, santé, santé mentale, société (CERMES3), Centre national de la recherche scientifique (CNRS)

Déclaration d’intérêts

Sébastien Ponnou est personnalité qualifiée au sein du Conseil de l’Enfance et de l’Adolescence du HCFEA. Il dirige plusieurs recherches pour lesquelles le CIRNEF et l’Université de Rouen Normandie ont perçu des financements d’organismes publics et de fondations mutualistes : Institut de Recherche Interdisciplinaire Homme et Société (IRIHS), Fondation EOVI – Fondation de l’Avenir, FEDER – Région Normandie.

Xavier Briffault est, en tant que sociologue et épistémologue de la santé mentale, personnalité qualifiée au sein du Conseil de l’Enfance et de l’Adolescence du HCFEA.

Partenaires

Université de Rouen Normandie apporte un financement en tant que membre adhérent de The Conversation FR.

Voir les partenaires de The Conversation France

CC BY NDNous croyons à la libre circulation de l’information

Le Haut conseil de la famille, de l’enfance et de l’âge (HCFEA), chargé par le Premier ministre d’apporter une expertise prospective et transversale sur les questions liées à la famille et à l’enfance, vient de publier un rapport sur la souffrance psychique des enfants et les moyens dont nous disposons pour y remédier.

Ce travail s’inscrit dans un contexte particulièrement préoccupant, dans lequel on observe une aggravation des problèmes de santé mentale des jeunes, qui entraîne même une augmentation de la suicidalité. La situation est arrivée à un point d’urgence tel que des collectifs soignants ont multiplié les tribunes et les alertes.

Les trois dernières années, marquées par des politiques de lutte contre le Covid qui ont eu un impact sévère sur les jeunes, ont certes contribué à aggraver le problème. Mais celui-ci ne s’y limite pas, loin de là.

Une prise en charge qui n’est pas à la hauteur des enjeux

La santé mentale est une problématique de santé publique de première importance chez l’enfant, en France comme dans les pays occidentaux. Lorsqu’ils surviennent précocement, les troubles mentaux et la souffrance psychique impactent toute une vie : le développement de l’enfant, ses émotions, son rapport à lui-même, au langage et au corps, ses liens familiaux, amicaux, amoureux, sociaux, son parcours scolaire et son devenir professionnel sont bouleversés…

On s’attendrait dès lors à ce que tout soit fait pour y remédier. Or, le rapport du HCFEA met au contraire en évidence une impasse en termes de prises en charge. Il alerte en particulier sur le fait que, faute de soins adaptés, la consommation de médicaments psychotropes augmente de façon exponentielle, bien au-delà des cadres réglementaires et des consensus scientifiques internationaux.

Pourtant, en France comme dans la plupart des pays européens, les soins de première intention recommandés par les autorités de santé (Haute Autorité de Santé (HAS), Agence Nationale de Sécurité du Médicament (ANSM)) pour les troubles mentaux chez l’enfant ne sont pas pharmacologiques. Sont en effet prioritairement recommandées :

  • Les pratiques psychothérapeutiques : psychanalyse, pratiques psychodynamiques et cliniques, thérapies cognitives et comportementales, thérapies familiales et groupales…
  • Les pratiques éducatives,
  • Les pratiques de prévention et d’intervention sociale.

Pour certains cas seulement, un traitement médicamenteux peut être prescrit en deuxième intention, en soutien de l’accompagnement psychologique, éducatif et social de l’enfant et de sa famille. Et même alors, les consensus internationaux sont réservés et insistent sur l’importance de la surveillance et le rôle des agences de santé et de sécurité du médicament.

Ces réserves s’expliquent par la rareté d’études robustes sur l’efficacité des traitements médicamenteux chez l’enfant, par l’existence d’effets indésirables importants et par une balance bénéfice/risque souvent défavorable – ce qui conduit à un nombre limité d’Autorisations de mise sur le marché (AMM) pour les psychotropes en population pédiatrique. Lorsqu’un tel médicament est autorisé chez l’enfant, sa prescription est assortie de recommandations strictes.

Une fillette songeuse tient une pilule
Du fait du manque de données et des risques d’effets secondaires importants, la prescription de psychotropes chez l’enfant ne devrait se faire qu’en deuxième intention. Studio number 94/Shutterstock

Une hausse continue de la médication

Pour autant, et en contradiction flagrante avec ces exigences scientifiques et réglementaires, les données rapportées par le HCFEA, extraites d’études de l’ANSM (Agence nationale de sécurité du médicament) et du groupement d’intérêt scientifique EPI-PHARE spécialisé dans les études épidémiologiques des produits de santé, montrent une augmentation constante de la consommation de psychotropes chez l’enfant.

Pour la seule année 2021, la consommation chez l’enfant et l’adolescent a augmenté de :

  • 7,5 % pour les antipsychotiques,
  • 16 % pour les anxiolytiques,
  • 23 % pour les antidépresseurs,
  • 224 % pour les hypnotiques.

Plus largement, l’analyse de la consommation de 59 classes de médicaments psychotropes délivrés sur ordonnance en pharmacie chez les 0-19 ans pour l’ensemble des bénéficiaires du Régime Général montre que, pour chaque année entre 2018 et 2021, la consommation est supérieure à celle de l’année précédente et inférieure à celle l’année suivante. Ce qui suggère une augmentation continue de la consommation pour l’ensemble des médicaments.

Cette « surconsommation », qui est une « sur-médication », peut s’exprimer en termes de différence entre le nombre de délivrances observé et le nombre de délivrances attendu.

Cette augmentation concerne des dizaines de milliers d’enfants. Le nombre de délivrances de psychotropes en 2021 chez les 0-19 ans se chiffre en millions et il est aujourd’hui nettement plus élevé qu’en 2018, quelle que soit la sous-classe de médicament.

Pour l’année 2021, écart entre la consommation attendue et la consommation réelle de la consommation de psychotropes chez les jeunes de 0 à 19 ans
Délivrance de psychotropes observée (courbes bleues pleines) et attendue (pointillées) en 2021, par sous-classe de médicaments. Consommation de psychotropes chez les jeunes de 0 à 19 ans pendant l’épidémie de Covid-19, juillet 2022. Données extraites du système national des données de santé (SNDS). Epi-phare — GIS ANSM/CNAM, Fourni par l’auteur

Ces niveaux d’augmentation sont sans commune mesure avec ceux observés au niveau de la population générale adulte. Ils sont 2 à 20 fois plus élevés, alors même que le nombre d’AMM en population pédiatrique est très limité pour les médicaments psychotropes. Cette observation suggère que les enfants sont plus exposés que les adultes à la souffrance psychique, mais surtout qu’ils sont exposés à une médication croissante, et en l’occurrence inadaptée.

Ces phénomènes sont aggravés par la crise Covid, mais ils lui sont antérieurs. En effet, l’analyse des bases de données de santé sur la période 2014-2021 montre déjà une augmentation continue :

  • +9,48 % pour les dopaminergiques,
  • +27,7 % pour les anticholinergiques,
  • +48,54 % pour les antipsychotiques,
  • +62,58 % pour les antidépresseurs,
  • +78,07 % pour les psychostimulants,
  • +155,48 % pour les hypnotiques et sédatifs.

Seule la consommation d’anxiolytiques a légèrement baissé (-3,46 %) sur la période. Dans les années 2000-2010, plusieurs travaux ont montré que cette dernière était particulièrement élevée en France, notamment en population pédiatrique. Des rapports et recommandations des autorités de santé demandèrent en conséquence une vigilance accrue quant à la prescription de ces molécules, en raison de leurs effets indésirables importants et de leur caractère addictogène. On peut penser que ces recommandations ont eu un effet sur la prescription, même si elle reste à un niveau élevé. Mais il est possible qu’une partie de ces prescriptions se soient reportées sur les hypnotiques, qui partagent avec eux plusieurs propriétés pharmacologiques, et dont la consommation a très fortement augmenté sur la même période.

Le constat est identique si l’on raisonne en termes de prévalence de la consommation de psychotropes chez les 0-20 ans entre 2010 et 2021 (la prévalence étant la fréquence de survenue d’un phénomène de santé dans une population pour une période donnée) :

  • De 2,01 % à 2,72 % pour les hypnotiques et les anxiolytiques, soit une augmentation d’environ 35 %,
  • De 0,28 % à 0,60 % pour les antipsychotiques, soit une augmentation d’environ 114 %,
  • De 0,23 % à 0,57 % pour les psychostimulants, soit une augmentation d’environ 148 %,
  • De 0,29 à 0,81 % pour les antidépresseurs et les normothymiques, soit une augmentation d’environ 179 %.

Les données Openmédic 2021 suggèrent que plus de 5 % de la population pédiatrique pourrait être concernée. Et dans la mesure où ces taux de consommation intègrent les données des 0-3 ans et des 3-6 ans, pour lesquels les prescriptions de psychotropes restent rares, la prévalence chez les 6-17 ans pourrait en fait être nettement plus élevée. Elle doit faire l’objet d’une attention et d’une mobilisation urgente des pouvoirs publics et des autorités de santé.

[Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

Des prescriptions hors de toute validation scientifique

En effet, le rapport HCFEA insiste sur le non-respect des Autorisations de mise sur le marché et sur la transgression des recommandations des agences de santé et des consensus scientifiques. Déjà en 2009, une étude prospective montrait que 68 % des prescriptions de psychotropes réalisées dans un hôpital pédiatrique parisien étaient hors AMM. Ces prescriptions hors AMM touchaient 66 % des jeunes patients et concernaient essentiellement la prescription chez l’enfant de médicaments réservés à l’adulte.

À titre d’exemple, considérons le cas du méthylphénidate (Ritaline, Concerta…) que le rapport du HCFEA documente de façon approfondie. Entre 2010 et 2019, la prescription de ce psychostimulant chez l’enfant a augmenté de 116 %.

Cette augmentation de la consommation se double d’une transgression systématisée des AMM et des recommandations de prescription :

  • Prescriptions avant l’âge de 6 ans.
  • Durées de traitement longues, alors que les études et les agences de santé recommandent des prescriptions de court terme : 5,5 ans pour les enfants de 6 ans ayant débuté un traitement par méthylphénidate en 2011, et 7,1 ans pour les enfants de 6 ans hospitalisés avec un diagnostic de TDAH en 2011 – et des durées en augmentation entre 2011 et 2019. Les enfants les plus jeunes sont ceux pour lesquels les durées de prescription sont les plus longues.
  • Prescriptions hors diagnostic ou dans le cadre de diagnostics psychiatriques pour lesquels le médicament ne dispose pas d’AMM chez l’enfant.
  • Co-prescriptions d’autres psychotropes, souvent réservés à l’adulte et très éloignées de leur zone d’AMM. 22,8 % des enfants sous méthylphénidate en 2018 ont reçu au cours des 12 mois suivants au moins un autre psychotrope appartenant à diverses classes pharmacologiques : neuroleptiques (64,5 %), anxiolytiques (35,5 %), antidépresseurs (16,2 %), antiépileptiques (11 %), hypnotiques (4,8 %) et antiparkinsoniens (3 %). Les principales molécules prescrites sont la rispéridone (10,6 %) l’hydroxyzine (6 %), la cyamémazine (3,9 %), l’aripiprazole (2,7 %), la sertraline (1,4 %), l’acide valproique (1,1 %), et la fluoxétine (1 %). Parmi ces enfants, 63,5 % ont reçu deux traitements, 20,8 % ont reçu trois psychotropes, 8,5 % en ont reçu quatre et 6,9 % se sont vu prescrire au moins cinq psychotropes dans les 12 mois suivant la première prescription de méthylphénidate. Ces co-prescriptions ne font l’objet d’aucune étude ni validation scientifiques.
  • Non-respect des conditions réglementaires de prescription et de renouvellement par des médecins spécialistes ou des services spécialisés : les recommandations d’initiation obligatoire en milieu hospitalier en vigueur jusqu’en septembre 2021 n’étaient pas respectées dans près d’un quart des cas. De plus, le renouvellement annuel de la prescription de méthylphénidate doit se faire lors d’une consultation hospitalière visant, au-delà du traitement, le suivi de l’enfant et l’accompagnement des familles. Ceci n’a pas été respecté pour près d’un enfant sur deux en 2015, 2016 et 2017.
  • Substitution des pratiques psychothérapeutiques, éducatives et sociales par des pratiques médicamenteuses : les bases de données de santé montrent qu’entre 2011 et 2019, sur l’ensemble des services hospitaliers prescripteurs, 84,2 % à 87,1 % des enfants traités n’ont pas bénéficié d’un suivi médical par le service hospitalier ayant initié le traitement. De plus, alors que la consommation de méthylphénidate n’a cessé de croître entre 2010 et 2019 (+116 %), le nombre de visites dans les Centres Médico-Psycho-Pédagogiques des enfants recevant cette prescription a été divisé par quatre dans sur la même période.
  • Détermination scolaire de la prescription : les enfants et les adolescents français présentent 54 % de risques supplémentaires en moyenne de se voir prescrire un traitement psychostimulant s’ils sont nés en décembre que s’ils sont nés en janvier. De manière systématique entre 2010 et 2019, le nombre d’initiations augmente au fil des mois de l’année, pour retomber brutalement le mois de janvier de l’année suivante. Ceci suggère que la prescription n’est pas dirigée par une évaluation diagnostique rigoureuse, mais qu’elle résulte d’une interprétation erronée de l’immaturité psychologique plus importante des enfants plus jeunes, et de leurs capacités d’attention logiquement moindres.
Le graphe montre que les enfants les plus jeunes d’une classe sont les plus concernés par les prescriptions ; et que le niveau de prescription générale monte tous les ans
Enfants et adolescents ayant reçu une prescription de méthylphénidate selon leur mois de naissance en France entre 2010 et 2019 (cohorte de 144 509 enfants) : les natifs de décembre ont plus de risque d’être traités. Et le nombre de prescriptions augmente d’année en année. S. Ponnou et coll., in Neuropsychiatrie de l’enfance et de l’adolescence (2022), Author provided
  • Détermination sociale de la prescription : L’analyse des bases de données montre également l’impact des facteurs sociaux sur le risque de diagnostic d’hyperactivité et la médication. Ainsi, en 2019, 21,7 % des enfants recevant du méthylphénidate vivaient dans des familles bénéficiant de la CMU ou de la CMU-C, alors que, selon l’Insee, ces aides ne sont attribuées qu’à 7,8 % de la population française. Si l’on considère également les enfants consommateurs de méthylphénidate présentant un diagnostic de défavorisation sociale, le pourcentage d’enfants présentant des difficultés sociales parmi les consommateurs de méthylphénidate atteint 25,7 %.

À lire aussi : Trouble de l’attention (TDAH) : la dangereuse explosion du traitement médicamenteux de l’enfant


Envisager un changement complet d’approche ?

Si l’on dispose encore de peu d’études solides sur l’efficacité des traitements pharmacologiques dans les troubles mentaux de l’enfant, il n’en va pas de même chez l’adulte. Ce qui manquait jusqu’à présent, ce n’était pas des données, mais des synthèses complètes et solides. Une récente publication dans World Psychiatry est venue y remédier.

Cette méga-analyse synthétise les résultats de 102 méta-analyses, rassemblant 3782 essais contrôlés randomisés et 650 514 patients – et concerne les évaluations d’efficacité des traitements pharmacologiques publiées entre 2014 et 2021 pour les onze principaux troubles mentaux.

Les résultats montrent que la différence des résultats entre les groupes traités et les groupes contrôles (placebo et traitements habituels) est très faible. C’est un résultat que l’on peut, au risque de l’euphémisation, considérer comme peu satisfaisant.

La représentation graphique du décalage des distributions en apporte une compréhension plus intuitive :

Entre groupes suivant un traitement par des psychotropes et contrôles (placebo…), il n’y a pas de différence forte de résultats. Kristoffer Magnusson, Fourni par l’auteur

Pour les auteurs, ces résultats ne sont pas contingents. Investir davantage dans la même voie n’y changera rien : un plafond a été atteint dans l’efficacité des traitements pharmacologiques actuels. C’est la raison pour laquelle ils en appellent à un changement de paradigme dans la recherche en psychiatrie afin de pouvoir effectuer de nouveaux progrès.

Dans cette attente, il faut s’interroger sur la pertinence de laisser se poursuivre la lourde tendance à l’augmentation de la prescription des psychotropes chez l’enfant documentée ici, malgré une efficacité et une sûreté qui interrogent… D’autant que d’autres stratégies (psychothérapeutiques, éducatives, sociales), certes plus complexes, permettraient de mieux alléger leur souffrance psychique et d’en atténuer les conséquences si elles étaient véritablement mises en œuvre.

Une communication transparente s’impose sur la réalité de ce que peut vraiment faire un traitement pharmacologique. Leur surutilisation écarte souvent la possibilité de recourir à d’autres stratégies thérapeutiques, ce qui peut constituer une perte de chance inacceptable. Il est urgent d’aligner l’éthique, les données de la science, et la communication à destination des patients et du grand public dans ce domaine.

Santé mentale et soins psychiques de l’enfant : les impasses du « tout biologique »

29 mercredi Mar 2023

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

auteurs

  1. Sébastien PonnouPsychanalyste, Maître de Conférences en Sciences de l’Education à l’Université de Rouen Normandie, Université de Rouen Normandie
  2. Xavier BriffaultChercheur en sciences sociales et épistémologie de la santé mentale au Centre de recherche médecine, sciences, santé, santé mentale, société (CERMES3), Centre national de la recherche scientifique (CNRS)

Déclaration d’intérêts

Sébastien Ponnou est personnalité qualifiée au sein du Conseil de l’Enfance et de l’Adolescence du HCFEA. Il dirige plusieurs recherches pour lesquelles le CIRNEF et l’Université de Rouen Normandie ont perçu des financements d’organismes publics et de fondations mutualistes : Institut de Recherche Interdisciplinaire Homme et Société (IRIHS), Fondation EOVI – Fondation de l’Avenir, FEDER – Région Normandie.

Xavier Briffault est, en tant que sociologue et épistémologue de la santé mentale, personnalité qualifiée au sein du Conseil de l’Enfance et de l’Adolescence du HCFEA.

Partenaires

Université de Rouen Normandie apporte un financement en tant que membre adhérent de The Conversation FR.

Voir les partenaires de The Conversation France

CC BY NDNous croyons à la libre circulation de l’information
Reproduisez nos articles gratuitement, sur papier ou en ligne, en utilisant notre licence Creative Commons.

Republier cet article

Vue d'un crâne d'enfant par IRMf
La « psychiatrie biologique », qui cherche une cause biologique aux troubles, domine depuis des décennies. Chalie Chulapornsiri/Shuttertock

Le récent rapport publié par le Haut Conseil de la Famille, de l’Enfance et de l’Âge (HCFEA) alerte sur la souffrance psychique des enfants et des adolescents, ainsi que sur le déficit chronique de moyens alloués aux dispositifs de soin, d’éducation et d’intervention sociale en France. Nous avons détaillé dans notre précédent article l’augmentation continue et inappropriée de la consommation de médicaments psychotropes en population pédiatrique en France.

Nous analysons ici l’idée ancienne qu’un trouble mental peut être causé par une anomalie cérébrale. Et que, étant d’origine biologique, ce dysfonctionnement peut être solutionné par un traitement chimique, électrique ou mécanique. Une approche favorisée de longue date, mais dont les résultats demeurent limités. Car, de fait, des anomalies sont « associées » à des troubles mentaux… le problème porte sur leur causalité.

Ces prescriptions, souvent en dehors des consensus scientifiques internationaux et des dispositifs réglementaires (Autorisations de mise sur le marché et recommandations des agences de santé), viennent en contradiction avec les propos de l’OMS qui alertait, en 2022 encore, sur le fait que, « partout dans le monde […], les pratiques actuelles placent les psychotropes au centre de la réponse thérapeutique, alors que les interventions psychosociales et psychologiques et le soutien par les pairs sont aussi des pistes à explorer, qui devraient être proposées ».

L’organisation internationale adopte sur le sujet une position forte, affirmant que « pour réussir à définir une approche de santé mentale intégrée, centrée sur la personne, axée sur son rétablissement et fondée sur ses droits, les pays doivent changer et ouvrir les mentalités, corriger les attitudes de stigmatisation et éliminer les pratiques coercitives ». Pour cela, ajoute-t-elle, « il faut absolument que les systèmes et les services de santé mentale élargissent leur horizon au-delà du modèle biomédical ».

Les impasses de la psychiatrie biologique

La « psychiatrie biologique » est la transcription directe de ce paradigme biomédical.

Cette approche porte une conception biologique de la souffrance psychique : elle cherche des marqueurs (principalement neurobiologiques et génétiques) susceptibles de fonder les diagnostics psychiatriques et d’ouvrir la voie à des traitements essentiellement médicamenteux. L’organisation onusienne rappelle qu’elle a « dominé la recherche en santé mentale […] au cours des dernières décennies ». La recherche, mais aussi les politiques françaises ces vingt dernières années.

Si les institutions de santé internationales déplorent l’envahissement, et singulièrement chez les enfants, des approches biomédicales et leurs conséquences en termes de surprescription de psychotropes, ce n’est pas par dogmatisme. C’est parce qu’un état des lieux actualisé des résultats de la recherche témoigne, expérimentalement et empiriquement, des impasses des modèles inspirés par la psychiatrie biologique.

Les travaux en neurobiologie et génétique des troubles mentaux se sont multipliés de façon exponentielle ces quarante dernières années, soutenus par l’amélioration des technologies d’imagerie cérébrale et de séquençage génétique. Deux directions principales ont été explorées : la recherche d’une causalité organique des troubles mentaux d’une part, la mise au point de traitement médicamenteux d’autre part.

Malheureusement, leurs apports à la psychiatrie clinique demeurent limités et contradictoires.

Image numérique d’un profil d’enfant avec des rouages dans le cerveau
La psychiatrie biologie a cherché à identifier les causes biologiques et/ou génétiques aux troubles mentaux pour mettre au point le traitement adapté. Pour l’heure, sans succès probant. Christos Georghiou/Shutterstock

La quasi-totalité des hypothèses de recherche sur les causes neurologiques et génétiques des troubles mentaux – a fortiori chez l’enfant – a été réfutée par les études dites princeps (de référence) et des méta-analyses ultérieures. Dans le meilleur des cas, divers paramètres ont pu être associés à des augmentations marginales des risques de présenter un trouble ou un autre, mais dans des conditions telles qu’elles ne permettent aucune conclusion solide. Elles n’ont donc guère d’intérêt pour les praticiens ou les patients.

Ainsi, malgré plusieurs décennies de recherches intensives :

  • Aucun marqueur ni aucun test biologique n’a été validé pour contribuer au diagnostic des troubles mentaux ;
  • Aucune nouvelle classe de médicaments psychotropes n’a été découverte depuis 50 ans, au point que l’industrie pharmaceutique a quasiment cessé depuis 2010 ses recherches dans ce domaine. Les médicaments actuels ont été découverts dans les années 1950-1970 par sérendipité, ou en sont des dérivés obtenus en tentant d’en diminuer les effets indésirables. Leur efficacité est par ailleurs considérée comme faible par les dernières publications.

Ces résultats s’appuient désormais sur une telle masse de travaux que l’idée de poursuivre sur les mêmes hypothèses neurobiologiques pose question. La probabilité de découvrir une cause biologique des troubles mentaux qui soutiendrait l’approche pharmacologique de la psychiatrie biologique ne cesse de diminuer à mesure que les études progressent.

Ce changement de perspective a commencé à émerger dans le courant des années 2000-2010 et se trouve aujourd’hui largement soutenu par les spécialistes les plus renommés au niveau international.

Ainsi Steven Hyman, ancien directeur du National Institute of Mental Health (NIMH, l’institut américain de recherche en santé mentale), affirme par exemple que « même si les neurosciences ont progressé ces dernières décennies, les difficultés sont telles que la recherche des causes biologiques des troubles mentaux a largement échoué ». De même, Thomas Insel, qui lui a succédé à la tête du prestigieux institut, admettait récemment que « les recherches en neuroscience n’ont, pour l’essentiel, toujours par bénéficié aux patients », et que « les questions soulevées par la recherche en psychiatrie biologique n’étaient pas le problème auquel étaient confrontés les patients atteints de maladies mentales graves ».

Les plus prestigieuses revues scientifiques sont de plus en plus sur la même ligne. Le psychiatre Caleb Gardner (Cambridge) et le spécialiste en anthropologie médicale Arthur Kleinman (Harvard) écrivaient en 2019 dans le New England Journal of Medicine :

« Bien que les limitations des traitements biologiques soient largement reconnues par les experts en la matière, le message qui prévaut pour le grand public et le reste de la médecine, est encore que la solution aux troubles mentaux consiste à faire correspondre le bon diagnostic au bon médicament. Par conséquent, les diagnostics psychiatriques et les médicaments psychotropes prolifèrent sous la bannière de la médecine scientifique, bien qu’il n’existe aucune compréhension biologique approfondie des causes des troubles psychiatriques ou de leurs traitements. »

De manière générale, les problèmes posés par l’approche biomédicale de la santé mentale sont solidement documentés et depuis longtemps, dans de nombreux ouvrages par des auteurs issus de multiples champs disciplinaires – neurosciences, psychiatrie, sciences humaines, histoire, sociologie et sciences sociales…

Des effets de stigmatisation

Contrairement aux bonnes intentions des campagnes de dé-stigmatisation, qui pensaient que permettre aux personnes présentant des troubles mentaux d’affirmer « c’est pas moi, c’est mon cerveau » leur serait socialement et thérapeutiquement bénéfique, plusieurs études internationales ont montré que cela augmentait le rejet social, la dangerosité perçue et le pessimisme vis-à-vis des possibilités de guérison. Les soignants adhérant à cette conception faisaient de plus montre de moins d’empathie vis-à-vis des patients. Les patients, enfin, seraient aussi plus pessimistes quant à l’évolution de leurs symptômes et plus enclins à s’en remettre aux médicaments.

S’agissant plus spécifiquement des enfants, les conceptions biomédicales ont sans aucun doute contribué à l’augmentation de prescriptions des psychotropes. Elles sont, en parallèle, globalement défavorables aux pratiques psychothérapeutiques, éducatives et sociales, pourtant largement documentées comme efficaces et recommandées en première intention.

[Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

L’exemple de l’hyperactivité et de la dépression

En appui de son analyse, le HCFEA s’est particulièrement intéressé à la question du Trouble déficitaire de l’attention avec ou sans hyperactivité (TDAH), qui est considéré comme le diagnostic le plus fréquent chez les enfants d’âge scolaire, ainsi qu’à celle de la dépression, qui peut être appréhendée à plusieurs problématiques de santé mentale chez l’enfant et l’adolescent.

  • Pas de résultats significatifs pour l’hyperactivité

Les études en imagerie cérébrale publiées dans les années 1990 suggéraient que les avancées en neurobiologie permettraient sous peu de valider des outils diagnostiques. Trente ans plus tard, aucun test pour le TDAH n’a encore été reconnu.

Des centaines d’études en imagerie cérébrale structurale et fonctionnelle ont certes mis en évidence des différences corrélées au TDAH, mais aucune ne correspond à des modifications cérébrales structurelles, et moins encore à des lésions : le TDAH ne peut donc formellement pas être qualifié de maladie ou de trouble neurologique. De plus, elles sont quantitativement minimes, contradictoires, et ne présentent pas d’intérêt du point de vue des pratiques diagnostiques, thérapeutiques ni des politiques de santé. D’autres travaux suggéraient un déficit de dopamine ou un dysfonctionnement des neurones dopaminergiques à l’origine du TDAH, mais cette perspective a été testée et réfutée.

De manière générale, les hypothèses concernant l’étiologie neurologique du TDAH sont aujourd’hui scientifiquement faibles et datées.

Les études initiales faisaient également état d’une étiologie génétique forte. Ces associations ou leur incidence causale ont été réfutées. Actuellement, le facteur de risque génétique le mieux établi et le plus significatif est l’association du TDAH avec un allèle du gène codant pour le récepteur D4 de la dopamine. Selon une méta-analyse, l’augmentation associée du risque n’est que de 1,33. Plus précisément, cet allèle est présent chez 23 % des enfants diagnostiqués TDAH et seulement 17 % des enfants contrôles. Ce qui ne présente aucun intérêt clinique.

Une revue récente de plus de 300 études génétiques conclut que « les résultats provenant des études génétiques concernant le TDAH sont encore inconsistants et ne permettent d’aboutir à aucune conclusion ».

  • La dépression : ni neurologique, ni génétique

En 2022, l’équipe de Joanna Moncrieff, des spécialistes reconnus au niveau international pour leurs travaux sur la dépression et les psychotropes, a publié une étude témoignant de l’inconsistance des conceptions biomédicales et des traitements médicamenteux concernant la dépression.

Cette publication, alliant revues et méta-analyses et portant sur un panel incluant de très nombreux patients, visait à produire une synthèse des principaux travaux ayant étudié les liens entre sérotonine et dépression au cours des trois dernières décennies. Leur conclusion est sans appel : ils n’ont trouvé aucune preuve convaincante que la dépression soit liée à des concentrations ou une activité de sérotonine plus faibles.

La plupart des études n’ont trouvé aucune preuve d’une réduction de l’activité de la sérotonine chez les personnes souffrant de dépression par rapport à celles sans dépression. De plus, les études génétiques de haute qualité et de bonne puissance statistique écartent également toute association entre génotypes associés au système sérotoninergique et dépression.

Quelles conséquences sur les pratiques diagnostiques, de soin, et les politiques de santé ?

En l’état actuel des connaissances scientifiques, il n’existe aucun lien causal établi entre mécanismes biologiques, diagnostic et traitement dans le champ de la psychiatrie, a fortiori chez l’enfant. Un déficit de sérotonine ou de dopamine ne devrait donc plus servir à appuyer la prescription d’antidépresseurs ou de psychostimulants dans le cas de la dépression ou du TDAH. Ce qui est cohérent avec la faible efficacité des traitements biologiques constatée.


À lire aussi : Santé mentale et soins psychiques de l’enfant : la surmédication dépasse toutes les bornes scientifiques


Couverture du DSM
L’American Psychiatric Association a tenté de classifier les troubles mentaux dans son Diagnostic and Statistical Manual of Mental Disorders (première édition, 1952 ; aujourd’hui DSM-5). Diagnostic and Statistical Manual of Mental Disorders — APA, CC BY

De la même manière, il convient d’être prudent quant aux usages des catégories diagnostiques héritées des grandes nomenclatures comme le DSM, le Manuel Diagnostique et Statistique de la puissante American Psychiatric Association, référence au niveau international. En l’absence d’étiologie biologique, les catégories diagnostiques décrites dans le DSM ne disposent d’aucune validité scientifique : elles ne dénotent aucune entité naturelle identifiable qui pourrait être interprétée comme maladie. Il en va de même pour les diagnostics psychiatriques de la CIM-10, la Classification internationale des maladies éditée par l’OMS.

Cette absence de validité est manifeste dans la variabilité des diagnostics selon l’âge de l’enfant, la part élevée des comorbidités, et l’hétérogénéité des situations cliniques que les nomenclatures ne permettent pas de saisir finement – d’autant qu’en raison de leur épistémologie naturaliste, elles ont été construites pour être indépendantes des contextes d’occurrence des troubles.

De plus, malgré ses évolutions, le DSM souffre toujours de problèmes de fiabilité : les décisions diagnostiques prises par deux médecins à propos du même patient sont trop souvent différentes, ce qui limite leur intérêt. Compte tenu de sa faiblesse sur le plan scientifique et considérant qu’il « avait été un obstacle pour la recherche », le NIMH, principal financeur de la recherche en santé mentale à l’échelle mondiale, s’en est désolidarisé.

Le problème n’est pas seulement épistémique mais aussi politique : depuis les années 2000, la France a misé sur l’idée que ces diagnostics pouvaient fonder des recommandations standardisées de bonnes pratiques. Le résultat est décevant. Trente années de politiques de santé mentale orientées par les approches biomédicales n’ont pas empêché un accroissement de la souffrance psychique des enfants et des adolescents, une augmentation des taux de suicide, un déficit chronique de l’offre de soin, une mise à mal des institutions et des équipes de soin et d’éducation, un effet ciseau entre la demande et l’offre de soin, des délais d’attente insupportables, une augmentation continue de la consommation de médicaments psychotropes…

Tenir compte des avancées de la recherche, c’est aussi considérer l’absence de résultats probants comme une évolution des connaissances scientifiques à part entière, à même de réorienter les politiques publiques et les pratiques de recherche.

Le modèle actuel de la psychiatrie biologique n’a pas tenu ses promesses, du fait notamment d’une application étriquée, voire dévoyée,de l’approche evidence-based en médecine mentale – pratique fondée sur les preuves scientifiques cherchant à appliquer les données issues de la recherche à l’expérience clinique du praticien.

S’il ne faut pas nécessairement en tenir rigueur à celles et ceux qui l’ont développé et soutenu, il faut désormais tenir compte de cet échec pour repenser les approches, les politiques et les dispositifs de soin, d’éducation ou d’intervention sociale. À cet égard, le rapport du HCFEA ne se limite pas à documenter le malaise et ses raisons : il propose de nouvelles approches et détaille les stratégies psychothérapeutiques, éducatives et sociales susceptibles de contribuer à l’accompagnement et au soin des enfants, ainsi qu’au soutien des familles.

C’est là que doivent désormais porter les efforts en termes de recherche et de politique publique.

Expositions « blockbusters » : comment limiter leur impact environnemental?

28 mardi Mar 2023

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

auteur

  1. Guergana GuintchevaProfesseur de Marketing, EDHEC Business School

Déclaration d’intérêts

Guergana Guintcheva a reçu des financements de la ville de Lille.

Partenaires

EDHEC Business School apporte un financement en tant que membre adhérent de The Conversation FR.

Voir les partenaires de The Conversation France

CC BY NDNous croyons à la libre circulation de l’information
Reproduisez nos articles gratuitement, sur papier ou en ligne, en utilisant notre licence Creative Commons.

Republier cet article

L’exposition-événement consacrée à Johannes Vermeer est déjà complète. AFP

Sur le site du Rijksmuseum, l’exposition « blockbuster » consacrée à Johannes Vermeer (10 février–4 juin 2023) est présentée comme « la plus grande exposition jamais réalisée ». Mais les visiteurs sont vite refroidis par la suite : « L’exposition Vermeer est définitivement épuisée. Cependant, toutes les œuvres de Vermeer peuvent encore être admirées via le parcours de découverte en ligne. », annonce la page d’accueil.

Pour les Productions Adonis, agence qui accompagne les institutions culturelles dans le montage d’expositions en promettant d’allier culture et spectacle, la première exposition « blockbuster » en France remonte à février 1967, avec « Toutânkhamon », au Petit Palais.

Les expositions dites « blockbusters » sont des superproductions médiatisées, souvent monographiques et/ou qualifiées d’exposition-événement, rassemblant par exemple une grande quantité d’œuvres iconiques d’un artiste, atteignant des records de fréquentation grâce à une proposition de valeur nouvelle. ce sont des expositions spectaculaires aux scénographies flamboyantes qui ciblent surtout des visiteurs occasionnels.

En termes de fréquentation, elles sont indéniablement un succès. La dernière exposition de ce type au Musée d’Orsay qui s’est terminée le 22 janvier dernier (« Munch. Un poème de vie, d’amour et de mort ») a battu le record de fréquentation de l’institution avec 720 000 visiteurs en quatre mois.

De même, « Toutankhamon, le trésor du Pharaon » à la Grande Halle de la Villette a enregistré 1,4 million de visiteurs en 2019 ; « Léonard de Vinci » au Louvre : 1,1 million de visiteurs en 2020 ; « La collection Morozov. Icônes de l’art moderne » à la Fondation Louis Vuitton : 1,2 million de visiteurs en 2022).

Succès de fréquentation mais échec environnemental

Mais en termes d’impact environnemental, ce type d’exposition reste très (trop) gourmand en énergie et trop polluant. À titre d’exemple, selon Elsa Boromée, responsable RSE au Musée d’histoire naturelle à Paris – très impliqué sur ces questions – l’exposition temporaire « Espèces d’Ours ! » en 2017 a consommé l’eau de 454 piscines olympiques, l’énergie annuelle de 23 foyers français et a émis des gaz à effet de serre de 74 aller-retour en avion Paris – Marseille.

Ce constat oblige les acteurs de l’industrie culturelle à revoir leur business model en intégrant la variable environnementale dans la réflexion de leur offre. Des clusters professionnels s’autostructurent dans ce sens à l’instar du Palais des Beaux-arts de Lille, qui depuis deux ans organise des workshops sur le thème de la durabilité des musées à destination de l’ensemble des professionnels engagés dans le développement et la diversification des publics.

Engager une démarche de développement durable

L’analyse des discours des 54 professionnels qui ont pris part au premier workshop au Palais des Beaux-arts à Lille en janvier 2022 sur le thème « Construire la durabilité de nos musées » témoigne d’un consensus en France sur la nécessité d’engager une démarche de développement durable de leur stratégie en interrogeant la manière dont les commissaires préparent les récits scientifiques d’une exposition temporaire et son analyse de cycle de vie comprenant la préconception, le temps d’exposition et le démontage.

Dès la phase de préconception, l’impact environnemental doit être pris en compte en impliquant les commissaires, garants de la qualité scientifique de l’offre, et les responsables des opérations (approvisionnement, fournisseurs proposant des labels durables, etc.). Cette discussion suppose des compromis et des choix.

D’un côté, les commissaires doivent reconsidérer l’idée traditionnelle d’excellence esthétique et scientifique selon laquelle la qualité d’une exposition repose sur le volume d’œuvres originales exposées et l’exhaustivité du récit illustré par des œuvres originales (100 à 150 œuvres en moyenne ce qui augmente l’émission de gaz due au transport des œuvres).

De l’autre, les différents départements du musée impliqués dans la préparation de l’exposition doivent travailler main dans la main afin de trouver des alternatives avec un impact environnemental minimal (ex. projection numérique d’œuvres d’art pour remplacer les œuvres originales, scénographie et lumières durables).

Dès cette phase, le musée doit commencer à envisager l’impact environnemental du démontage de l’exposition en mesurant le volume des flux entrants et sortants (ex. quantité d’eau, d’énergie, déchets, etc.).

L’enjeu consiste à réutiliser au maximum des éléments de la scénographie pour les futures expositions du musée et/ou de la recycler auprès d’institutions œuvrant dans le secteur créatif mais pas seulement. Choisir des alternatives locales pour faire don du mobilier d’exposition (ex. écoles d’art, ONG) permet également de limiter les émissions liées au transport.

Des a priori solidement ancrés

La phase d’exposition est le moment où le public rencontre le récit de l’exposition. Et ici on se heurte à un autre paradoxe : les visiteurs perçoivent une exposition écoconçue comme du « greenwashing » et de mauvaise qualité esthétique :

« Une exposition avec un label “écologique »… Je vais me méfier, je vais la considérer comme du « greenwashing” c’est juste pour le marketing. »

Ce verbatim illustre le ressenti des visiteurs interrogés six mois avant le montage de l’exposition écoconçue « Expérience Goya » au Palais des Beaux-arts à Lille. Il pose des questions sur l’aptitude des visiteurs à sacrifier leur plaisir esthétique pour le bien commun. Il peut être expliqué dans une certaine mesure par la méconnaissance du grand public des coulisses du montage d’une exposition. Par exemple, quand la question a été posée aux répondants du nombre d’œuvres attendus pour une exposition temporaire, ils ont mentionné un maximum de 40. Il y a donc un décalage entre les ambitions esthétiques des commissaires et les attentes des visiteurs.

Plus largement, la durabilité est perçue par les publics comme ne faisant pas partie des missions du musée par rapport à d’autres industries :

« Je trouve un peu triste de poser la question de la réduction de l’empreinte carbone quand il s’agit de culture alors qu’il y a beaucoup d’autres secteurs qui sont des exemples pires. Je ne pense pas que la culture soit un secteur où nous devrions faire des économies. […] La culture n’est pas le secteur où l’équilibre écologique est le plus lourd. »

Pourtant, les publics et leurs déplacements représentent l’empreinte la plus importante dans le bilan carbone d’une exposition temporaire.

« L’expérience Goya » au Palais des Beaux-Arts de Lille

Dans ce contexte, la communication de la part des institutions culturelles sur les choix durables d’une exposition est essentielle pour expliquer et éduquer les visiteurs. Par exemple, le Palais des Beaux-arts de Lille a conçue la narration esthétique de l’exposition « Expérience Goya » autour de deux chefs-d’œuvre appartenant au musée, les Jeunes et les Vieilles, et au total 40 œuvres en provenance exclusive d’Europe dont deux seulement ont voyagé en avion, et a utilisé un discours éducatif à destination de ses publics expliquant les choix de sobriété et illustrant l’impact environnemental de sa démarche.

La scénographie a été pensée pour être modulable et a été réutilisée à hauteur de 65 % pour l’exposition suivante, La Forêt magique Ainsi, avec l’espace de La Rotonde le musée utilise la scénographie de façon ingénieuse pour l’adapter à des narrations différentes d’une exposition à une autre.

Le retour des visiteurs a été très positif :

« J’ai été très surprise en bien par le parcours et la scénographie autour du processus de création des deux œuvres, de l’évolution de la peinture de Goya, avant le clou final avec les deux tableaux “Les vieilles” et “Les Jeunes”. Les musiques rythmées et graves diffusées nous aident à nous plonger dans cet univers sombre de Goya. »

La technologie et les reproductions numériques ont contribué à remplacer les pièces originales manquantes dans le récit scientifique du parcours d’exposition.

L’analyse du discours des visiteurs juste après l’expérience démontre qu’ils ont apprécié le mélange de ressources audiovisuelles et numériques telles que les films, la musique, les reproductions numériques et animées d’œuvres d’art pour créer un environnement immersif :

« J’ai été surpris par la diversité des moyens utilisés pour cette exposition. À la fois des diffusions cinématographique, des ambiances musicales, la luminosité, une galerie complètement digitalisée et étonnement j’ai beaucoup aimé cette diversité dans les techniques scénographiques. La scénographie est très importante je pense pour l’expérience, et je pense que l’exposition “Expérience Goya” porte bien son nom ! »

Comme nous l’ont expliqué Mathilde Chikitou (coordinatrice) et Sacha Mitrofanoff (scénographe), l’exposition « Félins » qui débute le 22 mars 2023 au Muséum d’histoire Naturelle a été pensée selon cette même démarche d’écoconception, du sourcing des matières premières jusqu’au recyclage ou au réemploi des éléments utilisés, qu’il s’agisse du sol, du mobilier, des vitrines ou des cloisons. Les objets exposés, quant à eux, viennent pour l’essentiel de collections parisiennes.

On le voit à travers ces exemples, il est possible de concevoir des expositions spectaculaires et populaires dont l’impact sur l’environnement est beaucoup moins néfaste. Le CIMAM – International Committee for Museums and Collections of Modern Art – un organisme affilié à l’ICOM propose d’ailleurs un guide à destination des professionnels pour les accompagner dans la maîtrise de l’empreinte carbone de leurs expositions à venir. D’autres solutions simples et efficaces existent, par exemple rallonger le temps de l’exposition, la faire voyager au sein d’un pays, calculer ses impacts tout au long du cycle de vie, travailler avec des fournisseurs certifiés… Autant de pistes pour des expositions « blockbusters » moins néfastes pour l’environnement !

« Diviser c’est détruire » : les marbres du Parthénon et l’intégrité des monuments

27 lundi Mar 2023

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

auteur

  1. Catharine TitiChercheuse (CNRS), Université Paris 2 Panthéon-Assas

Déclaration d’intérêts

Catharine Titi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

Partenaires

Université Paris 2 Panthéon-Assas apporte un financement en tant que membre adhérent de The Conversation FR.

Voir les partenaires de The Conversation France

CC BY NDNous croyons à la libre circulation de l’information
Reproduisez nos articles gratuitement, sur papier ou en ligne, en utilisant notre licence Creative Commons.

Republier cet article

La galerie du Parthénon au musée de l’Acropole, à Athènes. Flickr / Jean-Pierre Dalbéra, CC BY-SA

C’est peut-être l’un des arguments les plus étonnants avancés par le British Museum pour refuser le rapatriement des marbres du Parthénon : les marbres ne doivent pas être rendus à Athènes parce qu’il est préférable de les « diviser » entre deux musées. Selon cet argument, la séparation de cet ensemble de marbres sculptés présente un « avantage appréciable profitant au public » : le musée de l’Acropole nous permet de contempler ces œuvres dans le contexte de l’histoire athénienne et le British Museum dans le contexte de l’histoire mondiale.

Dans ses récents propos au sujet des négociations avec le gouvernement grec, le British Museum persiste dans cette idée de partage des marbres entre Londres et Athènes. Mais l’argument est-il valable ou relève-t-il d’un schisme culturel irréconciliable et faussement vendu comme vertueux ?

Si mon nouveau livre, The Parthenon Marbles and International Law, se concentre sur les aspects juridiques de cette affaire plutôt que sur les arguments éthiques ou esthétiques, il est difficile d’ignorer de tels propos tenus avec conviction. Effectivement, s’il est aussi important – et dans l’intérêt public – de diviser les marbres du Parthénon entre deux musées, ne devrait-on pas aussi chercher à diviser d’autres trésors ?

Des musées à vocation universelle

Nous sommes tous amateurs de grands musées dits à « vocation universelle », tels le British Museum et le Louvre. Qui n’apprécie pas une visite dans l’institution parisienne où l’on peut passer de la Victoire de Samothrace et la Vénus de Milo à une fresque de Botticelli, et de l’art funéraire égyptien aux trésors du romantisme français, le tout dans le même après-midi ? La question n’est pas là.

Certes, les grands musées ne sont pas à l’abri de scandales et les trésors qu’ils abritent n’y sont pas toujours arrivés de manière irréprochable. Ainsi, l’année dernière, la police new-yorkaise a obligé le Metropolitan Museum of Art à rapatrier des antiquités pillées faisant partie de ses collections et, en France, l’ancien président-directeur du Louvre, Jean-Luc Martinez, a été mis en examen pour trafic d’antiquités. Personne n’est parfait.

Cependant, la plupart des objets des collections muséales, bien que souvent éloignés de leur contexte d’origine, ne sont pas divisés comme le sont les marbres du Parthénon. Le British Museum soutient, quant à lui, que cette division n’est pas un cas unique, en rappelant que des objets culturels tels que des retables du Moyen Âge et de la Renaissance ont été divisés et distribués dans les musées du monde entier.

Le cas du Dyptique de Melun

Nous pouvons en effet évoquer des panneaux de retables fragmentés et dispersés dans des collections diverses : le retable Colonna de Raphaël, qui fut réalisé pour un couvent à Pérouse, puis démonté et vendu par les religieuses pour faire face à des difficultés financières ; la Maestà de Duccio à Sienne, retable scié et démantelé en 1771 par ses gardiens ; ou encore le Diptyque de Melun, œuvre majestueuse à la beauté et aux couleurs éclatantes peinte par Jean Fouquet. Ce diptyque, célèbre pour sa Vierge allaitante représentée sous les traits d’Agnès Sorel, maîtresse du roi morte peu de temps avant la réalisation du tableau, est un autre retable qui fut démantelé pour être vendu. Cela étant, quand les panneaux de tels retables sont réunis lors d’une exposition, leur réunification temporaire est souvent l’occasion de créer une sensation.

Jean Fouquet, Madone entourée de séraphins et de chérubins, vers 1452–1458. Flickr

Fragmentation d’un monument

Toutefois, il faut souligner que la division des panneaux des retables a eu lieu dans des circonstances très différentes de celles de l’acquisition des marbres du Parthénon. Est-il vraiment raisonnable d’assimiler la fragmentation de retables, objets mobiles, au démantèlement du Parthénon, un bâtiment que l’on dépouille d’une partie de sa structure ?

La division des marbres du Parthénon entre deux musées ne peut être comparée qu’à la fragmentation d’un monument. Peut-on imaginer la chapelle Sixtine scindée en deux ? Et la célèbre fresque de Michel-Ange La Création d’Adam divisée, la main tendue de Dieu séparée de celle d’Adam à qui elle donne vie ? C’est pourtant ce qu’a subi le Parthénon : les récits composés par sa frise, ses métopes et ses frontons ont été coupés, interrompus, et les statues mêmes ont été morcelées.

Prenons l’exemple du Poséidon du fronton ouest : la partie avant et médiane de son torse est à Athènes, mais la partie arrière et supérieure de son torse, y compris ses épaules et ses clavicules, est à Londres. Peut-on dire que cette division constitue un « avantage appréciable profitant au public » parce qu’une partie du corps de la statue peut être contemplée dans le contexte de l’histoire athénienne et qu’une autre partie de son corps peut être considérée dans le contexte de l’histoire mondiale ?

Quatremère de Quincy le disait déjà à la fin du XVIIIe siècle quand il dénonçait la spoliation de l’art italien : « Diviser c’est détruire. »

Rappelons que des lois adoptées par les États, dont le Royaume-Uni, protègent l’intégrité des monuments et autres bâtiments publics. Cette même intégrité, qui permet une appréciation d’ensemble d’un monument, est une condition pour l’inscription d’un bien sur la Liste du patrimoine mondial de l’Unesco en vertu de la Convention du patrimoine mondial. De plus, ce principe d’intégrité a été reconnu par la Cour internationale de justice dans l’affaire du Temple de Préah Vihéar en 1962. Dans cette affaire, qui a opposé le Cambodge et la Thaïlande, la Cour a décidé que la Thaïlande avait l’obligation de restituer au Cambodge les objets et les parties du temple qu’elle lui avait retirés. La Cour a ainsi exprimé le principe selon lequel l’État ne perd pas son droit de propriété sur les monuments et bâtiments publics ni sur les parties qui en auraient été enlevées.

Il est vrai que les marbres ne peuvent pour le moment être rendus au Parthénon lui-même. En effet, dans l’intérêt de leur conservation, si le British Museum rapatriait les marbres demain, ceux-ci seraient transportés au musée de l’Acropole pour rejoindre leurs parties complémentaires qui s’y trouvent. Cela permettrait une appréciation d’ensemble de ces œuvres de la façon la plus complète possible.

Diviser les marbres entre deux musées, en garder la moitié des sculptures au British Museum séparées de leur histoire et de leurs fragments complémentaires, ou bien placer l’ensemble à Athènes dans le musée de l’Acropole qui offre une vue directe sur le Parthénon ? Comme l’a dit le célèbre historien et archéologue britannique Andrew Wallace-Hadrill dans une lettre au Times de Londres, la question du choix ne se pose même pas0

Article 49.3 et réformes sociales : une histoire française

26 dimanche Mar 2023

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

auteur

  1. Mathias BernardHistorien, Université Clermont Auvergne (UCA)

Déclaration d’intérêts

Mathias Bernard est président de l’Université Clermont-Auvergne.

Partenaires

Université Clermont Auvergne apporte un financement en tant que membre adhérent de The Conversation FR.

Voir les partenaires de The Conversation France

CC BY NDNous croyons à la libre circulation de l’information
Reproduisez nos articles gratuitement, sur papier ou en ligne, en utilisant notre licence Creative Commons.

Republier cet article

Des membres du Parlement de la coalition de gauche NUPES (Nouvelle Union Populaire Ecologique et Sociale) tiennent des pancartes alors que le Premier ministre français Elisabeth Borne (C) arrive pour confirmer l'adoption de la loi sur les retraites sans vote du Parlement lors d'une session sur la réforme des retraites du gouvernement à l'Assemblée nationale, à Paris, le 16 mars 2023.
La Première ministre Elisabeth Borne a une nouvelle fois utilisé l’article 49.3. Cette fois pour faire adopter la loi sur les retraites, à Paris le 16 mars 2023. Alain Jocard/AFP

Le projet de réforme des retraites, porté par le gouvernement d’Elisabeth Borne, donne lieu à un bras de fer entre le pouvoir et la rue qui, depuis le milieu du mois de janvier 2023, se manifeste par un recours à des formes classiques de mobilisation (grèves, manifestations), canalisées par un front intersyndical unanime.

Il s’est doublé d’un affrontement politique entre la majorité et ses oppositions, exacerbé par l’annonce du recours à l’article 49.3 pour faire adopter une loi contestée aussi bien par la rue que par une majorité croissante de Français.

Dans l’histoire de la Ve République, ce n’est toutefois pas la première fois qu’un gouvernement, isolé face à la montée de contestations sociales et politiques, doit engager une telle épreuve de force qui, dans un contexte incertain, comporte une réelle prise de risque. De fait, quelle que soit la nature de leur majorité, les gouvernements qui se sont succédé depuis 20 ans ont quasi toujours recouru à l’article 49.3 pour faire passer des projets modifiant en profondeur le système social ou la réglementation du travail – quitte à reculer ensuite sous la pression de la rue.

Mai 68 était aussi une crise parlementaire

Référent quasi inévitable de tous les mouvements de contestation sociale depuis cinquante ans, la crise de mai 68 ne s’est pas déroulée simplement dans les amphithéâtres et dans la rue. Elle a aussi réveillé les oppositions politiques à un gaullisme qui, usé par dix années de pouvoir, ne disposait alors que d’une majorité fragile, aussi bien dans l’opinion publique qu’à l’Assemblée nationale : le 24 avril 1968, il a manqué simplement huit voix pour qu’une motion de censure, portant sur la situation de l’audiovisuel public, soit adoptée.

En plein cœur du mouvement, alors même que l’exécutif semble partagé sur la réponse qu’il doit apporter aux revendications des étudiants comme des salariés, l’opposition dépose une nouvelle motion de censure, qui est discutée les 21 et 22 mai, dans un climat d’extrême tension. François Mitterrand, alors leader de la gauche non communiste, évoque alors une crise de régime qui décrédibilise le « système » au pouvoir et rend nécessaire une « alternative » politique, qu’il est prêt à incarner. Grâce à l’appui de Valéry Giscard d’Estaing et de son groupe des Républicains indépendants, pourtant critiques face à la gestion de la crise par le gouvernement, la motion de censure est rejetée – à une nette majorité : seuls 233 députés l’ont votée, alors que la majorité s’élevait à 244.

[Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

Cette victoire parlementaire est toutefois insuffisante à restaurer la légitimité du pouvoir, dans un contexte où la mobilisation des étudiants et des salariés ne faiblit pas. C’est pourquoi, sur les conseils de son premier ministre Georges Pompidou, le général de Gaulle, le 30 mai, prononce la dissolution de l’Assemblée nationale, après avoir envisagé de recourir au référendum.Avant de dissoudre l’Assemblée nationale, de Gaulle a hésité jusqu’à la dernière seconde, comme le prouve le brouillon de son discours retrouvé aux Archives nationales. Public Sénat.

Attisant les craintes de l’opinion publique face à la radicalisation du mouvement social et exploitant la peur du désordre révolutionnaire, les gaullistes obtiennent, à l’occasion des législatives des 23 et 30 juin 1968, une majorité sans précédent mais dépendant très étroitement de ce contexte particulier. En fait, le pouvoir sort affaibli de cette crise, et de Gaulle démissionnera dix mois plus tard, après l’échec du référendum d’avril 1969.

Mobilisations de masse

C’est en 1984 que le pouvoir exécutif est à nouveau ébranlé par des manifestations de masse. Le gouvernement à dominante socialiste, dirigé par Pierre Mauroy, fait face à une opposition virulente contre le projet de loi Savary, visant à créer un « grand service public unifié et laïque de l’éducation nationale ».

Portée aussi bien par les partis de droite que par une fraction notable de l’opinion et les réseaux de parents d’élèves de l’enseignement privé, cette opposition culmine lors d’une grande manifestation qui, le 24 juin 1984, rassemble plus d’un million de personnes à Paris.

Le gouvernement bénéficiait d’une majorité pour adopter ce texte, qui était d’ailleurs l’une des 110 propositions formulées par François Mitterrand en 1981 : il avait toutefois eu recours à l’article 46-3 le 23 mai 1984 pour accélérer l’adoption du texte en première lecture à l’Assemblée nationale.

Le président François Mitterrand cède toutefois à la pression de l’opinion et de la rue et, le 12 juillet 1984, annonce le retrait du projet de loi – entraînant de ce fait la démission du ministre Alain Savary et du premier ministre Pierre Mauroy.

Deux ans plus tard, Jacques Chirac prend la même décision après les importantes mobilisations contre le projet de loi Devaquet, avant même d’avoir eu le temps de le présenter en séance plénière à l’Assemblée nationale et de recourir éventuellement au 49.3 !

Entre 1988 et 1993, les gouvernements socialistes n’ont bénéficié que de majorités relatives à l’Assemblée. Mais lorsqu’ils ont recouru à l’article 49.3 ou fait face à des motions de censure qui, parfois, ont failli les renverser, ce n’était jamais dans un contexte de mobilisation de masse ou de contestation radicale d’une réforme.

En revanche, en novembre-décembre 1995, la réforme des retraites et de la sécurité sociale proposée par le gouvernement d’Alain Juppé suscite un mouvement social inédit depuis 1968, alors même que le pouvoir bénéficiait d’une très large majorité dans les deux assemblées. Comme en 1986, le gouvernement retire le 15 décembre 1995 son projet de réforme sans avoir sollicité un vote à l’Assemblée.

Toutefois, le 30 décembre 1995, en plein milieu de la « trève des confiseurs » qui marque habituellement une suspension dans la vie politique, il recourt à l’article 49.3 pour faire adopter une loi l’autorisant à prendre des ordonnances pour réformer la sécurité sociale. Ce double acte d’autorité (le recours aux ordonnances et au 49.3) ne suscite pas de réaction particulière de la part des oppositions qui estimaient sans doute avoir obtenu l’essentiel (le retrait de la réforme des retraites), dans un contexte où le gouvernement avait, au Parlement, la majorité : il s’agissait surtout pour l’exécutif d’aller vite en évitant les pratiques d’obstruction.

Fronde et fracture à gauche

Le 9 février 2006, Dominique de Villepin fait ainsi adopter en bloc sa « loi pour l’égalité des chances » instaurant le Contrat première embauche. En dépit d’une contestation massive, notamment de la jeunesse, la loi est promulguée le 31 mars 2006 – avant que Jacques Chirac ne décide finalement, le 16 avril, d’en abroger l’article qui instaurait le CPE : à moins d’un an des présidentielles, il ne souhaitait pas faire courir à sa famille politique un risque électoral majeur.

Sous la présidence de François Hollande, marquée notamment par la « fronde » de députés récusant la politique économique incarnée notamment par Manuel Valls et Emmanuel Macron, l’article 49.3 a été utilisé pour faire adopter les « lois Macron », au grand dam de celui-ci, et surtout la « loi Travail », portée par la ministre Myriam El Khomri aussi bien en première lecture (le 10 mai 2016) que lors de l’adoption définitive (le 21 juillet).Mardi 10 mai 2016, Manuel Valls a utilisé le 49.3 pour faire adopter le « projet de loi Macron », du nom du ministre de l’Économie de l’époque. France 24.

En dépit de l’opposition d’une majeure partie de l’opinion, de la quasi-totalité des syndicats et d’un mouvement social particulièrement virulent et durable (autour notamment du mouvement « Nuit debout »), les députés frondeurs du PS ne rejoignent pas leurs collègues du Front de gauche et de la droite et, le 12 mai, ne votent pas la motion de censure, qui ne recueille que 246 voix que sur les 288 requises. Mais cette épreuve de force suscite une fracture au sein de la gauche gouvernementale, qui ne s’en est jamais réellement remise.

L’adoption d’une loi ne sonne pas la fin de l’histoire

Le projet de réforme des retraites, portée par Édouard Philippe lors du premier quinquennat d’Emmanuel Macron, a également été adopté en première lecture par le recours à l’article 49.3, le 29 février 2020, qu’ont violemment dénoncé les différentes organisations syndicales.

Le pouvoir avait sans problème la majorité pour faire voter ce texte. Mais il souhaitait clore rapidement une séquence marquée par une forte mobilisation sociale qui, un an après le mouvement des « gilets jaunes », contribuait à affaiblir son assise politique et électorale.

Cette volonté délibérée d’esquiver une longue discussion au Parlement n’a pas eu de suites immédiates : dès le 16 mars 2020, Emmanuel Macron annonce la suspension de cette réforme, en raison de la crise Covid qui frappe alors la France et lui impose le confinement. Son attitude intransigeante face à un mouvement social a sans doute contribué à l’évolution de son électorat d’une élection présidentielle à l’autre, un électorat désormais plus proche de celui que capte traditionnellement la droite modérée.

Le gouvernement d’Elisabeth Borne n’est pas le premier à faire preuve d’autorité au Parlement pour faire passer une réforme contestée et pour tenter de mettre un terme à une agitation qui, si elle perdurait, serait délétère pour l’image du pouvoir. Toutefois, une victoire parlementaire acquise par l’intermédiaire de l’article 49.3 ou par le rejet d’une motion de censure ne suffisent pas à reconquérir une légitimité – le général de Gaulle lui-même l’a expérimenté en mai 68. Plusieurs lois, ainsi adoptées, n’ont d’ailleurs pas été promulguées. À l’évidence, le vote de ce lundi 20 mars ne constitue pas un terme définitif à un épisode particulièrement délicat pour la présidence d’Emmanuel Macron.

Le système de retraite sera-t-il aussi généreux avec les générations futures qu’avec les retraités actuels ?

25 samedi Mar 2023

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

auteur

  1. Henri MartinEconomie, systèmes de retraite, protection sociale, inégalités, Université de Lille

Déclaration d’intérêts

Henri Martin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

Partenaires

Université de Lille et Université de Lille – initiative d’excellence fournissent des financements en tant que membres adhérents de The Conversation FR.

Voir les partenaires de The Conversation France

CC BY NDNous croyons à la libre circulation de l’information
Reproduisez nos articles gratuitement, sur papier ou en ligne, en utilisant notre licence Creative Commons.

Dans les jours qui ont suivi la décision de l’exécutif, prise dans l’après-midi du jeudi 16 mars, de faire appel à l’article 49 alinéa 3 de la Constitution pour faire passer la réforme des retraites, la contestation n’a pas faibli. Le samedi 18 mars, à deux jours du vote de la mention de censure contre le gouvernement, des rassemblements se sont déroulés dans plusieurs villes, à Paris comme en province. Certains cortèges ont compté plusieurs milliers de personnes et des heurts avec les forces de l’ordre ont éclaté, conduisant à plusieurs dizaines d’interpellations.

Que des étudiants et des jeunes actifs aient été à l’initiative de ce mouvement, lancée dès la soirée du 16 mars, invite à s’interroger, comme nous l’avons fait dans des recherches passées, sur les inégalités entre générations en matière de retraite. Notre système de retraite est, fondamentalement, un système par répartition dans lequel les cotisations versées par les actifs permettent de financer les pensions versées aux retraités. Contrairement à un système en capitalisation, les cotisations ne viennent pas constituer une épargne que l’assuré pourra ensuite liquider, après l’avoir fait fructifier, au moment de quitter la vie active.

Le tout repose donc sur une solidarité implicite. Les actifs d’aujourd’hui ne reçoivent rien en échange de leurs transferts vers leurs aînés, sinon la promesse d’être bénéficiaires de la redistribution quand ils seront à leur tour retraités. Ce contrat entre les générations implique de respecter un certain niveau d’équité de manière à ce qu’aucune ne s’estime lésée par le système. Cet objectif est d’ailleurs inscrit dans le Code de la Sécurité sociale :

« Les assurés bénéficient d’un traitement équitable au regard de la durée de la retraite comme du montant de leur pension, quels que soient leur sexe, leurs activités et parcours professionnels passés, leur espérance de vie en bonne santé, les régimes dont ils relèvent et la génération à laquelle ils appartiennent. »

Que peut-on aujourd’hui projeter en matière de retraites pour les générations futures de retraités ? Quelles différences avec les retraités actuels et passés ? La question, dite de « l’équité intergénérationnelle », fait l’objet d’éclairages réguliers par le Conseil d’orientation des retraites (COR) dans ses différents colloques et rapports annuels sur lesquels nous nous appuyons ici.

Qu’est-ce qu’être avantagé ?

La générosité du système de retraite envers une génération donnée se mesure à la fois à l’aune des bénéfices qu’elle a retiré du système de retraite mais aussi à partir des efforts contributifs qu’elle a fournis. Une génération qui aurait reçu beaucoup du système de retraite, mais qui aurait également davantage contribué que les autres générations ne peut ainsi pas être perçue comme spécialement avantagée.

Pour apprécier les bénéfices qu’une génération a retirés du système de retraite, le COR s’intéresse à deux indicateurs : le niveau de la pension de retraite en proportion du salaire, ce que l’on appelle aussi le taux de remplacement, mais aussi la durée de la retraite. Une génération dont les pensions de retraite sont élevées n’est pas nécessairement plus avantagée qu’une autre génération qui perçoit des pensions plus faibles si cette dernière a bénéficié d’une retraite plus longue.

Symétriquement, afin apprécier l’effort contributif d’une génération, le COR s’intéresse à deux autres indicateurs : le niveau des cotisations versées en proportion du salaire mais aussi la durée de la carrière. Une génération qui verse davantage de cotisations sociales n’est pas nécessairement désavantagée par rapport à une génération qui en paie moins mais qui a cotisé sur une durée plus longue.

[Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

Pour connaître les durées de carrière, de retraite et le niveau des pensions futures des générations encore actives aujourd’hui, le COR se livre à un exercice de projection. Celui-ci repose sur de nombreuses hypothèses en matière notamment de croissance économique mais aussi d’évolution de l’espérance de vie. Il suppose notamment que la réglementation actuelle restera inchangée et ne prend donc pas en compte le passage à 64 ans de l’âge légal d’ouverture des droits.

Plutôt qu’une prévision, il cherche ainsi à décrire le futur dans l’hypothèse où les tendances économiques et démographiques actuelles se poursuivraient. L’incertitude la plus importante repose sur les évolutions de l’espérance de vie, car les dernières données disponibles font état d’une stagnation de celle-ci, à rebours de la forte augmentation observée depuis plusieurs décennies.

Les générations des années 1940, grands bénéficiaires

Depuis la mise en place du système de retraite à la Libération, les taux de cotisation du régime général ont sensiblement augmenté, que ce soit la part salariale ou la part employeur. Il en est de même dans le régime complémentaire de l’Arrco. Pour la génération née en 1940, le taux de cotisation moyen était de l’ordre de 20 % pour un salarié du secteur privé non-cadre. Il va s’élever à plus de 28 % pour la génération née en 1990, ce qui représente une augmentation considérable de l’effort contributif au système.

Depuis les années 2000, les différents gouvernements ont utilisé avec davantage de parcimonie le levier de la hausse des taux de cotisations (avec pour objectif de ne pas nuire à la compétitivité de l’économie), ce qui explique que l’augmentation tend à ralentir pour les dernières générations.

Après s’être fortement allongée entre les générations 1940 et 1960, en raison notamment de la participation croissante des femmes au marché du travail, la durée moyenne de carrière va, elle, progressivement diminuer d’environ deux ans entre les générations 1960 et 2000. Cette diminution s’explique par des entrées plus tardives sur le marché du travail mais aussi par des carrières plus précaires. La tendance pourrait néanmoins être remise en cause en cas de relèvement de l’âge légal d’ouverture des droits à 64 ans.

Les générations nées vers 1940 ont ainsi bénéficié à la fois de taux de cotisation très faibles mais aussi d’une durée de carrière relativement faible. De ce point de vue elles ont nettement moins contribué au système que les générations suivantes qui ont cotisé plus longtemps et à des niveaux plus élevés.

Du fait des différentes évolutions réglementaires du mode de calcul des pensions (passage des 10 aux 25 meilleurs années au régime général, valeur des points dans les régimes complémentaires, augmentation de la durée requise pour le taux plein…), le taux de remplacement des retraités (ratio entre la pension de retraite et les salaires de carrière) va, lui, a priori diminuer au fil des générations. De 75 % pour la génération née en 1940, il atteindrait 64 % pour la génération née en 2000 dans un scénario où la croissance économique serait de 1 % à long terme.

Cela ne signifie pas que le pouvoir d’achat des retraités va diminuer car les salaires vont continuer d’augmenter avec la croissance économique. Mais cela veut dire que le niveau de vie des retraités, qui est aujourd’hui légèrement supérieur à celui des actifs, va devenir assez nettement inférieur. En ce sens, les retraités futurs seront moins bien lotis que les retraités actuels.

Avec la réforme, des inégalités accentuées ?

Du fait d’une hausse probable de l’espérance de vie, qui ferait plus que compenser le recul de l’âge de départ à la retraite, la durée de retraite augmenterait au fil des générations, passant d’environ 24 ans pour la génération née en 1940 à 27,5 ans pour la génération née en 2000. Néanmoins, ce gain de durée de retraite serait amoindri en cas de relèvement de l’âge légal d’ouverture des droits à 64 ans ou d’évolution moins favorable de l’espérance de vie. Il s’agit de plus d’un chiffre moyen qui masque d’importantes disparités au sein d’une même génération, ce qui n’est pas ici notre propos.

Si les tendances observées se prolongent, et en raison des évolutions des règles du système de retraite, les jeunes générations, nées après 1980, auront des taux de remplacement nettement plus faibles que ceux de leurs aînés. Elles devront également reverser une part beaucoup plus importante de leur salaire pour financer le système de retraite.

En revanche, elles disposeront d’une durée de carrière un peu plus courte et d’une durée de retraite plus longue que les générations actuelles de retraités, du fait essentiellement des gains possibles d’espérance de vie. Ces deux contreparties à la baisse des taux de remplacement et à la hausse des cotisations pourraient cependant être mises à mal par le projet de relèvement de l’âge légal d’ouverture des droits à 64 ans

Xi Jinping à Moscou : vers un bloc sino-russe contre l’Occident ?

24 vendredi Mar 2023

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

auteur

  1. Cyrille BretGéopoliticien, Sciences Po

Déclaration d’intérêts

Cyrille Bret ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

Partenaires

Sciences Po apporte un financement en tant que membre adhérent de The Conversation FR.

Voir les partenaires de The Conversation France

CC BY NDNous croyons à la libre circulation de l’information
Reproduisez nos articles gratuitement, sur papier ou en ligne, en utilisant notre licence Creative Commons.

Republier cet article

Poupées russes représentant Joe Biden, Vladimir Poutine et Xi Jinping
Dans quelle mesure la Russie de Vladimir Poutine peut-elle compter sur la Chine de Xi Jinping dans sa confrontation avec le bloc occidental emmené par les États-Unis de Joe Biden ? vovidzha/Shutterstock

Se rendre en Russie, c’est, pour Xi Jinping, affirmer de façon éclatante son soutien à Vladimir Poutine à un moment critique de la guerre en Ukraine, et quelques jours après l’émission d’un mandat d’arrêt à l’encontre du président russe par la Cour pénale internationale. Par ce geste, le leader chinois rappelle au monde que l’axe sino-russe est solide.

Alternative à une Europe désormais hostile, la République populaire de Chine (RPC) est, pour la Russie, bien plus qu’un soutien de circonstance. C’est un allié réel dans les enceintes internationales et sur les marchés mondiaux pour contrer l’influence occidentale en général et américaine an particulier.

Pour autant, l’Occident fait-il désormais face à un bloc des régimes autoritaires doublé d’une alliance eurasiatique ? La relation sino-russe est aussi traversée de méfiances réciproques, de rivalités ouvertes et même de compétitions féroces.

Contre la relation transatlantique, un axe eurasiatique

Le soutien de la RPC à la Russie est loin d’être conjoncturel. Les deux pays n’ont cessé de développer leurs échanges et leurs coopérations au cours deux dernières décennies. Après avoir, en 1994, résolu leurs différends frontaliers issus de la période soviétique, ils ont conclu, dès 2001, un partenariat stratégique bilatéral qui s’est matérialisé sur plusieurs plans.

Les échanges commerciaux ont crû de façon régulière malgré les crises économiques (2008, 2014, 2021). Ils ont même atteint en 2022 le niveau de 190 milliards de dollars, un record, et une augmentation de 30 % par rapport à 2021.

[Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

La RPC est devenue dès 2010 le deuxième partenaire commercial de la Russie, derrière l’Union européenne dans son ensemble, mais devant tous les pays de l’UE pris individuellement. Fourniture d’énergie, de minerais et de matériel de défense côté russe, exportation de machines-outils, de produits pharmaceutiques et de composants électroniques côté chinois : les complémentarités se sont rapidement renforcées par l’instauration d’échanges financiers en roubles et yuans et d’une banque de développement au sein des BRICS.

Le gazoduc Force de Sibérie, lancé en 2014 et inauguré en 2019, relie la Sibérie au nord-est de la Chine. Elle sera bientôt renforcée par Force de Sibérie 2. Ces infrastructures donnent à la Russie un débouché alternatif à l’UE, engagée dans une stratégie de sevrage des hydrocarbures russes. Elles offrent également à la RPC un fournisseur d’énergie à bas prix au moment où les États-Unis ont repris une position de leader sur les marchés mondiaux de l’énergie.

Ce partenariat est largement cimenté par la contestation de l’Occident sur la scène internationale. Bien avant l’arrivée de Xi Jiping au pouvoir en 2013 et avant la rupture de la Russie avec l’Occident en 2014, les deux anciens empires remettaient déjà en cause l’action internationale des États-Unis en particulier et des Occidentaux en général : au Conseil de sécurité des Nations unies (CSNU) comme partout dans le monde, les diplomaties chinoises et russes se sont mutuellement épaulées pour critiquer les interventions de l’OTAN à l’étranger (Serbie, Afghanistan), pour contester les régimes démocratiques libéraux et pour dénoncer les « doubles standards » d’un Occident qui violerait les règles qu’il entend imposer aux autres acteurs internationaux.

Au CSNU, le droit de veto a été abondamment utilisé par la Russie (29 fois) et par la RPC (15 fois) depuis 1991 pour contrer les condamnations occidentales sur l’Ukraine, Taïwan, le Xinjiang, etc. On constate donc une « alliance défensive objective » entre puissances nucléaires membres permanents du CSNU.

Cet attelage anti-occidental se double d’une certaine coopération à l’échelle eurasiatique : conjointement créatrices de l’Organisation de Coopération de Shanghaï (OCS) en 2001, Russie et Chine ont cherché à instaurer une véritable hégémonie conjointe en Eurasie pour lutter contre le terrorisme, le séparatisme et le crime organisé dans la région. Mais aussi pour contrer l’influence des États-Unis dans la région suite aux guerres d’Irak et d’Afghanistan. L’OCS rapproche lors d’exercices militaires réguliers dans toutes les dimensions (air, terre, mer, cyber) les deux puissances militaires et leurs alliés. Le soutien chinois à la Russie s’était signalé en septembre dernier par la participation de la RPC à l’exercice Vostok 2022 en Extrême-Orient.

La visite de XI Jinping à Moscou confirme que la RPC est un « foul weather friend » de la Russie, autrement dit un allié même par temps de crise : en Eurasie et à l’ONU, sur le plan économique et dans les domaines militaires, le partenariat stratégique sino-russe est réel et prétend porter une vision du monde alternative (et hostile) à celle de l’Occident. De façon plus concrète, la RPC soutient discrètement l’invasion russe en refusant d’adopter des sanctions, en alimentant le complexe militaro-industriel russe et en proposant récemment un plan de paix russo-ukrainien qui met l’accent sur les garanties de sécurité pour la Russie.

De la méfiance aux rivalités

Européens et Américains doivent-ils donc se préparer à contrer un bloc des régimes autoritaires dont la Chine et la Russie seraient les chefs de file, avec l’Iran, la Syrie, la Corée du Nord, la Syrie ou encore les régimes d’Asie centrale ? Le risque géopolitique d’une « désoccidentalisation » du monde est réel. Mais il doit être nuancé.

Entre Moscou et Pékin, les sources de défiance sont réelles. La Russie redoute depuis longtemps le poids économique, démographique et militaire de la Chine, en particulier dans son propre Extrême-Orient dépeuplé et sous-développé. En matière de population et de PIB, le rapport est structurellement de 1 à 10 en faveur de la RPC. La tenue d’un sommet de l’APEC (Asia-Pacific Economic Cooperation) à Vladivostok en 2012 répond à la volonté de Moscou de ne pas être rétrogradé au rang de faire-valoir ou de brillant second de la Chine. Et la remilitarisation de l’Arctique par la Russie a pour but de réaffirmer sa maîtrise d’une route maritime où Pékin affirme ses ambitions, brise-glace à l’appui.

Quant à la Chine, elle observe une réserve évidente et constante vis-à-vis des aventures expansionnistes de la Russie : elle n’a pas reconnu l’indépendance de l’Ossétie du Sud et de l’Abkhazie après la guerre russo-géorgienne de 2008. De même qu’elle n’a pas reconnu l’annexion des quatre provinces ukrainiennes prises par la Russie en septembre 2022. Et son plan de paix pour l’Ukraine a pour premier point le respect de l’intégrité territoriale du pays – sans préciser si cela signifie que la Chine souhaite que la Russie abandonne le Donbass et la Crimée. Bref, sur les questions existentielles de la géopolitique russe, la RPC laisse planer l’ambiguïté, entre soutien et médiation. Le bloc présente des signes évidents d’effritement.

Les rivalités entre Chine et Russie sont même ouvertes en Asie centrale, en Asie du Sud et en Afrique. De nombreuses fissures apparaissent, comme à l’époque soviétique, dès qu’il s’agit d’hégémonie régionale. Les cinq États d’Asie centrale anciennement Républiques socialistes soviétiques sont l’objet d’une rivalité presque séculaire entre les deux anciens empires. D’un côté, la Russie a nourri son influence sur place par le biais d’organisations régionales qui excluent la Chine : l’Organisation du Traité de Sécurité collective (OTSC – 2002) sert de cadre à la coopération sécuritaire et militaire entre le « grand frère » russe et certaines de ses anciennes dépendances (hors Ouzbékistan) ; la Communauté des États Indépendants (CEI) et l’Union économique eurasiatique (UEE) donnent des cadres géographiquement et institutionnellement variables pour contrer le dynamisme chinois dans la zone.

Les « nouvelles routes de la soie » (OBOR puis BRI) lancées en 2013 étaient précisément destinées à secouer et contourner l’hégémonie russe : les investissements et les prêts massifs, la construction d’infrastructures ferroviaires et logistiques ainsi que l’installation d’une base militaire chinoise au Tadjikistan ont suscité des craintes très fortes à Moscou. Le partenaire stratégique chinois cherche en effet délibérément à marginaliser la Russie dans la région.

Le dynamisme russe en Afrique (Centrafrique, Mali, Burkina Faso, etc.) et en Asie du Sud (Inde, Vietnam) ne doit pas être réduit à la contestation de l’Occident (et de la France) sur des fronts extra-européens. Il doit aussi être compris comme une volonté de peser dans le rapport de force bilatéral sino-russe.

Ainsi, c’est avant tout pour gêner la Chine que la Russie a milité en faveur de l’adhésion de l’Inde à l’Organisation de Coopération de Shanghaï (OCS), qui s’est produite en 2016. Pour éviter d’être affaiblie, la RPC a répliqué en demandant l’adhésion de son allié pakistanais en même temps dans l’OCS. Intégrer l’Inde à l’OCS, c’est inviter le grand rival systémique de Pékin au sein d’une structure où la Chine risquait de dominer la Russie. Et, sur le plan bilatéral, Moscou a développé depuis longtemps ses échanges avec Delhi en matière de défense, de nucléaire et d’énergie, précisément pour ne pas dépendre uniquement de Pékin dans sa confrontation avec l’Occident. En un mot, pour Vladimir Poutine, le soutien de Xi Jinping est bienvenu, mais pourrait être gênant s’il était exclusif.

Dilemme européen

La visite de Xi Jinping à Moscou rappelle à l’Occident un risque géopolitique structurant : depuis deux décennies, les deux grandes puissances nucléaires et technologiques eurasiatiques ont convergé sur tous les plans pour contester ouvertement sa vision du commerce mondial, des relations internationales ainsi que des structures dédiées à la sécurité globale et régionale.

Le défi est de taille, en particulier pour les Européens qui voisinent depuis toujours avec la Russie et commercent depuis longtemps avec la Chine. Mais le véritable défi est-il de les traiter comme un bloc idéologiquement homogène dans une logique de confrontation ? Ou bien n’est-il pas plutôt de jouer des rivalités internes pour désolidariser ces puissances eurasiatiques en compétition ouverte dans au moins trois zones ?

Au-delà du mouvement social, quel avenir pour les syndicats ?

22 mercredi Mar 2023

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

auteur

  1. Michel WieviorkaSociologue, Auteurs historiques The Conversation France

Déclaration d’intérêts

Michel Wieviorka ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

Partenaires

Voir les partenaires de The Conversation France

Langues

  • English
  • Français
CC BY NDNous croyons à la libre circulation de l’information
Reproduisez nos articles gratuitement, sur papier ou en ligne, en utilisant notre licence Creative Commons.

Republier cet article

Le secrétaire général de l'Union nationale des syndicats autonomes (UNSA) Laurent Escure (G), le secrétaire général de la Confédération française démocratique du travail (CFDT) Laurent Berger (3e G), Le secrétaire général de la CGT, Philippe Martinez (C), et le secrétaire général de Force ouvrière (FO), Frédéric Souillot (2eR), assistent à une manifestation au troisième jour des rassemblements nationaux organisés depuis le début de l'année, contre une réforme des retraites profondément impopulaire, à Paris, le 7 février 2023. La France se prépare à de nouvelles grèves et manifestations de masse contre la proposition du président français de réformer les retraites françaises, notamment en faisant passer l'âge de la retraite de 62 à 64 ans et en augmentant le nombre d'années pendant lesquelles les gens doivent cotiser pour obtenir une retraite complète, le 7 février 2023, un jour après que les législateurs ont commencé à débattre du projet de loi contesté.
La mobilisation sociale contre la réforme des retraites est structurée par un ensemble d’organisations syndicales qui font preuve d’unité pour la première fois depuis 2010. Julien De Rosa/AFP

Le recours à l’article 49.3 pour adopter le projet de réformes des retraites pourrait redonner un second souffle aux syndicats après un mouvement social qui semblait ralentir. Dès le 19 février 2023, Philippe Martinez, le secrétaire général de la CGT, indiquait ainsi vertement que la mobilisation organisée par les syndicats était sociale et qu’elle ne devait rien aux partis politiques. Une adresse faite à l’intention du leader de la France insoumise, Jean-Luc Mélenchon, et à ceux qui tentent de « s’approprier ce mouvement social […] et de se substituer aux organisations syndicales ou essaient de se mettre en avant (par rapport à elles et à) ceux qui défilent dans la rue ».

Après la décision d’Emmanuel Macron et d’Elisabeth Borne de passer outre le vote des députés, les syndicats ont donc l’occasion de reprendre la main. A l’Assemblée nationale, le spectacle offert par les députés a été jugé pitoyable par nombre d’observateurs. Et la réforme, que l’on pensait portée au niveau institutionnel par un axe Emmanuel Macron/Eric Ciotti, a finalement révélé les dissensions entre la majorité et le parti Les Républicains.

En realité, la mobilisation sociale contre le projet du gouvernement ne s’est pas transformée, au Parlement, en négociation ou recherche de compromis puisque ceux qui négocient n’ont aucun lien ni avec le syndicalisme, ni avec la protestation populaire. Cette dernière est organisée, résolue mais non violente. Elle est structurée par un ensemble d’organisations syndicales qui font preuve d’unité pour la première fois depuis 2010.


À lire aussi : Retraites : vers un durcissement du mouvement social pour faire reculer le gouvernement ?


Il y a là un signe de vitalité démocratique et politique, dont la fragilité ne doit pas être sous-estimée : que restera-t-il de l’unité syndicale une fois la réforme votée, ou au contraire abandonnée ?

Et surtout, le syndicalisme peut-il constituer durablement un acteur décisif sans ancrage renforcé sur le terrain, sans un enracinement plus marqué là où il côtoie et représente les travailleurs au plus près ? C’est d’abord là où l’on travaille qu’il est légalement et pas seulement légitimement actif, reconnu par le droit, où il a des élus, où sa voix est officiellement reconnue.

De la rue aux entreprises

L’articulation ici aussi n’est pas évidente. Même si dans les deux cas la mobilisation est organisée par les mêmes acteurs, les syndicats, il n’y a pas une relation automatique et forte entre celle de la « rue », et celle qui peut s’opérer sur les lieux de travail ; entre l’espace d’une pression directement politique, ce qui ne veut pas dire politicienne ou partisane, et celui d’une action sociale prévue par la loi et divers accords et règlements.

Le taux de syndicalisation en France est faible, et en un demi-siècle, la présence des syndicats sur le terrain, a dans l’ensemble régressé. Ce qui fut un acquis des négociations de Grenelle en 1968, la création de la section syndicale d’entreprise, actée dans la loi du 27 décembre 1968, n’a pas débouché finalement sur un renforcement du syndicalisme sur les lieux de travail.

[Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

Les grèves les plus efficaces se jouent dans quelques secteurs stratégiques, et notamment dans les transports publics. Les chiffres relatifs à la mobilisation contre la réforme des retraites, à la baisse, suggèrent non pas tant une démobilisation que l’idée d’un déplacement : jusqu’ici, le lieu principal de la contestation a pu être un temps non pas celui où l’on travaille, mais « la rue », avant que l’action se déplace, et mette en scène d’autres acteurs – les manifestants ne sont exactement pas la même population que les grévistes, ce ne sont pas nécessairement des syndiqués, ou même des travailleurs, on a pu voir des familles entières défiler, ou des commerçants se préparer à fermer le rideau de fer en guise de participation à l’action.

Des travailleurs des transports tiennent une banderole sur laquelle on peut lire « Atelier TGV Paris Sud-Est en grève » lors d’une manifestation à l’appel des syndicats français devant la gare de Lyon, à Paris, le 19 janvier 2023. Une journée de grèves et d
Des travailleurs des transports se sont mobilisés devant la gare de Lyon, à Paris, le 19 janvier 2023. Ils luttent contre le projet de réforme des retraites du gouvernement d’Elisabeth Borne. Stéphane De Sakutin/AFP

A partir du 7 mars 2023, les grèves, et donc la capacité de mobilisation syndicale sur les lieux de travail peuvent devenir d’autant plus décisifs qu’à elle seule « la rue » n’empêche pas le pays de fonctionner, l’économie de tourner, ou les écoles d’accueillir les élèves

Le retour de la « grève par procuration » ?

En 1995 était apparue à l’occasion de la contestation de la réforme Juppé la notion de « grève par procuration » : l’opinion se reconnaissait dans les grèves, sans que les grévistes aient été particulièrement nombreux, il suffisait que leur action, en des secteurs-clés, et surtout dans tout ce qui touche à la mobilité, puisse paralyser le pays avec la bienveillance de la population. Mais les temps ont changé.

La mobilité est perçue par certains comme moins importante, notamment du fait du télétravail alors que pour d’autres, elle est vitale ou décisive, prioritaire, en particulier en régions, quand l’emploi, l’école l’hôpital, et autres services publics, ou bien encore les commerces exigent de se déplacer en voiture.

L’entraver peut désolidariser ceux qui doivent se déplacer ou veulent pouvoir le faire, ne serait-ce que pour prendre leurs congés – Philippe Martinez l’a bien perçu et a accepté le choix des syndicats de cheminots de retirer un mot d’ordre de grève un samedi de départs en vacances, « il faut garder un peu de force pour la suite » a-t-il expliqué le 7 février 2023 au micro de RTL.Philippe Martinez, secrétaire général de CGT invité par RTL le 7 février 2023.

Les régimes particuliers de retraite sont perçus aujourd’hui plus qu’hier comme injustes, ce qu’indiquent divers sondages d’opinion, ils seraient tenus pour des facteurs d’inégalités. Ils ont été construits dans le passé, et si la pénibilité est un enjeu important, et bien compris de l’opinion, elle n’est plus nécessairement celle qui a légitimé ces régimes.

La scène que constituent les lieux de travail n’est donc pas un terrain évident pour la mobilisation syndicale actuelle, et la jonction avec celle qu’offre « la rue » n’est pas évidente.

Certes, Laurent Berger, pour la CFDT, a fait savoir en février 2023 que la contestation avait fait augmenter le nombre de nouvelles adhésions à son syndicat. Ce n’est pas négligeable. Mais un problème de fond demeure : le syndicalisme peut-il être l’opérateur politique de mécontentements généraux – « la rue » – sans se relancer par le bas pour être l’expression de demandes qui naissent dans l’atelier, au bureau, et auxquelles il apporte une capacité de négociation et de traitement local, par entreprises, par branches et éventuellement national et interprofessionnel ?

Vers un nouveau souffle syndical dans les entreprises ?

Il y faudrait certainement un souffle nouveau, comme celui qu’apporte la mobilisation actuelle, mais perceptible en interne, dans les entreprises et les administrations ou à l’école, ainsi que des dispositifs qui y soient favorables. Le président Emmanuel Macron a toujours fait preuve de grandes réserves, voire de mépris à l’encontre du syndicalisme, même réformiste comme c’est le cas avec la CFDT.

En se donnant à voir comme l’héritier de Le Chapelier, ce député aux États généraux de 1789, président de l’Assemblée constituante qui a voulu la suppression des communautés de métiers et l’a obtenue par la loi de 1791 qui porte son nom, ce qui exercera par la suite un impact historique durable, désastreux pour le syndicalisme jusqu’à nos jours, le chef de l’État n’aidera certainement pas à une revitalisation par le bas de l’action syndicale.

Emmanuel Macron parle, en la visant parmi d’autres, de « corporatisme », une thématique reprise par le ministre du travail Olivier Dussopt devant l’Assemblée nationale : « nous avons été élus pour débarrasser les Français des corporatismes, fluidifier la société, assécher les rentes […] Il y a un grand conservatisme des partenaires sociaux ».

Quant au patronat des grandes entreprises, il n’a en aucune façon au cours du conflit actuel donné l’image de la moindre ouverture, il a été peu loquace, favorable à une réforme qui ne lui demande aucun effort particulier, alors qu’il pourrait et devrait jouer un rôle décisif dans l’éventuelle réinvention du dialogue social au niveau des entreprises.

Les syndicats peuvent sortir grandis de la mobilisation de janvier-février 2023. Le syndicalisme apparaît comme une force politique, mais extra-parlementaire. Il est la fierté retrouvée du peuple de gauche, mais à l’extérieur des partis politiques, et il n’est pas sérieux d’envisager de transformer Laurent Berger en futur candidat à la présidence de la République.

Quel que soit l’aboutissement de la mobilisation actuelle, déjà se profile l’étape suivante, qui aurait dû en fait précéder tout projet de réformes sur les retraites : obtenir du pouvoir qu’il prenne la mesure de ce que représente le travail aujourd’hui, et qu’il change réellement de méthode, oubliant la verticalité toute descendante avec laquelle il continue encore de s’exercer, pour accepter et même encourager le fonctionnement des médiations syndicales, en particulier au plus près, dans les entreprises, les administrations, dans l’éducation nationale ou dans la santé.

Oui, la vapeur d’eau est un gaz à effet de serre et a un impact sur le réchauffement climatique

21 mardi Mar 2023

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

auteur

  1. François-Marie BréonPhysicien-climatologue, chercheur au Laboratoire des sciences du climat et de l’environnement, Sorbonne Université

Déclaration d’intérêts

François-Marie Bréon est chercheur au Laboratoire des Sciences du Climat et de l’Environnement (LSCE). Il est par ailleurs président de l’Association Française pour l’Information Scientifique (Afis)

Partenaires

Sorbonne Université apporte des fonds en tant que membre fondateur de The Conversation FR.

Voir les partenaires de The Conversation France

CC BY NDNous croyons à la libre circulation de l’information
Reproduisez nos articles gratuitement, sur papier ou en ligne, en utilisant notre licence Creative Commons.

Republier cet article

Les émissions de vapeur d'une centrale nucléaire
La centrale nucléaire de Cattenom en Moselle émet de la vapeur d’eau. Patrick Hertzog, AFP

En février 2021, des chutes de neige abondantes se sont produites autour de la centrale nucléaire de Cattenom en Moselle. Le voisinage du site atomique s’est retrouvé recouvert de plusieurs dizaines de centimètres de neige alors que le reste de la région restait sec. L’eau émise par la centrale, nécessaire à son refroidissement, avait condensé et s’était déposée au sol, couvrant la terre d’un manteau blanc.

Cet événement spectaculaire rappelle que les centrales nucléaires équipées d’aéro-réfrigérants injectent de l’eau dans l’atmosphère pour transférer de l’énergie thermique vers l’air extérieur : leurs panaches blancs emblématiques sont formés de gouttelettes d’eau qui s’évaporent rapidement et disparaissent à la vue, mais la vapeur est toujours là (elle est transparente).

Ce que l’on sait peut-être un peu moins, c’est que la vapeur d’eau (H20) est un gaz à effet de serre, c’est-à-dire que sa présence dans l’atmosphère limite la capacité de la Terre à se refroidir en émettant du rayonnement infrarouge vers l’espace. Sa contribution est supérieure à celle du dioxyde de carbone (CO₂) ou du méthane (CH₄), car ces derniers sont présents à l’état de traces : il y a typiquement dix fois plus de vapeur d’eau que de CO2 dans l’atmosphère.

Il est donc naturel de penser que les émissions humaines de vapeur d’eau contribuent à augmenter l’effet de serre et donc à réchauffer le climat. C’est là une mauvaise compréhension du cycle de l’eau. La vapeur d’eau est bien un acteur majeur du réchauffement climatique, d’une façon indirecte appelée « rétroaction », mais pas du fait des émissions des centrales.


À lire aussi : « Gaz à effet de serre »


La concentration de vapeur d’eau est régulée dans l’atmosphère à basse altitude

L’argument de la vapeur d’eau est un argument parfois mis en avant par des climatosceptiques qui souhaitent relativiser l’impact de nos émissions de CO₂, ou par des antinucléaires qui souhaitent montrer que ces centrales électriques contribuent au réchauffement par leurs émissions de vapeur d’eau.

Notons que d’autres activités humaines émettent de la vapeur d’eau dans l’atmosphère : les cultures irriguées et l’aviation par exemple. La principale activité humaine émettrice de vapeur d’eau est de fait l’agriculture irriguée : une part de l’eau déposée sur les cultures s’évapore et part dans l’atmosphère sans être fixée par la plante. La contribution des cultures irriguées au flux de vapeur d’eau vers l’atmosphère est de l’ordre de 1 000 km³ par an, ce qui est près de 100 fois supérieur à l’impact des centrales thermiques (nucléaire, charbon, gaz).

Toutefois, même si le cycle de l’eau (vapeur et nuages) est une composante majeure du climat, on sait que ces émissions humaines depuis la surface de la Terre n’ont pas d’impact significatif.

En effet, la capacité de l’air à dissoudre de l’eau est physiquement limitée : au-delà d’une certaine concentration, la vapeur va se condenser et devenir liquide. La condensation peut se faire dans l’atmosphère, ce qui conduit à la formation des nuages. Elle peut aussi se faire sur les surfaces froides, ce qui explique la formation de rosée au sol, ou de buée sur les fenêtres. Lorsque les conditions atmosphériques sont favorables, les nuages conduisent à des précipitations, ce qui élimine l’eau de l’atmosphère.

Toute quantité additionnelle de vapeur d’eau injectée dans l’atmosphère depuis la surface va donc condenser puis précipiter, conduisant à un impact climatique négligeable puisque la concentration n’est pas modifiée significativement sur le long terme.

Ainsi, contrairement au CO2, la concentration de vapeur d’eau est régulée dans les couches basses de l’atmosphère, ce qui fait que les émissions additionnelles ont peu d’impact sur la concentration, et donc sur l’effet de serre.

Carte de la quantité de vapeur d’eau dans l’atmosphère : elle dépend de la température et donc de la latitude. FM Bréon/NASA, Fourni par l’auteur

Un impact direct à haute altitude

Attention, ceci est vrai pour les émissions « depuis la surface » de la Terre qui restent dans la partie basse de l’atmosphère, appelée troposphère.

Par contre, la vapeur d’eau injectée en altitude, en particulier par le trafic aérien mais aussi par l’oxydation du méthane, se retrouve dans des couches atmosphériques qui sont souvent loin de la « saturation », et cette vapeur d’eau émise en altitude n’est pas éliminée rapidement par la pluie.

[Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

À ces altitudes (haute troposphère et basse stratosphère), les émissions humaines de vapeur d’eau ont donc un impact climatique mesurable. En particulier, la vapeur d’eau apportée par les avions peut conduire, en fonction des conditions de température et de pression, à la formation de nuages élevés (cirrus homogenitus dans la classification internationale des nuages). Ces nuages contribuent à l’effet de serre et renforcent ainsi l’impact de l’aviation sur le climat, en s’ajoutant à l’impact des émissions de CO₂ liées à la combustion du kérosène.


À lire aussi : Le destin de l’Antarctique sur un fil, ou le double rôle des nuages dans le réchauffement climatique


Si les émissions humaines de vapeur d’eau depuis la surface ne contribuent donc pas significativement à l’augmentation de l’effet de serre, la vapeur d’eau dans ces basses couches reste un moteur essentiel du changement climatique, via un mécanisme indirect : la vapeur d’eau n’est pas à l’origine du réchauffement, mais s’il y a réchauffement (par exemple à cause de l’augmentation de la concentration en CO2), elle contribue à l’empirer en empêchant la Terre de se refroidir (en retenant les émissions infrarouges).

La vapeur d’eau, un acteur majeur du réchauffement climatique

Comme dit plus haut, l’air peur contenir une certaine quantité d’eau sous forme vapeur sans qu’il y ait condensation. Cette quantité est très dépendante de la température : un air froid (de type polaire ou à haute altitude) contient très peu d’eau alors qu’un air chaud (comme rencontré dans les basses couches d’une atmosphère tropicale) peut contenir beaucoup d’eau. La relation entre la température et la quantité de vapeur d’eau qui peut être contenue dans l’air est très non linéaire (environ 7 % par degré supplémentaire).

Si la température augmente à cause d’émissions anthropiques de CO2, l’air peut contenir plus de vapeur d’eau. En pratique, c’est bien ce qui se produit et la vapeur d’eau additionnelle dans l’air va alors contribuer à l’effet de serre, renforçant le réchauffement initial.

Ainsi, la vapeur d’eau va contribuer à amplifier l’effet initial (hausse de la température), même si elle n’en est pas à l’origine. C’est ce que l’on appelle une « rétroaction positive ».

La rétroaction de la vapeur d’eau contribue à amplifier le réchauffement provoqué par l’augmentation de dioxyde de carbone. FM Bréon, Fourni par l’auteur

Une « rétroaction » est un processus qui se met en place suite à une perturbation initiale et qui vient la renforcer (rétroaction positive) ou l’atténuer (rétroaction négative).

Dans le cadre du réchauffement climatique, un exemple de rétroaction négative forte est lié à l’émission de rayonnement infrarouge : lorsque la température augmente, l’atmosphère, l’océan et les surfaces émettent plus de rayonnement infrarouge vers l’espace, ce qui permet d’« évacuer » la chaleur depuis la Terre vers l’espace, et induit un refroidissement.

Du côté des « rétroactions positives », on a vu l’exemple de la vapeur d’eau dans l’atmosphère. Cet effet, qui est bien compris et donc inclus dans les modélisations climatiques, multiplie le réchauffement initial par un facteur proche de 3. Il est donc essentiel pour comprendre l’ampleur du réchauffement climatique.

Un autre exemple est celui de la neige et banquise : avec le réchauffement, leurs surfaces tendent à diminuer. Puisque neige et banquise réfléchissent une large part du rayonnement solaire vers l’espace, leur disparition provoque une absorption supplémentaire de l’énergie solaire dans le sol, et donc un réchauffement additionnel.

Les nuages ont eux aussi le potentiel pour être le vecteur d’une rétroaction. Mais leur impact est complexe puisque, dans le même temps, ils réfléchissent une partie du rayonnement solaire vers l’espace (effet refroidissant) et ils contribuent à l’effet de serre (effet réchauffant). Par ailleurs, l’impact du réchauffement climatique sur la couverture et sur l’altitude des nuages n’est pas évident. Les modèles de climat indiquent que, au final, les nuages conduisent à une rétroaction positive, mais son ampleur reste incertaine puisqu’elle diffère suivant les modèles.

Contrairement aux « rétroactions », les « forçages » sont les actions humaines qui conduisent à un changement climatique. Les émissions de vapeur d’eau ne constituent pas un forçage significatif, mais la vapeur d’eau est bien le vecteur d’une rétroaction essentielle pour quantifier l’amplitude du réchauffement climatique.

← Articles Précédents
mars 2023
L M M J V S D
 12345
6789101112
13141516171819
20212223242526
2728293031  
« Fév    

Stats du Site

  • 102 895 hits

Liens

  • Associations-patrimoines
  • La Fédération d'environnement Durable
  • Moelle Osseuse
  • Visite de Mirmande
mars 2023
L M M J V S D
 12345
6789101112
13141516171819
20212223242526
2728293031  
« Fév    

Commentaires récents

Bernard Tritz dans L’ONU peut-elle contribuer à m…
Bernard Tritz dans Inégalités en maternelle : que…
Bernard Tritz dans Vercingétorix contre César : l…
Bernard Tritz dans La défense de Taïwan à l’épreu…
Belinda Cruz dans Donald Trump positif à la Covi…

Propulsé par WordPress.com.

  • Suivre Abonné∙e
    • Mirmande PatrimoineS Blogue
    • Rejoignez 176 autres abonnés
    • Vous disposez déjà dʼun compte WordPress ? Connectez-vous maintenant.
    • Mirmande PatrimoineS Blogue
    • Personnaliser
    • Suivre Abonné∙e
    • S’inscrire
    • Connexion
    • Signaler ce contenu
    • Voir le site dans le Lecteur
    • Gérer les abonnements
    • Réduire cette barre