Législatives 2022 : un regain d’intérêt pour le Parlement ?

auteur

  1. Julien RobinDoctorant en science politique, Université de Montréal

Déclaration d’intérêts

Julien Robin a reçu des financements du département de science politique de l’Université de Montréal. Il est membre du centre de recherche Jean Monnet de Montréal.

Partenaires

Université de Montréal apporte des fonds en tant que membre fondateur de The Conversation CA-FR.

Université de Montréal apporte un financement en tant que membre adhérent de The Conversation CA.

AUF (Agence Universitaire de la Francophonie) apporte un financement en tant que membre adhérent de The Conversation FR.

Voir les partenaires de The Conversation France

CC BY NDNous croyons à la libre circulation de l’information
Reproduisez nos articles gratuitement, sur papier ou en ligne, en utilisant notre licence Creative Commons.

Republier cet article

Cette vue générale montre des membres du parlement (députés) lors d'une séance de questions au gouvernement à l'Assemblée nationale à Paris, le 20 février 2019.
Les élections législatives ont lieu les 12 et 19 juin 2022 afin d’élire les 577 députés qui siégeront à l’Assemblée nationale. Philippe Lopez / AFP

La formation d’une alliance historique de la gauche française et son objectif d’obtenir une majorité à l’Assemblée nationale redonnent un caractère central aux élections législatives.

Cependant, peut-on véritablement parler d’un regain d’intérêt pour le Parlement en France ?

L’érosion régulière de la mobilisation électorale depuis le début de la Vᵉ République, passant d’environ 80 % dans les années 1970 à presque 40 %, souligne le peu d’intérêt pour cette institution.

Une mobilisation politique et médiatique

D’un point de vue politique et médiatique, l’élection présidentielle une fois terminée, c’est vers les élections législatives que se porte toute l’attention. Dès le soir du second tour de l’élection présidentielle, les perdants de cette course ont appelé à se tourner vers ce qu’ils appellent le « troisième tour ».

Aidez-nous à mettre l’intelligence au cœur du débat.

Faire un don

La campagne des législatives ouvre une nouvelle séquence politique. A gauche, l’enjeu est de créer une véritable union pour une majorité parlementaire.

Les tractations entre la France insoumise, le PCF, EELV et le PS rythment quotidiennement l’actualité entre les accords programmatiques et les fractures idéologiques.

Pour La République en Marche (renommée « Renaissance »), l’enjeu est de transformer l’essai de la présidentielle en remportant une majorité à l’Assemblée nationale. Alors que les premières projections donnent une course serrée entre la macronie et la gauche unieEmmanuel Macron s’investit même personnellement dans chaque investiture des législatives de juin prochain. Pour le parti présidentiel et ses alliés aussi, la logique de l’union a pris le pas, non sans difficultés sur la répartition des candidatures, en formant la bannière « Ensemble » pour la majorité présidentielle.

Un regain d’intérêt pour les élections législatives ?

Sans nul doute, une fois élu, un président de la République a besoin d’une majorité au Parlement, a minima à l’Assemblée nationale, pour transformer son programme électoral en action législative.

Même si la Constitution de 1958 dispose que le gouvernement « détermine et conduit la politique de la Nation » (art. 20 C) et que le « Premier ministre dirige l’action du Gouvernement » (art. 21 C), n’oublions pas que lorsque « le gouvernement est subordonné au président de la République, il lui cède, volontiers ou non, son pouvoir de déterminer la politique de la Nation » comme le rappelait le constitutionnaliste Guy Carcassonne. En résumé, hors cas de cohabitation, le chef du gouvernement n’est que le « chef d’orchestre » jouant la partition rédigée par le président de la République.


À lire aussi : Les élections législatives servent-elles vraiment à quelque chose ?


Mais les électeurs s’investissent-ils dans le scrutin des législatives ? Si l’on en croit les chiffres de l’abstention, pas tellement. Depuis 1993, le taux d’abstention ne fait que s’accroître entre chaque élection législative et dépasse même les 50 % en 2017.

Un Parlement marginalisé dans la structure institutionnelle

Une analyse des institutions de la Ve République peut expliquer ce désintérêt du Parlement. Il n’aura échappé à personne que la Ve République se structure par un parlementarisme rationalisé, c’est-à-dire l’ensemble des dispositions définies par la Constitution de 1958 ayant pour but d’encadrer les pouvoirs du Parlement afin d’accroître les capacités d’action du gouvernement.

Concrètement, une définition restrictive du domaine de la loi (c’est-à-dire que le constituant a listé précisément les domaines dans lequel le Parlement peut légiférer, le reste relevant directement du pouvoir réglementaire du gouvernement, art. 34 C et 37 C) ; le vote bloqué (le gouvernement soumet à un vote unique tous les amendements qu’il a sélectionnés, art. 44.3 C) ; adoption d’une loi sans passer devant le Parlement, sous couvert de l’engagement de responsabilité gouvernementale, sauf en cas de motion de censure (le célèbre article 49 alinéa 3 de la Constitution).

Image montrant la Constitution française avec le sceau de la République Française
Le rôle du Parlement est défini par la Constitution. Wikicommons, CC BY

En 1958, un nouvel acteur encadre aussi le travail parlementaire, le Conseil constitutionnel, chargé notamment du contrôle de constitutionnalité des lois (art. 61 al. 2 C) est qualifié de « canon braqué vers le Parlement » selon l’expression du professeur Charles Eisenmann.

L’autonomie parlementaire est également touchée par le contrôle des règlements de l’Assemblée nationale et du Sénat (art. 61 al 1 C). Dès lors, les assemblées sont passées du statut de « souverain assuré de l’immunité de juridiction à celle de justiciables » en jugeait le politiste Léo Hamon en 1959.

En définitive, le Parlement français a connu un abaissement de son rôle à partir de 1958. La logique présidentielle s’est également renforcée avec l’élection au suffrage direct du président de la République lui octroyant une forte légitimité ; mais aussi par l’inversion du calendrier électoral en 2000, où l’élection présidentielle précède les élections législatives, maximisant au président élu ses chances d’obtenir une majorité parlementaire.

Le Parlement, un « angle mort » de la science politique française

Les études parlementaires sont un champ réunissant principalement trois disciplines centrales (l’histoire, le droit et la science politique). Parmi ces disciplines, la science politique s’est longtemps détournée de l’étude des assemblées parlementaires et de leurs élus comme le soulignaient Olivier Rozenberg et Eric Kerrouche. Les deux politistes français constatent « le réel désinvestissement de la science politique française vis-à-vis de cet objet » à partir des années 1980.

Olivier Nay, spécialiste de la sociologie des institutions, donnait plusieurs raisons à ce délaissement du champ de recherche : les assemblées législatives françaises ont fait face à la transformation des échanges dans l’espace public entre la décentralisation (création d’assemblées locales), la construction européenne (création d’un parlement supranational) et le tournant néolibéral multipliant les acteurs de délibération et de décision.

Dès lors, l’éloignement de la science politique française a laissé l’étude de ce champ au droit (constitutionnel). Bien que la discipline étudie les relations entre les différents pouvoirs et institutions, elle n’a pas repris le fer de lance des études parlementaires françaises et s’est bornée à décrire les pouvoirs du Parlement.

Vue panoramique de l’hémicycle où se réunissent les députés. Assemblée nationale

Il y a une autre explication propre à la discipline de la science politique française. Son tournant sociologique des années 1970-1980 a installé « une plus grande méfiance à l’égard des explications traditionnelles, juridiques ou philosophiques, qui portent une attention soutenue aux institutions formelles et aux projets normatifs qui les légitimes » explique O. Nay. Epistémologiquement, cette tradition française accorde une place importante aux travaux empiriques et s’intéresse aux acteurs. Méthodologiquement, les chercheurs privilégient les approches qualitatives avec des entretiens semi-directif, à la description biographique des acteurs et aux observations de terrain.

Cette tradition française diverge des legislatives studies anglo-saxonnes (congressional studies aux États-Unis) s’inspirant d’analyses néo-institutionnalistes ou de la théorie du choix rationnel ; et ayant recourt aux méthodes d’enquêtes davantage quantitatives. Cela n’a pas pour autant empêché d’avoir quelques ouvrages aux approches comportementales dans les années 1980 ou rationnelles dans les années 1990 sur le Parlement français.

Retrouver le parlement

La science politique française renoue son intérêt pour les études parlementaires depuis les années 1990 en diversifiant les niveaux d’analyses : comportement électoral des députéssociologie des élusgenreconception de la représentationefficacité des législatures.

Finalement, le Parlement demeure central dans notre société politique. D’un côté, le Parlement constitue un instrument de contrôle du pouvoir exécutif et de tribune pour les opposants. Le dernier quinquennat d’Emmanuel Macron le montre bien : l’affaire Benalla a été la raison du blocage de la réforme constitutionnelle à l’été 2018 et le Sénat s’est montré actif avec ses commissions d’enquête (affaire Benalla et affaire McKinsey). De l’autre, il reste un objet d’analyse produisant des masses de données exploitables pour les chercheurs. Il est alors fort probable que les études parlementaires augmenteront dans les années à venir dans la science politique française.

Côté électeurs, la perspective d’un « troisième tour » de l’élection présidentielle articulée à la tripartition de la vie politique française et à l’union de la gauche suscitera peut-être un regain d’intérêt pour le Parlement. Réponse les 12 et 19 juin prochain.


L’auteur effectue sa thèse sous la direction de Jean-François Godbout.

Heinrich Schliemann : la naissance d’un archéologue dans la France du Second Empire

auteur

  1. Annick LouisProfesseur de littérature, Université de Franche-Comté – UBFC

Déclaration d’intérêts

Annick Louis ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

P Franche-Comté (UBFC) fournissent des financements en tant que membres adhérents de The Conversation FR.

Voir les partenaires de The Conversation France

CC BY NDNous croyons à la libre circulation de l’information
Reproduisez nos articles gratuitement, sur papier ou en ligne, en utilisant notre licence Creative Commons.

Republier cet article

Une image extraite de l’ouvrage « Ilios, ville et pays des Troyens » d’Heinrich Schliemann. BnF, Fourni par l’auteur

 

Il y a 200 ans naissait en Poméranie-Occidentale, un des Länder allemands situé sur la mer baltique Heinrich Schliemann, destiné à devenir un des plus célèbres archéologues de tous les temps : en 1873, il découvre en faisant des fouilles à Hissarlik ce qu’il pense être les restes de l’ancienne ville de Troie et le trésor de Priam, souhaitant prouver ainsi l’existence historique de la ville homérique. En 1875, à Mycènes, il met à jour les tombes des rois, contenant le célèbre masque dit d’Agamemnon.

La vie de Schliemann est entourée de légendes. La plus persistante vient de ses autobiographies, et évoque l’origine de sa passion pour le monde d’Homère : enfant, son père lui aurait raconté les récits de l’Iliade, ce qui l’aurait fait rêver de découvrir l’ancienne ville de Troie. Son parcours, néanmoins, comprend un épisode peu étudié jusqu’ici, sa formation savante à Paris pendant les années 1866 à 1870, que ses archives, situées à la American School of Classical Studies at Athens, permettent de reconstituer. Mais avant de revenir sur ce moment qui marqua un tournant, il faut rappeler la vie de Schliemann qui, si elle ne correspond pas à ce qu’il prétend dans ses autobiographies, reste néanmoins accidentée et aventureuse.

Un portrait de Schliemann, dans l’une de ses autobiographies. BnF, Fourni par l’auteur

Fils d’un pasteur protestant qui, en raison de ses mauvaises mœurs, n’eut pas les moyens de lui donner une éducation, l’enfant Schliemann est contraint d’arrêter ses études, et devient apprenti chez un épicier à Fürstenberg, puis, il suit à Rostock un cours de comptabilité, avant de se rendre à Hambourg pour s’embarque pour l’Amérique latine, sur un bateau qui fait naufrage ; il finit par trouver un emploi de clerc à Amsterdam, dans la firme Schröder, empire familial possédant des bureaux dans plusieurs grandes capitales.

Parce que la maison faisait du commerce avec la Russie, Schliemann apprend le russe, ouvre une branche à Saint-Pétersbourg en 1846, s’y installe, fonde sa propre entreprise en 1847, et devient citoyen russe, tout en gardant d’excellentes relations avec la firme Schröder, ce qui sera également déterminant dans la deuxième étape de sa vie, consacrée aux productions savantes, car ce seront les pourvoyeurs du matériel nécessaire à ses fouilles archéologiques.

Vos dons placent la science au centre de l’actualité.

Faire un don

Après un séjour en Californie où il tient une banque pendant la ruée vers l’or, il rentre en Russie, épouse Jekaterina Petrowna Lyshina, la fille d’un marchand russe, avec qui il aura trois enfants ; il divorcera d’elle et deviendra citoyen américain en 1869, ce qui lui permet d’épouser une jeune femme grecque, Sophia, qui deviendra, selon lui, sa compagne de fouilles, célèbre en raison du portrait où on la montre parée des bijoux de Troie, qu’elle aurait sorti en contrebande de la Turquie. La fortune de Schliemann, acquise dans le commerce d’abord, puis en Californie, se multiplie pendant la guerre de Crimée, grâce au commerce de l’indigo, qui servait à la teinture des uniformes.

Un savant autodidacte

Le tournant que nous avons évoqué se produit en 1866, quand Schliemann décide de quitter le commerce et la Russie, et d’investir dans l’immobilier parisien. Après un voyage qui l’amène en Orient, et qui fera l’objet de son premier ouvrage, publié à Paris, La Chine et le Japon au temps présent (1867), il cherche à acquérir des immeubles dans la ville, qui vient d’être rénovée et modernisée par le Baron Haussmann et Napoléon III. Tout en profitant des musées et théâtres, dès son deuxième jour dans la capitale, il commence à assister à des cours au Collège de France et la Sorbonne, comme de nombreux riches bourgeois et commerçants de l’époque, français et étranger. Car la « capitale du XIXe siècle » ne l’est pas uniquement en raison de la vie de luxe et des espaces culturels et de socialisation qu’elle propose, mais aussi en raison de son offre de formation savante gratuite et ouverte à tout public.

Schliemann assiste pendant ces années à des cours de langues, orientales et classiques, de français, de littératures européennes, de grammaire, de philosophie grecque et d’histoire littéraire. Si on ignore les circonstances qui ont amené à ces premiers choix, ceux-ci vont évoluer progressivement, alors que ses intérêts le mènent également à intégrer des sociétés savantes, comme la Société de Géographie de Paris, dont il devient membre assidu en 1867, puis il fréquente l’Académie des Belles-Lettres, la Société d’Ethnographie orientale et américaine, la Société d’archéologiel’Association pour l’encouragement des études grecques. Dès le début de l’année 1868, on remarque une intensification de ses activités liées aux savoirs dans les Humanités, et même vers l’archéologie, mais qu’il perçoit lui-même comme relevant de la géographie et de la philosophie ; adressant des conseils sur ses études à son fils Serge, resté en Russie avec sa première épouse, dans une lettre du 20 mars 1868, il affirme que la géographie, qui le mènera vers l’archéologie, est à présent sa « science la plus favorite après la philosophie. »

La transformation de commerçant en homme de science fut possible grâce à la topographie particulière de l’enseignement supérieur français du XIXe siècle. Marquée par l’ouverture vers un public mélangé, composé par une minorité d’étudiants en quête de formation et de diplôme et d’une majorité d’auditeurs libres, pour qui l’assistance aux cours est avant tout un loisir, les facultés et autres institutions, à Paris du moins, étaient à l’époque des espaces publics.

Traditionnel sous le Second Empire, ce type de cours reposait sur la « performance rhétorique » du professeur, et était donc surtout destiné à distraire et à éduquer un public mondain d’auditeurs variés. Brillants, mais aussi mondains et superficiels, destinés à un public large, ces cours ont un public de tout âge, qui peut changer à chaque séance et n’est pas soumis aux contraintes de validation d’un cursus académique.

Les institutions d’enseignement supérieur constituent ainsi un milieu accueillant pour un homme de plus de quarante ans, riche et dépourvu de diplômes et de formation préalable, qui ne peut aspirer à une certification, puisqu’il n’avait pas achevé de cursus secondaire. Et s’il souhaite acquérir un savoir, c’est parce que s’éveille en lui, dans ces salles de cours et conférences, une passion, qui devient, selon lui, « fanatisme ». Ainsi serait né le désir de Schliemann de consacrer sa vie à la science en devenant lui-même producteur de savoir.

La tombe de Schliemann, à Athènes. Annick Louis, Fourni par l’auteur

Si la défaite de 1870, et l’avènement de la IIIe République après la chute de Napoléon III mettront en question l’efficacité de l’enseignement supérieur français, et mèneront à sa professionnalisation, le cas de Schliemann illustre les possibilités qu’ouvrait ce système : pendant sa période parisienne, il publie son premier ouvrage savant, Ithaque, le Péloponnèse et Troie. Recherches archéologiques (1869), intègre le milieu académique parisien, et décide de mener sa première campagne de fouilles à Troie, entre 1870 et 1873, au terme de laquelle il met à jour le « Trésor de Troie » ou « Trésor de Priam ».

On comprend rapidement que les objets mis à jour par ses fouilles ne peuvent en aucun cas correspondre à des événements susceptibles d’avoir inspiré Homère, qui se seraient déroulés ses découvertes autour de 1180 av. J.-C., alors que la composition de l’Iliade daterait de 730 ou 710 av. J.-C. Néanmoins, les fouilles de Schliemann permirent de découvrir les cultures inconnues, datant de 2550-2300 av. J.-C., et firent rêver le monde d’un passé dont on ignorait jusqu’à l’existence.

Le fossé des générations, un défi pour la transmission éducative

Auteur

  1. Philippe ForayProfesseur d’Université en Sciences de l’éducation, Université Jean Monnet, Saint-Étienne

Déclaration d’intérêts

Philippe Foray ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

Partenaires

Voir les partenaires de The Conversation France

CC BY NDNous croyons à la libre circulation de l’information
Reproduisez nos articles gratuitement, sur papier ou en ligne, en utilisant notre licence Creative Commons.

Republier cet article

Pour aider les enfants à grandir, l’éducation doit-elle se contenter de leur apprendre le monde tel qu’il est ? Shutterstock

 

C’est dans les années 1970 que l’existence d’un fossé des générations, au sens d’une coupure générationnelle entre les « jeunes » d’un côté et les adultes de l’autre, apparaît dans un certain nombre de travaux scientifiques.

Constatant l’émergence d’une nouvelle classe d’âge depuis la fin de la seconde guerre mondiale, caractérisée par des pratiques sociales inédites, vestimentaires et artistiques – musicales en particulier – ainsi que par l’usage de médias spécifiques (en France, la revue Salut les copains date des années 1960), ces auteurs ont analysé ce phénomène en tant que fait social et culturel.


À lire aussi : Génération : un concept à utiliser avec modération ?


Ce n’est sans doute pas un hasard s’ils étaient souvent soit ethnologues, comme Margaret Mead, soit bien au fait de ce domaine de recherches comme le psychologue américain Jérôme Bruner : le fossé des générations leur est apparu comme un phénomène typique des sociétés occidentales contemporaines, par opposition aux « sociétés traditionnelles », auxquelles ils avaient consacré leurs travaux (on peut citer par exemple l’ouvrage de Margaret Mead Mœurs et sexualité en Océanie).

Une nouvelle conception du temps

Dans ces sociétés traditionnelles, le fossé des générations est inexistant, en raison d’une part d’un mode de vie qui donne aux adultes et aux jeunes un grand nombre d’occasions d’être ensemble, d’autre part d’une représentation sociale du temps qui conçoit l’avenir sur le modèle du passé. Le changement y est vécu négativement, de sorte que ce qui compte, c’est de maintenir l’ordre des choses. L’éducation y est mise en œuvre comme une transmission du passé.

Les adultes, écrit par exemple Margaret Mead dans son essai Le fossé des générations, ne peuvent se figurer l’éducation autrement que comme le fait de « transmettre à leurs descendants le sens d’une continuité immuable ». À tort ou à raison, ils ont des certitudes sur ce qui doit être transmis aux enfants.

Margaret Mead. Barnard College, Public domain, via Wikimedia

Cette situation disparaît au contraire dans les sociétés occidentales contemporaines, en particulier sous l’effet de la scolarisation croissante de l’éducation qui fait que les jeunes sont éduqués à l’écart de la vie sociale et des lieux de travail. A cela, on ajoutera une nouvelle conception du temps que l’on peut résumer par l’idée de l’imprévisibilité de l’avenir. Nous en avons sous les yeux des illustrations claires. Très peu nombreux étaient par exemple ceux qui pouvaient prévoir, dans les années 70-80, la révolution de l’informatique et des moyens de communication qui a bouleversé quelques années plus tard le monde du travail et l’ensemble de nos modes de vie.

Il ne faut certes pas être trop général. Le fossé des générations n’existe pas à tout âge ; il est différencié selon les groupes sociaux ainsi que selon les activités – y a-t-il un fossé des générations dans les pratiques sportives ?

La crise économique actuelle et en particulier les aléas de l’insertion professionnelle des jeunes produisent des effets contrastés : d’un côté, elles les conduisent à rester plus longtemps dans le foyer familial et elles renforcent la solidarité notamment financière des générations. D’un autre côté, elles renvoient aux jeunes l’image d’un monde peu excitant et suscitent le désir de différer le plus possible le moment d’y entrer. Cela renforce le repli sur soi de la jeunesse, l’allongement de la durée des études, et par voie de conséquence, de cet âge de la vie.


À lire aussi : « Une jeunesse, des jeunesses » : peut-on vraiment parler de « Génération Covid » ?


C’est dans ce contexte que la question du fossé des générations se pose : quand les adultes ne savent plus dire de quoi demain sera fait et quand ils ont du mal à assumer un monde dont ils ont de bonnes raisons de ne pas être fiers, il devient difficile de savoir ce que l’éducation doit transmettre aux nouvelles générations.

La réponse d’Hannah Arendt

En 1958, dans un article intitulé « La crise de l’éducation », la philosophe allemande, émigrée aux États-Unis, Hannah Arendt apporte une réponse à cette question. D’une part, les éducateurs doivent se présenter comme « représentants du monde » devant les nouvelles générations, quelles que soient les opinions qu’ils ont par ailleurs sur l’état du monde. D’autre part, l’éducation n’a pas pour but d’imposer une vision de l’avenir aux enfants.

Arendt prend acte de l’imprévisibilité de l’avenir : chaque génération lègue à la suivante, un monde que nul ne pouvait prévoir à l’avance. Mais, et c’est là une thèse centrale de sa pensée, « la natalité est le miracle qui sauve le monde ». Les nouveaux venus portent en eux une créativité qui les rend capables de répondre au défi de l’avenir.

L’apparition dans le monde d’êtres qui lui sont étrangers est envisagée par Hannah Arendt comme la source de notre capacité d’invention et d’innovation – capacité que les éducateurs doivent veiller à ne pas briser, ce que nous ferions si nous prétendions éduquer au nom d’une conception de l’avenir.Citéphilo 2020 – Hannah Arendt, crise de l’autorité, crise de la transmission.

L’éducation doit se contenter d’être un apprentissage du monde tel qu’il est, apprentissage qui passe par une transmission intergénérationnelle. À l’opposé des expériences de « self-government » qui sont à la mode aux États-Unis dans les années 1950, cette transmission implique un effort des adultes, pour maintenir les liens, effort qui doit se traduire dans les attitudes individuelles et dans les décisions politiques. La nécessité de la transmission éducative doit être inscrite au cœur des politiques éducatives.

La réponse de Jérôme Bruner

J’emprunterai une seconde réponse, sensiblement différente, au psychologue américain Jérôme Bruner. Bruner se situe dans la tradition pédagogique de l’éducation nouvelle et du pragmatisme, représentée principalement aux États-Unis par la figure monumentale de John Dewey, et caractérisée par la volonté d’ouvrir l’école sur le monde et de susciter l’initiative des élèves sur des projets ou des actions élaborées de façon collective.

Sur cette base, Bruner soutient que les élèves peuvent dès la scolarité être préparés à affronter l’imprévisibilité de l’avenir, en travaillant sur les « questions socialement vives », autrement dit les problèmes auxquels les sociétés contemporaines sont confrontées, par exemple, les catastrophes naturelles ou humaines et les façons de leur faire face.


À lire aussi : Penser l’après : Pour une école de l’essentiel


À l’opposé des idées d’Arendt, l’école souhaitée par Bruner accompagne les enfants dans le développement de leur capacité à poser et à affronter les problèmes, en leur proposant des méthodes de travail, des outils pour les traiter, des situations pratiques pour les mettre en œuvre. La transmission éducative ne disparaît pas pour autant ; elle se veut articulée avec l’activité d’apprentissage et de recherche des élèves.

Sur le fossé des générations, Bruner a formulé en 1973, une hypothèse originale, l’hypothèse de la « génération intermédiaire ». Il entend par là le rôle éducatif que les jeunes adultes, c’est-à-dire les plus âgés des jeunes, peuvent jouer auprès de leurs cadets. La génération intermédiaire est déjà dans le monde du travail, tout en ayant encore un pied dans le monde de l’adolescence.

Certaines de ses figures les plus populaires – animateurs radio, vedettes de la chanson, aujourd’hui influenceurs, etc.), sont pour les jeunes à la fois des modèles désirables tout en appartenant déjà au monde des adultes ; à la fois du côté du désir et de la raison. Ils répondent au manque d’attractivité du monde adulte, en montrant par leur exemple même l’image – réaliste ou illusoire – d’une vie désirable.

https://platform.twitter.com/embed/Tweet.html?dnt=false&embedId=twitter-widget-0&features=eyJ0ZndfZXhwZXJpbWVudHNfY29va2llX2V4cGlyYXRpb24iOnsiYnVja2V0IjoxMjA5NjAwLCJ2ZXJzaW9uIjpudWxsfSwidGZ3X3NlbnNpdGl2ZV9tZWRpYV9pbnRlcnN0aXRpYWxfMTM5NjMiOnsiYnVja2V0IjoiaW50ZXJzdGl0aWFsIiwidmVyc2lvbiI6bnVsbH19&frame=false&hideCard=false&hideThread=false&id=1442517273781014530&lang=en&origin=https%3A%2F%2Ftheconversation.com%2Fle-fosse-des-generations-un-defi-pour-la-transmission-educative-174298&sessionId=cac121b9082e891830f1c0d9a16694444f0f17f5&siteScreenName=FR_Conversation&theme=light&widgetsVersion=c8fe9736dd6fb%3A1649830956492&width=550px

Concluons que dans les deux cas, la confiance des adultes envers la jeunesse est au centre de la pratique éducative. Mais les conséquences de cette confiance diffèrent. Pour Arendt, la confiance signifie que la jeunesse doit être armée de connaissances et de capacités intellectuelles pour, une fois devenue adulte, être capable de faire face aux problèmes du monde d’une manière que personne ne peut prévoir aujourd’hui. Pour Bruner, la confiance implique que la jeunesse soit associée – dès l’éducation – à la discussion sur ces problèmes et qu’elle se forme ainsi sur un mode collaboratif.

Dans les deux cas cependant, peut-être est-ce finalement parce que l’avenir est imprévisible que le fossé des générations est nécessaire : il est cette étape qui permet aux jeunes de prendre de la distance vis-à-vis des adultes et de se mettre en position d’affronter plus tard les problèmes du monde, avec les moyens qu’ils sauront inventer eux-mêmes.


Ce texte prolonge l’intervention de Philippe Foray dans une session consacrée à la jeunesse comme ressource pour les transitions proposée en octobre 2021 à l’Institut des hautes études pour la science et la technologie (IHEST).

Inflation, croissance nulle et plein-emploi : bienvenue dans la stagflation 2.0

Auteurs

  1. Radu VranceanuProfesseur d’économie, ESSEC
  2. Marc GuyotProfesseur d’économie, ESSEC

Déclaration d’intérêts

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

Partenaires

ESSEC et CY Cergy Paris Université fournissent des financements en tant que membres adhérents de The Conversation FR.

Les chiffres de la croissance dans la zone euro et aux États-Unis pour le premier trimestre de 2022 apparaissent comme une mauvaise surprise. Outre-Atlantique, le PIB chute de près de 0,4 % par rapport au quatrième trimestre 2021. La zone euro enregistre de son côté une hausse misérable de 0,2 %, avec une croissance nulle en France, et négative en Italie et en Suède. De son côté, l’inflation atteint près de 8,5 % en rythme annuel aux États-Unis en avril et à 7,5 % dans la zone euro, bien au-delà de la cible de 2 % des banques centrales.

La presse économique présente cette double évolution défavorable de la croissance et de l’inflation, comme une situation de « stagflation », contraction des mots stagnation et inflation. Il faut néanmoins être prudent avec l’utilisation de ce terme stagflation et éviter un raccourci trop rapide.

Dans les années 1960, les économistes avaient généralement accepté que le taux d’inflation et le taux de chômage étaient inversement corrélés. Ainsi une forte inflation était en général associée à un taux de chômage très faible, proche de ce qu’on appelle le taux « naturel » de chômage. Cette régularité empirique est connue sous le nom de « courbe de Phillips », nommée selon l’auteur de l’étude empirique de référence. Si dans les 20 dernières années la relation est devenue de plus en plus contestée, les banquiers centraux et les économistes professionnels s’appuient toujours sur elle pour leurs prévisions d’inflation.

L’ancienne « stagflation »

En 1973, puis en 1978-1979, le prix du pétrole a connu deux hausses spectaculaires, passant de 2,90 à 34 dollars le baril, épisodes connus sous le nom de chocs pétroliers. À cette époque, la présence simultanée d’un chômage très élevé et d’une inflation forte avait justifié l’utilisation du concept de « stagflation », pour souligner l’anomalie que ce phénomène représentait en termes d’arbitrage inflation/chômage.

L’explication principale reposait sur l’effet négatif du choc des prix à la production, transmis aux prix à la consommation, générant une perte de pouvoir d’achat et une contraction de la demande pour les autres biens. Les tentatives des gouvernements de répondre au moyen de politiques de relance par la demande, combinées avec des restrictions sur les prix ont toutes échoué.

Finalement, il est apparu que la lutte contre ce type d’inflation « poussée par les coûts » nécessitait au contraire une très forte contraction de la demande globale. Petit à petit, le déséquilibre sur le marché des biens a été résorbé, l’inflation a été maîtrisée puis la croissance est revenue.

Situation actuelle différente

La situation présente n’est semblable à cette stagflation passée que dans une certaine mesure.

Si la hausse des prix est bien de retour et touche un grand nombre de pays, il ne faut pas perdre de vue que les États-Unis sont aujourd’hui quasiment au plein-emploi avec un taux de chômage en avril de 3,6 %. Dans la zone euro, le taux de chômage reste plus élevé mais diminue rapidement, y compris dans les pays du sud de l’Europe.

La figure ci-dessous présente les taux d’inflation et de chômage fin mars 2022 dans les pays de l’OCDE (sauf la Turquie où l’inflation est à 70 %). L’inflation dépasse les 2 % un peu partout, tandis que le taux de chômage ne dépasse les 8 % que dans trois pays.

Par ailleurs, les États-Unis et les pays de la zone euro connaissent des pénuries de main-d’œuvre dans de nombreux secteurs d’activité, tandis que beaucoup d’actifs hésitent à reprendre le travail après le stress de la pandémie. La hausse des salaires américains s’est ainsi accélérée ces derniers mois, atteignant désormais plus de 6 %.

Le plein-emploi semble ainsi de retour dans de nombreux pays. En Allemagne, le puissant syndicat IG Metall se mobilise pour demander 8,2 % de revalorisation salariale. Pour l’instant, les salaires n’augmentent pas très rapidement dans les pays du sud de l’Europe, mais cela ne devrait pas tarder si le chômage s’approche des 6 % dans des pays comme la France, l’Italie ou l’Espagne. Même au Japon, des hausses de salaire commencent à être envisagées.

Faible chômage, pénuries de main-d’œuvre, hausse des salaires et forte inflation constituent les marques d’une inflation tirée par la demande, pas d’une inflation poussée par les coûts comme dans les années 1970. De ce point de vue, il serait abusif de parler de « stagflation ». La demande globale excédentaire vient en effet essentiellement des dépenses publiques exceptionnellement massives et de la politique monétaire fortement accommodante de 2020 et 2021, en réponse à la crise du Covid-19. Bien évidemment, la hausse des prix de l’énergie, provoquée par la guerre en Ukraine, augmente encore plus l’inflation, surtout dans la zone euro, mais n’en est pas la cause principale.

Croissance en berne, mais plein-emploi

Pourquoi la dynamique de croissance s’est-elle arrêtée au premier trimestre ? Lorsque le plein-emploi est atteint, la croissance ne dépend plus que des gains d’efficacité productive et du progrès technique. À court terme, on ne peut pas attendre de gains significatifs de productivité. Au contraire, la résurgence du Covid-19 en Chine, couplée à la politique du « zéro Covid », du gouvernement chinois a provoqué de nouvelles ruptures d’approvisionnement, tout comme la guerre en Ukraine. Ces deux situations ne peuvent que diminuer la production potentielle.

Côté demande, la consommation peut aussi se contracter. L’inflation commence à éroder le pouvoir d’achat, et, encore plus grave, entame également le moral des ménages. Une bonne partie de la population, soit tous ceux qui sont nés après 1986, n’ont jamais connu l’inflation et ont du mal à la comprendre.

Comment expliquer les créations d’emploi lorsque la croissance est à zéro, voire est négative comme aux États-Unis ? Les gouvernements revendiquent l’atteinte du plein-emploi comme le résultat positif de leurs politiques de relance budgétaire. Celles-ci peuvent en être créditées mais pas dans le sens qu’ils l’entendent. La relance a en effet entraîné une inflation de toute évidence non-anticipée, qui va progressivement diminuer le pouvoir d’achat, donc réduire la demande avec un effet négatif sur l’emploi.

En revanche, la relance a également provoqué la baisse du salaire réel, avec un effet positif sur l’emploi. C’est probablement la revanche de Milton Friedman qui proposait cette explication de la courbe de Phillips dans son discours du prix Nobel en 1976. L’effet positif ne peut être que transitoire, car les surprises, par définition, ont la vie courte. À moyen terme, l’effet négatif devrait ainsi finir par l’emporter.

Inflation non maîtrisée

Partout dans le monde, les dirigeants ont enfin pris la mesure du danger que représente une inflation non maîtrisée. Leur méthode principale pour lutter contre l’inflation est la hausse annoncée des taux d’intérêt de court terme, et l’arrêt des programmes d’achat d’obligations et autres actifs financiers.

Un petit nombre d’économistes recommandent un accompagnement du resserrement monétaire par des restrictions budgétaires. Quelle que soit la méthode utilisée, à très court terme il ne sera malheureusement pas possible d’éviter une contraction de l’activité et un accroissement du chômage au-dessus de son niveau naturel.

L’ampleur de cette contraction va dépendre de la dégradation des anticipations d’inflation, de l’ampleur du déséquilibre offre/demande, et de l’instabilité financière que la hausse des taux d’intérêt devrait engendrer. C’est le sens des remarques récentes de l’économiste français Olivier Blanchard, ou encore des Américains Alex Domash et Laurence Summers dans The Conversation, qui manifestent tous leur pessimisme sur la capacité de la Réserve fédérale américaine à orchestrer un « atterrissage en douceur ».


À lire aussi : États-Unis : l’histoire montre que la hausse des taux de la Fed ne suffira pas à éviter une récession


Il n’est pas exclu que la zone euro connaisse également des difficultés de même type, amplifiées par la fragmentation financière de l’union monétaire. Il nous semble plus approprié de considérer que si nous faisons bien face à une forme de stagflation, il ne s’agit pas d’une stagflation naturelle causée par à un fort choc d’offre mais d’une stagflation délibérément provoquée par les autorités monétaires.

Ce que les disputes religieuses du XVIᵉ siècle nous disent des débats actuels

Auteur

  1. Fabrice FlückigerChercheur postdoc en histoire moderne, Université de Berne, Université Lumière Lyon 2

Déclaration d’intérêts

Fabrice Flückiger a reçu un financement sur trois ans du Fonds national suisse (FNS) pour mener ses recherches à l’Université de Berne. Il est membre associé du Laboratoire de recherche historique Rhône-Alpes (LARHRA) et du Münchner Forschungszentrum Fundamente der Moderne (ZFM). Il ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article.

Université Lumière Lyon 2 apporte un financement en tant que membre adhérent de The Conversation FR.

Voir les partenaires de The Conversation France

CC BY NDNous croyons à la libre circulation de l’information
Reproduisez nos articles gratuitement, sur papier ou en ligne, en utilisant notre licence Creative Commons.

Republier cet article

La dispute de Berne, janvier 1528
La dispute de Berne, janvier 1528. ZB Zurich / e-manuscripta

Devant certains débats télévisés qui font intervenir hommes et femmes politiques au milieu d’artistes, de vedettes de la téléréalité et de chroniqueurs, il est souvent difficile de ne pas penser que ces émissions visent moins la confrontation critique des opinions que le clash et moins la mise en valeur des invités que leur décrédibilisation insidieuse.

On y cherche en vain le souci de prendre en considération l’avis adverse, le goût de la nuance, la recherche de points de convergence qu’exigerait un débat qui ne se contente pas d’instrumentaliser les thèmes mis en avant au service de la logique du « clic » ou de l’audience.

Souvent, ces dispositifs de parole qui rappellent les formes classiques du débat contradictoire ne sont toutefois qu’un jeu d’ombre qui ne porte pas à conséquence et qui n’impose aucune véritable règle.

Certaines confrontations a priori organisées selon ces principes ne font pas même le détour par l’exposition des positions. Les insultes, les attaques et les procès d’intention en sont l’unique carburant, débouchant parfois sur de véritables pugilats dans les coulisses, filmés et relayés sur les réseaux sociaux et par les animateurs eux-mêmes qui apportent ainsi la preuve de la fin véritable de l’émission : parler pour faire taire, couvrir l’avis des autres, s’enorgueillir de ne pas les entendre et surtout de ne pas vouloir le faire, comme s’il y avait là un risque, celui d’être converti.

Vos dons placent la science au centre de l’actualité.

Faire un don

Débattre de la foi au XVIᵉ siècle

On ne peut ici que songer à la peur de ceux qui durent, un jour ou l’autre, débattre sur un pied d’égalité avec des hérétiques, prendre le risque d’échouer à les convaincre ou à les vaincre, d’être eux-mêmes mis en difficulté et confrontés à leurs propres erreurs. Le cas des disputes religieuses au XVIe siècle me paraît ici particulièrement éclairant.

Les protagonistes de ces joutes entendent, qu’ils soient réformateurs ou défenseurs de l’Église romaine, délégitimer les positions de l’autre au nom du salut des âmes. Pourtant, la dispute contraste avec les pamphlets remplis d’invectives qui fleurissent à cette époque : son apparence est celle d’un échange policé où seules les compétences rhétoriques et exégétiques sont déterminantes. Présenter la recherche de la Vérité comme le fait d’acteurs désintéressés, tous orientés vers la restauration de l’unité religieuse, n’est-ce pas là une manière des plus efficaces, une fois la Vérité identifiée, de faire taire le vaincu ?

Dans plusieurs cantons suisses et dans les villes du sud de l’Allemagne, les disputes sont le moteur de la Réforme entre 1520 et 1540 : voulues par les autorités, menées par les réformateurs locaux, elles font basculer des territoires entiers dans le camp protestant. La dispute est présentée comme le lieu d’une confrontation équitable, transparente et régulée, qui permet de distinguer le vrai du faux et de comprendre la volonté de Dieu. Le mot « dispute » lui-même vient du terme disputatio, qui désigne la controverse académique médiévale, et pointe donc l’échange savant plutôt qu’un affrontement – l’événement est aussi nommé « colloque », « entretien » ou encore « audition ».

Les premières disputes ont lieu à Zurich au cours de l’année 1523, sous l’impulsion du Conseil de ville et d’Ulrich Zwingli, fondateur de la Réforme helvétique ; d’autres suivront, à Nuremberg et Memmingen (1525), à Berne et Hambourg (1528) ou encore à Genève (1535).

Principes de la dispute religieuse

La dispute suit plusieurs principes. D’abord, l’égalité symbolique des positions. Cette exigence se traduit d’emblée dans l’organisation de l’espace, où s’impose un dialogue en face à face, plaçant les intervenants sur un pied d’égalité. Le critère permettant de distinguer le clerc, dont la parole est légitime, n’est pas son rang dans la hiérarchie ecclésiale, mais sa capacité à mobiliser des connaissances bibliques, exégétiques et rhétoriques. Il est donc essentiel d’obtenir la participation d’orateurs des deux camps répondant à cette exigence, une victoire remportée face à des clercs peu au fait de l’art de la controverse risquant d’être contre-productive.

Le deuxième principe est celui de l’exigence critique. Celle-ci interdit aux orateurs de recourir à l’argument d’autorité ou de s’en remettre au magistère de l’Église. Le principe sola scriptura, que les réformateurs imposent avec le soutien des autorités, oblige à construire l’argumentation sur la seule base des Écritures. Comme Calvin répondant aux docteurs de la Sorbonne dans Les articles de la sacrée faculté de théologie de Paris (1544), les réformateurs confondent leurs adversaires en leur opposant les textes qui contredisent leurs affirmations. Il devient donc indispensable pour les controversistes des deux bords d’être en mesure de citer la Bible sans se tromper pour espérer être entendus, à l’instar de nos politiques qui s’échinent dans leurs duels à aligner le plus de chiffres possibles, comme s’il en allait de leur crédibilité et de leur légitimité.

Deux autres principes divergent sensiblement de ce que l’on peut observer aujourd’hui. L’un d’entre eux est celui de l’amitié chrétienne et fraternelle que mentionnent la très grande majorité des sources, dont les auteurs s’attachent à présenter la dispute comme un espace de réconciliation. Omniprésents dans les pamphlets ridiculisant les « papistes » ou dénonçant les « hérétiques luthériens », les propos irrespectueux et la calomnie sont interdits par les règlements des disputes, qui insistent sur l’amitié, la fraternité et la charité chrétienne qui doivent guider les controversistes. À l’évidence, il n’y a rien de tel dans les débats actuels et c’est justement l’absence de récit commun, d’horizon partagé, de socle de convictions similaires qui explique l’âpreté et l’inutilité de joutes dont nul n’attend une quelconque conciliation ou réconciliation.

Enfin, la présidence des disputes du XVIe siècle, composée la plupart du temps de docteurs en théologie ou en droit, veille au respect de ces principes ; des notaires assermentés prennent les minutes des débats, qui sont soigneusement colligées afin de s’assurer qu’aucune erreur ou omission ne se glisse dans le procès-verbal. Il n’est pas rare que le magistrat fasse ensuite publier les actes par des éditeurs réputés, dans une opération visant à faire connaître et reconnaître l’effet réconciliateur de l’exercice sur une communauté soucieuse de son salut. Les débats politiques actuels ne fonctionnent plus ainsi : les arbitres ne sont plus des pairs, mais des animateurs et des journalistes qui n’ont pas les mêmes intérêts que ceux qui s’affrontent devant eux et qui peuvent justement chercher le clash, la division, la question marginale mais déplaisante pour animer les échanges, dramatiser les enjeux, faire monter l’audience. Les arbitres peuvent ainsi participer de l’accentuation conflictuelle du débat, pour des raisons qui n’ont rien à voir avec la politique et tout avec la logique des médias pour lesquels ils travaillent.

Vaincre sans convaincre ?

Toutefois, si les récits officiels renvoient l’image d’un échange empreint de civilité, fondé sur une critique rigoureuse et ouvrant la voie à la réconciliation, la dispute reste dans les faits marquée par l’incompréhension face à l’adversaire et le refus de voir dans ses positions autre chose que des propositions hérétiques à combattre. Et l’apparente neutralité de l’exercice cache en général des dispositions favorisant objectivement l’une des deux parties.

Ainsi, lors de la dispute de Baden, organisée en 1526, c’est une véritable avalanche de protestations qu’émettent les réformateurs autour d’Ulrich Zwingli et de Jean Oecolampade. Refus de garanties, chaires positionnées de façon à rendre difficile l’écoute des réformateurs, falsification des procès-verbaux, l’éventail des reproches contre les organisateurs est large.

À Lausanne, où la dispute suit de peu la conquête du Pays de Vaud par Berne en 1536, les interventions au nom des autorités bernoises de Jean-Jacques de Watteville, ancien plus haut magistrat de la cité et partisan de la Réforme, ne laissent aucun doute aux catholiques quant à l’issue souhaitée par les organisateurs. En 1523 déjà, à Zurich, le vicaire général Fabri s’était plaint amèrement de ne pas avoir pu prendre connaissance à temps des thèses soumises par Zwingli à l’assemblée.

Quant au principe sola scriptura, socle de la dispute, il est loin de faire l’unanimité. Les clercs favorables aux réformes y adhèrent sans réserve, mais les partisans de l’Église romaine refusent de renoncer au contrôle de l’interprétation de la Bible par le magistère romain. Ils pointent les dangers d’une lecture libre, source de toutes les erreurs, mais sans succès face à la détermination des organisateurs à imposer la seule autorité des Écritures. Et dans les débats, les divergences éclatent au sujet de la version de la Bible à utiliser : à Ilanz, le chanoine Castelmur exige que la Vulgate de saint Jérôme soit utilisée plutôt que les versions en hébreu et en grec citées par le réformateur Johannes Comander.

Mais le principal biais réside ailleurs. À l’exception de celle de Baden, toutes les disputes suisses procèdent de magistrats favorables aux réformes ; aucune ville d’Empire ne voit une dispute confirmer l’ancienne foi. Les décisions prises à Zurich, Nuremberg, Memmingen ou Berne – prédication des seules Écritures, retrait des images saintes ou interdiction de la messe – suggèrent que les magistrats ne font que tirer les conséquences des débats. Toutefois, les règles favorisant les réformateurs et l’inscription rapide des changements dans la législation montrent que le magistrat a, dans la plupart des cas, arrêté son choix en amont.

Si la dispute n’est donc pas le lieu neutre de recherche de la Vérité célébré par ses défenseurs, l’exercice n’en est pas pour autant une tromperie. En l’organisant, le magistrat joue son rôle de protecteur du Salut, mais plutôt que de décider seul, s’en remet aux professionnels pour confirmer le choix juste. La dispute devient une opération performative qui rend légitime le choix religieux et son efficacité réside précisément dans le respect de procédures probatoires identifiées et reproductibles.

En faisant le choix de la critique savante et de l’échange policé, les organisateurs prétendent répondre aux affrontements sur la question religieuse par la réconciliation autour de la Vérité, mais derrière le visage public de la controverse se cachent des mécanismes visant à garder le contrôle sur les échanges et à entériner des décisions prises en amont. Les disputes partagent donc un point commun avec les débats politiques actuels : pour les orateurs, pas question de se rapprocher de l’adversaire, ni même d’espérer le faire changer d’avis. L’enjeu est de sortir vainqueur de la joute et d’imposer son point de vue comme le seul vrai. Il s’agit donc bien moins de convaincre pour vaincre que de vaincre sans convaincre.

L’Eurovision Song Contest, un laboratoire politique continental ?

Auteur

  1. Stéphane ReschePRAG (PhD) / Associate researcher, Université Paris-Est Créteil Val de Marne (UPEC)

Déclaration d’intérêts

Stéphane Resche ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

Partenaires

Université Paris-Est Créteil Val de Marne (UPEC) apporte des fonds en tant que membre fondateur de The Conversation FR.

Voir les partenaires de The Conversation France

CC BY NDNous croyons à la libre circulation de l’information
Reproduisez nos articles gratuitement, sur papier ou en ligne, en utilisant notre licence Creative Commons.

Republier cet article

Kalush Orchestra, candidat de l’Ukraine au concours Eurovision de la chanson 2022, se produit devant des réfugiés juifs ukrainiens lors d’un spectacle dans un hôtel de Jérusalem, le 5 avril 2022. AFP

r

Les élections présidentielles françaises sont à peine terminées et voilà que deux nouvelles échéances pointent le bout de leurs urnes. La première concerne les législatives, annoncées désormais par certains candidats malheureux comme un troisième tour, évidemment décisif, en vue du renouvellement des représentants des citoyens. Et l’évènement d’être d’ores et déjà autant relayé que les campagnes d’avril…

La seconde échéance est internationale : l’Eurovision Song Contest, anciennement Concours Eurovision de la Chanson, dont la 66ᵉ édition aura lieu cette année à Turin. La finale rassemblera médiatiquement environ 200 millions d’êtres humains. Elle reste pourtant reléguée aux faits divers de la dernière page culturelle de la partie congrue de la presse grand public.

Votes en stock

Certes, il pourrait sembler indécent surtout en ce moment de crises en escadrille de mettre en regard d’une part de vraies élections politiques (aux programmatiques enjeux sociétaux, économiques, écologiques où même les droits et les devoirs de chacun se voient mis en concurrence), et d’autre part le plus vieux télé-crochet de l’ère radio-télévisuelle (pour lequel on vote au mieux par fanatisme, mélomanie, ou pur plaisir de la moquerie). Néanmoins, on est en droit aussi de se demander pourquoi une retrouvaille d’une telle ampleur reste boudée par les grands titres et son public de lecteurs et auditeurs. L’ESC est en effet une caisse de résonance des enjeux internationaux majeurs : conflits latents ou en cours, modernité culturelle et puissance économique des sociétés, image des communautés issues des différentes diasporas au sein des pays du bloc européen occidental, représentativité des communautés LGBTQIA+ dans des pays plutôt hésitants sur la question, pour ne citer que quelques-uns des thèmes qui ont accaparé ces dernières années la littérature d’Eurovision.

Mais alors, pourquoi ne s’y intéresse-t-on pas ? Certains diront que l’ESC n’est qu’un pur divertissement et que la politique n’a rien à voir là-dedans, sanctionnant ainsi son inadéquation journalistique. Ne s’émeut-on pas pourtant lorsque l’équipe de football des États-Unis affronte celle de l’Iran aux Championnats du monde de Football, ou quand la Grèce dame le pion aux Allemands à l’Euro, ou encore lorsque les drapeaux ukrainiens flottent au-dessus des podiums des Jeux Olympiques d’hiver chinois, organisés sur neige artificielle en pleine période de désastre écologique ? De fait, l’Union européenne de radiotélévision – conceptrice et organisatrice de l’ESC – a été la première grande institution internationale à se positionner sur la brûlante question du conflit russo-ukrainien et sur le traitement à réserver aux délégations russes. Si la primeur ne fait pas le monopole, on peut tout de même remarquer, du moins en France, une différence de considération flagrante : d’un côté une institution populaire diffusée en mondovision, constamment ignorée, de l’autre n’importe quelle compétition de sport – tenez, les fléchettes par exemple ! – qui, malgré tout le respect qui lui reviendrait, est diffusée et commentée sur des chaînes dédiées.

Vos dons donnent de la voix aux chercheur•euses

Faire un don

Un laboratoire sociopolitique insoupçonné

L’ESC pourrait constituer un lieu d’expérimentation idéal pour repenser le vivre ensemble dans un monde globalisé. À l’heure où revient sur le devant de la scène la question de la gouvernance exécutive de l’Europe communautaire (déjà unifiée par la monnaie, son parlement et ses divers conseils, et dont on dit qu’elle ferait bien d’être militarisée), on peut déceler dans l’ESC des manières innovantes d’appréhender les modalités d’expression et de sélection de représentants à l’échelle continentale.

Prenons par exemple le vote du concours au sens large : il nous invite à relire nos affinités électives. Nous pourrions comparer la finale de l’ESC à une élection à proprement parler, élection qui rassemble une bonne quarantaine de nations. Sans revenir sur l’histoire haletante des modalités de vote du concours, qui ont beaucoup changé au cours des décennies, précisons seulement qu’aujourd’hui que le scrutin est équilibré en tant qu’il est pondéré par deux types d’électeurs : le gagnant est en effet désigné à 50 % par la somme des notations conjointes de jurys nationaux et à 50 % par un savant calcul issu exclusivement des préférences du public international du programme.

Et si cette modalité était appliquée à une élection politique, par exemple européenne ? On pourrait ainsi élire de la sorte une Présidente de l’Union ? Ou à l’inverse, le Président français, en offrant 50 % de la puissance du vote aux pays voisins et frontaliers directs ? Ou simplement appliquer cet équilibre moitié-moitié à notre contrée, en constituant un jury présélectionné. Cette option serait probablement interprétée comme un retour en arrière, car on voit bien que les discussions actuelles autour de la proportionnalité – notamment lors des législatives – penchent plutôt en faveur d’une correspondance stricte entre les préférences exprimées et les représentants sélectionnés.

Vent nouveau

Finalement, c’est en amont du concours que l’on peut flairer un souffle réformateur. Peut-on imaginer que le vote qui aura lieu samedi 14 mai 2022 a en réalité été précédé d’une multitude de tours de chauffe à l’échelle nationale ?

En effet, les clubs OGAE (Organisation générale des amateurs de l’Eurovision) de chacun des pays membres de l’UER qui participent au concours réalisent chaque année au printemps leurs previews. Il s’agit d’une sorte de répétition générale du décompte fatidique de la finale, où chaque Eurofan, tel un juré haut placé, jauge ses préférences à l’aune des réalités artistiques et de la dynamique de groupe. C’est un peu comme si, avant le premier tour de la présidentielle, et dans chaque région française, on demandait à des personnes engagées politiquement, dans un parti ou juste localement, de se prêter à un jeu d’autorévélation.

Ainsi, imaginez qu’on propose, au hasard, à un fervent révolutionnaire de se mettre dans la peau d’un conservateur invétéré, ou à un écologiste chevronné dans celle d’un progressiste saint-simonien, le temps d’une journée. Leur mission déguisée ? Écouter l’ensemble des programmes des candidats à l’élection et, en fonction de leur nouvelle et provisoire identité politique, leur donner une note, une voix, avant de dépouiller l’ensemble des avis et d’en discuter autour d’un verre de l’amitié. Voilà donc ce que font les Eurofans aguerris dans chaque pays eurovisionnesque ce qui, en plus de donner du grain à moudre aux bookmakers qui font leur blé sur l’issue de l’ESC, les entraîne à penser comme l’autre, à aimer comme son voisin et, finalement, à l’écouter.

Du pouvoir des réseaux sociaux

L’Eurovision manque peut-être de considération, mais les fans du concours sont eux remarquables dans leur propension à consolider leur identité de groupe. Comme un cas d’école, ils promeuvent et symbolisent à la fois le crédo qui les porte : « Celebrate Diversity »… ou « Building Bridges » c’est selon, comme le montre l’évolution des slogans des commerciaux d e la marque Eurovision qui a pris un tournant évident il y a une dizaine d’années. Les réseaux sociaux reflètent à leur tour cette politisation de l’ouverture à l’autre, comme en témoigne le hashtag #EurofansAreBeautiful qui s’est imposé cette année comme un espace de revendication clair de la validité autoproclamée de l’appréciation du concours, devenue à son tour un moyen d’affirmation de soi. C’est d’ailleurs un créneau similaire qu’ont pris certains médias autonomes – webradios, podcasts, revues en ligne. Aux côtés de sites spécialisés comme eurovision-quotidien.com figurent désormais des formats audio réguliers comme 12points, l’un des premiers podcasts francophones qui mêle tonalité caustique, précisions historiques et approche scientifique, en accord avec ce qu’est devenu fièrement le Concours Eurovision : une fête cosmique où le monde devient village, un exutoire bon enfant où railler son voisin n’est en réalité qu’un moyen de mieux apprécier ses différences, le tout en chantant.

Politisation de la Cour suprême : la démocratie américaine en péril ?

Auteur

  1. Jérôme Viala-GaudefroyAssistant lecturer, CY Cergy Paris Université

Déclaration d’intérêts

Jérôme Viala-Gaudefroy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

CY Cergy Paris Université apporte un financement en tant que membre adhérent de The Conversation FR.

Voir les partenaires de The Conversation France

CC BY NDNous croyons à la libre circulation de l’information
Reproduisez nos articles gratuitement, sur papier ou en ligne, en utilisant notre licence Creative Commons.

Republier cet article

Donald Trump et un autre homme en costume regardent une femme prêter serment la main posée sur un livre.
Amy Coney Barrett prête serment et devient juge de la Cour suprême sous les regards de son mari et de Donald Trump, alors président des États-Unis. Washington, le 27 octobre 2020. Brendan Smialowski/AFP

 

La Cour suprême des États-Unis serait en passe d’annuler l’arrêt Roe v. Wade de 1973 qui garantit le droit à l’avortement au niveau fédéral, selon l’avant-projet de la décision majoritaire écrite par le juge conservateur Samuel Alito qui a fuité et a été publié sur le site Politico. S’il s’agit d’une version provisoire, son authenticité a été confirmée par le président de la Cour et l’émoi est considérable.

Cette remise en cause de près d’un demi-siècle de jurisprudence est le fruit de décennies de batailles du parti républicain, motivé notamment par son électorat conservateur catholique et évangélique. C’est à Donald Trump que ces électeurs devront leur victoire puisque c’est sous sa présidence et grâce à la nomination de trois juges conservateurs que la Cour a perdu sa majorité progressiste (rappelons que les juges de la Cour suprême sont nommés à vie par le président et confirmés par un vote au sénat).

Premier effet le plus visible : entre 23 et 26 États sur 50 seraient susceptibles d’interdire l’avortement et seuls 16 États protégeraient légalement ce droit. Mais cette décision pourrait avoir bien d’autres conséquences sociales, juridiques et politiques.

La « règle du précédent » mise à mal

L’une des questions au cœur de la bataille juridique est la « règle du précédent » (stare decisis), laquelle veut que les arrêts précédents fassent jurisprudence. Une règle qui permet la stabilité du droit dans les pays de common law.

Vos dons donnent de la voix aux chercheur•euses

Faire un don

Bien entendu, la Cour suprême a annulé des dizaines de précédents par le passé, comme l’arrêt Brown v. Board of Education, (1955) qui invalidait la décision Plessy v. Ferguson (1896), pierre angulaire des lois ségrégatives des États du Sud.

Renverser un précédent est cependant extrêmement rare : ce fut le cas d’à peine 0,5 % des arrêts de la Cour suprême depuis 1789 et ces renversements ont généralement été motivés par le fait que la loi est « inapplicable ou n’est plus viable, » notamment en raison de « changements des conditions sociales ». Même quand un droit n’est pas spécifiquement mentionné dans la Constitution, c’est son caractère “profondément enraciné dans l’histoire et la tradition de cette nation” qui en fait un droit garanti par le quatorzième amendement.

Or c’est précisément cet « enracinement profond » que conteste le juge conservateur Samuel Alito dans son avant-projet de décision. Pourtant, en 1992, tout en modifiant considérablement le droit à l’avortement, l’arrêt Casey notait précisément la valeur de précédent de Roe v. Wade, arguant que « la vie des femmes a été changée par cette décision », s’appuyant sur « le besoin de prévisibilité et de cohérence dans la prise de décision judiciaire », et le fait que « la Cour manquerait de légitimité si elle changeait fréquemment ses décisions constitutionnelles ».

Cette décision pourrait donc à terme remettre en cause un ensemble de droits comme l’accès à la contraception ou au mariage pour tous, d’autant que l’arrêt Roe v. Wade s’appuie sur le droit à la vie privée, et non sur celui de l’égalité sexuelle, comme le déplorait la très progressiste juge Ruth Ginsburg. Même si le juge Alito insiste que cette décision ne concerne que l’avortement qui, selon lui, seule implique « une question morale critique » liée à la « vie potentielle » d’un « être humain non né, » les spécialistes du droit sont inquiets.États-Unis : la Cour suprême, une institution qui façonne la société américaine (France 24, 24 septembre 2020).

Contre l’opinion publique ?

Une large majorité des Américains est en faveur de l’avortement dans la plupart des cas.

Pourcentage d’Américains favorables (en marron foncé) ou défavorables (en beige) à ce que l’avortement soit légal, de 1995 à 2021. Pew Research Center

Sans surprise, on note toutefois une ligne de fracture qui s’est creusée ces dernières années entre une droite toujours majoritairement contre et une gauche de plus en plus en faveur de l’IVG.

Part de la population considérant que l’avortement devrait être légal en fonction de l’appartenance politique (Démocrate ou approchant en bleu et Républicain ou approchant en rouge). Pew Research Center

Parallèlement, comme le montre un sondage Gallup, un nombre croissant d’Américains considère que la Cour est trop conservatrice, et seuls 40 % des habitants du pays approuvent son action de la Cour, ce qui représente « l’opinion la plus mauvaise que l’institut ait mesurée dans ses sondages sur la Cour dans les deux dernières décennies ».

Confiance dans les institutions judiciaires du pays. Gallup

Plus grave encore, selon un sondage de Quinnipiac, une majorité d’Américains de tous bords politiques estime que la Cour est principalement motivée par des questions partisanes.

Le résultat d’une stratégie politique

Si, comme le rappelle le le président de la Cour, John Roberts, la Cour ne peut pas baser ses décisions sur le fait que celles-ci soient populaires, son autorité repose néanmoins sur une légitimité liée au fait que le public perçoit ses décisions comme émanant du respect des principes du droit et non des prises de position politiques et partisanes qui guident les juges.

Non seulement le sujet du droit à l’avortement aux États-Unis est éminemment politique, mais la confirmation des juges les plus conservateurs s’est faite essentiellement autour de cette question sur des lignes partisanes. Elle est le fruit d’une stratégie au long cours des Républicains, qui n’ont pas hésité à mettre à mal les normes démocratiques du fonctionnement des institutions dans le but de politiser tout l’appareil judiciaire.

Ainsi, en 2016, le leader de la majorité (républicaine) au Sénat, Mitch McConnell, a refusé d’organiser un vote du Sénat sur la candidature à la Cour suprême, présentée par le président Obama, du progressiste Merrick Garland pour remplacer Antonin Scalia, décédé en février 2016. Prétexte invoqué par McConnell : 2016 était une année d’élection présidentielle. Ce qui n’empêchera pas ce même McConnell de procéder au vote de la confirmation de la candidate du président Trump, Amy Coney Barrett, en 2020, également durant une année d’élection.Qui est Amy Coney Barrett, la juge choisie par Trump ? C dans l’air, 15 octobre 2020.

Une majorité de juges « minoritaires »

On peut s’interroger sur le fait que trois des juges conservateurs de la Cour – Gorsuch, Kavanaugh et Coney Barrett – ont été nommés par un président qui a obtenu quelque 3 millions de voix de moins que son adversaire.

Qui plus est, ces juges sont doublement « minoritaires », puisqu’ils ont été confirmés par une majorité au Sénat (en termes de sièges) qui représente en fait une minorité d’électeurs en termes de voix.

En effet, comme il y a deux sénateurs par État quelle que soit sa population (Article I, Section 3 de la Constitution), les États les moins peuplés, les plus ruraux et généralement les plus républicains, sont surreprésentés par rapport aux États plus peuplés, urbains, et principalement démocrates. Ainsi, la Californie (démocrate), presque 40 millions d’habitants, a deux sénateurs, tout comme le Wyoming (républicain), avec moins de 600 000 habitants. Cette tendance s’est accentuée au cours des dernières années : en 1980, l’électeur républicain moyen avait 6 % de pouvoir en plus au Sénat que l’électeur démocrate moyen, contre 14 % aujourd’hui.

Ce différentiel n’est pas négligeable : il a été de 15 millions d’électeurs pour la confirmation d’Amy Coney Barrett, et d’environ 22 millions pour celles de Gorsuch et Kavanaugh, les deux premiers juges de la Cour suprême à avoir été nommés sous Donald Trump.

Il s’agit là d’un phénomène récent, dont la première occurrence remonte à 1991, avec la nomination de Clarence Thomas, ouvertement opposé à Roe v. Wade.

En fait, sur les six juges conservateurs de la Cour suprême, les cinq qui sont les plus susceptibles de remettre en cause Roe v. Wade sont des « juges minoritaires », comme on le voit sur le graphique suivant (en gris le vote positif de confirmation par nombre, et en noir le vote négatif).

Juges de la cour suprême. US Senate

L’enjeu de la survie de la Cour et de la démocratie

En qualifiant Roe v. Wade d’« abus de l’autorité judiciaire », « manifestement erronée dès le départ » qui a « court-circuité le processus démocratique », le juge Samuel Alito reprend un vieil adage des conservateurs fondamentalement méfiants du pouvoir fédéral. Tout en soulignant ne pas porter un jugement de fond sur la légalité de l’avortement, il renvoie aux élus des États et à la souveraineté démocratique.

Remarquant que les États adoptaient des lois sur l’avortement de plus en plus restrictives, explicitement inspirées par la nouvelle majorité conservatrice de la Cour, la juge Sotomayor s’est inquiétée de savoir si « … cette institution survivra à l’odeur nauséabonde que crée dans la perception publique l’idée que la Constitution et sa lecture ne sont que des actes politiques. […] Si les gens croient vraiment que tout est politique, comment survivrons-nous ? Comment la Cour va-t-elle survivre ? »

À long terme, la question de la légitimité de la Cour va bien au-delà de la question du droit à l’avortement, ou de la protection des minorités par le droit. N’oublions pas que, lors de l’élection présidentielle de 2000, c’est la majorité conservatrice de la Cour suprême qui a donné la victoire à G.W. Bush, en arrêtant le recomptage des voix en Floride.


À lire aussi : Les réformes électorales menacent-elles la démocratie des États-Unis ?


Plus récemment, en 2019, les juges conservateurs ont décidé que les tribunaux fédéraux n’ont pas le pouvoir d’entendre les contestations relatives au redécoupage électoral partisan (gerrymandering).

Souvenons-nous, enfin, que Donald Trump et une majorité de Républicains continuent de clamer que l’élection de 2020 leur a été volée, et que Joe Biden est un président illégitime.

Que se passerait-il si, la prochaine fois, non seulement le candidat à la présidentielle rejette le verdict des urnes, et qu’en plus un État clé dominé par son parti refuse de valider les résultats ? Comment, alors, une Cour suprême délégitimée pourrait-elle régler la crise constitutionnelle qui s’en suivrait ?

À plus court terme, la question du droit à l’avortement devrait être un enjeu des élections de mi-mandat en novembre prochain. Les démocrates espèrent en tout cas que cela permettra de faire passer au second plan la question de l’inflation, de mobiliser leur électorat, voire les électeurs indépendants et de limiter ainsi un échec annoncé.

Implants cérébraux : la nature humaine remise en question

Auteurs

  1. Éric FourneretPhilosophe, Braintech Lab (Inserm, U205), équipe « Neurotechnologies et Dynamique des Réseaux », Université Grenoble Alpes (UGA)
  2. Blaise YvertDirecteur de recherche à l’Inserm, responsable de l’équipe Neurotechnologies et Dynamique des Réseaux, Inserm
  3. Clément HébertChargé de recherche implants Neuronaux, neuroprothèses, Inserm U1205 « BrainTech lab », Université Grenoble Alpes (UGA)

Déclaration d’intérêts

Éric Fourneret a reçu des financements de « Braincom ».

En lien avec cette réflexion, Blaise Yvert a reçu des financements de l’Agence Nationale pour la Recherche (Projets Neuromeddle et Brainspeak) et de l’Union Européenne (Projets Horizon 2020 Braincom et Flagship Graphene)

Clément Hébert ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

te des fonds en tant que membre fondateur de The Conversation FR.

Inserm apporte un financement en tant que membre adhérent de The Conversation FR.

Voir les partenaires de The Conversation France

CC BY NDNous croyons à la libre circulation de l’information
Reproduisez nos articles gratuitement, sur papier ou en ligne, en utilisant notre licence Creative Commons.

Republier cet article

Les implants cérébraux peuvent être définis comme des dispositifs artificiels d’interface avec le cerveau. Ils permettent notamment de proposer des solutions de suppléance artificielle dans le cas de fonctions perdues, comme la parole.

Ces avancées technologiques se révèlent particulièrement intéressantes, par exemple, pour offrir des nouveaux modes de communication à des individus atteints de paralysie sévère.

Mais si l’aide que promet cette technologie semble précieuse, elle suscite néanmoins un questionnement éthique qu’il est essentiel de saisir, alors même que la technologie se développe.

Deux approches de grande envergure

Comprendre le fonctionnement du cerveau et améliorer nos capacités d’intervention pour remédier à certains de ses dysfonctionnements font partie des défis majeurs relevés par les neurosciences de ces dix dernières années. Et deux approches différentes et de grande envergure se sont concrétisées.

Vos dons donnent de la voix aux chercheur•euses

Faire un don

Dans la première, avant tout théorique, il s’agit de modéliser de manière réaliste le fonctionnement du cerveau grâce à des réseaux de neurones artificiels (informatiques ou électroniques) : c’est l’objectif du projet européen Human Brain Project. Dans la seconde, pragmatique, on cherche à développer des implants cérébraux pour enregistrer et stimuler le plus grand nombre de neurones possibles : c’est le but du vaste projet américain Brain Initiative, ou encore du projet européen Braincom.

D’ici très peu de temps, arrivera donc logiquement le moment où l’on disposera d’une part de vastes réseaux artificiels neuromimétiques, et d’autre part d’interfaces à très haute résolution permettant un couplage bidirectionnel (enregistrement et stimulation) avec des millions de neurones du cerveau. Or la fusion de ces deux mondes technologiques, prévisible, conduirait à l’émergence de vastes réseaux hybrides couplant l’activité du cerveau avec celle de réseaux artificiels. Et ce n’est pas de la pure science-fiction : des preuves de concept ont déjà été fournies par des réseaux hybrides simples, à l’instar de la technique de « dynamic clamp ».

Vers des réseaux neuronaux « hybrides »

Née à la fin des années 1990, la technique de dynamic clamp permet de coupler un neurone artificiel à un neurone réel par le biais d’une électrode intracellulaire : l’activité de l’un modifie celle de l’autre de manière bidirectionnelle. Et à l’avenir, l’avènement d’implants intégrant un grand nombre de microélectrodes extracellulaires – et assurant chacune une liaison bidirectionnelle stable avec un neurone individuel – devrait permettre la construction de réseaux hybrides à grande échelle, y compris in vivo au niveau de vastes régions cérébrales.

Certes, ce n’est pas encore d’actualité. Mais force est de constater que la route n’est sans doute plus si longue. En effet, des réseaux neuromorphiques sont déjà capables d’apprendre automatiquement à reproduire l’activité d’ensembles de neurones réels enregistrés par un implant cérébral. Cela signifie que l’on dispose déjà de la technologie permettant à plusieurs neurones réels de contrôler des réseaux artificiels complexes. Et inversement, on sait aussi s’appuyer sur des réseaux artificiels pour stimuler, de manière plus ou moins précise, des neurones réels.

Le développement d’implants cérébraux permet ainsi d’entrevoir l’avènement d’un couplage hybride entre le cerveau et de vastes réseaux artificiels. L’optimisation de ces technologies autorisera la simulation des neurones artificiels grâce à des circuits neuromorphiques à très basse consommation énergétique, et rendra possible, à terme, l’implantation de ces technologies d’hybridation.Audition d’Éric Fourneret lors de la consultation sur l’intelligence artificielle et le transhumanisme organisée par la MGEN et la Commission nationale Française pour l’UNESCO.

Dans ce contexte, et même si l’implantation de dispositifs artificiels dans le corps n’est pas quelque chose de nouveau, les frontières traditionnelles entre ce qui est naturel et artificiel, entre l’homme et la machine, entre le vivant et l’inanimé, deviennent plus ambiguës. Une des principales questions soulevées, si ce n’est la principale à partir de laquelle toutes les autres se posent, est alors la suivante : quelle « forme de vie » la technologie des implants cérébraux peut-elle produire ?

La nature humaine en question

Il n’est toutefois pas question de se laisser embarquer dans une ambition éthique réductrice ne s’attardant que sur les scénarios du pire (collapsologie), ou à l’inverse ne considérant que les scénarios du mieux (discours technoprophétique). On le sait, chaque nouvelle technologie est porteuse de bienfaits pour les êtres humains, tout en nécessitant souvent une transformation sociale (par exemple, pour ajuster le cadre normatif de l’action sociale). Mais elle suscite parfois de vives interrogations quant aux effets indésirables liés à son utilisation, qu’il faudrait gérer moralement, socialement et juridiquement.

De la même manière, le développement d’implants cérébraux nous place sur cette ligne de crête, entre bienfaits et dérives potentielles. En effet, il ne s’agit pas d’intervenir sur un organe quelconque. C’est du cerveau qu’émerge notre sentiment de présence au monde, c’est-à-dire notre conscience. Et d’elle dépend notre capacité à saisir le monde et soi-même au moyen d’un même acte : de penser la frontière entre l’être humain et le monde et, simultanément, de penser l’articulation entre les deux. Or l’hybridation du cerveau avec des dispositifs électroniques possède d’autre part un potentiel d’impact sans précédent dans notre façon de nous représenter l’Homme. Et pour cause…

Il n’existe pas, de façon naturelle, d’êtres humains dont le fonctionnement neurophysiologique du cerveau s’organise sous l’influence de composants électroniques implantés, voire à terme, de réseaux de neurones artificiels. Aussi, cette séparation conceptuelle entre l’inné à l’Homme et les artifices acquis pourrait-elle rendre difficile la catégorisation sociale de l’individu équipé d’un implant cérébral. Ni totalement humain, ni totalement machine, il est un mélange de deux réalités différentes dont le caractère hybride pourrait produire une nouvelle unité humaine dans le corps biologique.

L’implant cérébral, une prothèse parmi d’autres ?

On pourrait objecter qu’il existe d’ores et déjà des prothèses de hanche et des pacemakers. L’implant cérébral est-il si différent de ces dispositifs artificiels qui, socialement, ne posent pas de difficulté particulière ?

On pourrait répondre par la négative. Si l’implant cérébral est socialement perçu comme le prolongement électronique du cerveau d’un individu, de la même manière qu’une jambe prothétique prolonge le corps, alors il n’est pas différent d’une prothèse traditionnelle – la conscientisation de la frontière entre l’Homme et le monde étant maintenue dans son fonctionnement originel. Dans ce cas, l’implant constitue une sorte de projection organique, dans l’acceptation qu’en a faite Canguilhem : ce dispositif artificiel possède un sens biologique, sa fonction consistant à compenser la défaillance d’un organe naturel.

Cela pourrait néanmoins poser problème. Si cette forme d’hybridation se révélait être une instance de régulation et d’organisation du rapport au monde étrangère à celle, originelle, laissant penser à une forme d’hétéronomie (telle l’expérience du cerveau dans une cuve imaginée par le philosophe Hilary Putnam en 1981), elle pourrait être considérée par la société comme une nouvelle corporéité humaine, où la conscience de quelque chose est médiée par le dispositif artificiel. En effet, si le substrat de la pensée s’anime en synergie avec des réseaux de neurones artificiels, la conscientisation de la frontière entre l’Homme et le monde s’artificialise. Or dans ce cas, l’hybridation est susceptible d’être vécue, à tort ou à raison, comme dénaturante. Et cela pourrait conduire à transformer les systèmes de normes et de règles qui encadrent les conduites au sein d’une collectivité composée d’êtres humains hybrides, et d’autres qui ne le sont pas.

Certes, notre contact avec le monde est de plus en plus médié par des artifices, sans aucune référence faite aux implants cérébraux – comme en témoignent les téléphones portables, ordinateurs et autres écrans à travers lesquels on entre en contact avec le réel. Mais comme nous l’avons déjà souligné, avec ces implants, la recherche s’oriente vers une technologie d’hybridation directe entre le cerveau et des réseaux de neurones artificiels. Et dans ces conditions, il importe de se pencher sérieusement sur la façon dont cette technologie peut affecter notre représentation de la « nature humaine ».

Penser l’humanité de la technique et la technicité de l’humanité

L’une des plus importantes caractéristiques de l’Homme est d’avoir inventé et créé des techniques et des technologies pour satisfaire ses besoins et compenser ses vulnérabilités, selon ses facultés et son intelligence, selon sa volonté et ses désirs. Il suffit qu’une chose soit, d’une certaine manière, pour être déterminée dans son développement et dans sa destination. Aussi, que l’être humain soit une espèce technicienne – particularité qu’il partage à des degrés différents, on le sait aujourd’hui, avec d’autres animaux – détermine-t-il sa destination sous la forme d’un effacement de la frontière entre nature et artifice.

Considérant que le monde lui offre des possibilités pour répondre à ses besoins et innover pour s’opposer aux misères de la vie, l’humanité est un entrelacement, de plus en plus serré, de la nature et de la technique. Bien qu’étant autre que la technique, elle habite le monde par et dans la technique. Et son évolution révèle une frontière entre le naturel et l’artifice beaucoup moins catégorique qu’on ne le croit : au cours du temps, elle est devenue de plus en plus poreuse. On ne peut donc pas définir la nature humaine en faisant abstraction des technologies par lesquelles l’humanité habite le monde. Voilà pourquoi, penser les implications éthiques du développement des implants cérébraux consiste à penser ces liens étroits entre l’Homme et la technique.

Cette réflexion, bien entendu, ne s’inscrit pas dans une démarche dogmatique qui prendrait la forme d’une collapsologie ou, à l’inverse, d’une prophétie technologique. Il est en effet du rôle de la philosophie et de l’éthique d’interroger par la seule raison les implications des nouvelles neuro-technologies, en s’en tenant aux faits et non à des scénarios de science-fiction sans fondements dans le réel. Ces faits sont fournis par les neuroscientifiques et par leurs résultats. Voilà pourquoi la séparation, encore trop marquée, entre la réflexion philosophique et les recherches technoscientifiques en cours, est embarrassante et inadéquate dans l’examen des implications éthiques des implants cérébraux.

Pour les étudier, il faudrait bien au contraire une interaction forte et étroite entre, d’une part, les acteurs des sciences humaines et sociales, et d’autre part, les neuro et techno-scientifiques, ingénieurs, informaticiens, biologistes et médecins. C’est ensemble qu’ils devraient poursuivre ce vieux débat à la croisée de tous les savoirs : « Qu’est-ce qu’être humain ? ». Ensemble qu’ils devraient examiner ce qui engage notre condition en tant qu’être humain, et réfléchir aux critères d’évaluation du processus technologique que représentent les implants cérébraux. On peut alors dire que c’est vers l’altérité Homme-Technologie, et non vers une dualité indépassable, qu’il faut se tourner pour mieux connaître et comprendre quels sont les enjeux du développement des implants cérébraux concernant nos représentations de la nature humaine.

Elon Musk, le singe et les trois cochons : une fable transhumaniste ?

Auteur

  1. Philippe MeneiProfesseur de Neurochirurgie, neurochirurgien, chercheur (CHU d’Angers, Inserm U1232-CRCINA) et auteur (Voyage du cerveau gauche au cerveau droit. EDP Sciences 2021- Imaginer le monde de demain dir Xavier Pavie, Maxima 2021), Université d’Angers

Déclaration d’intérêts

Philippe Menei ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

Université d’Angers apporte un financement en tant que membre adhérent de The Conversation FR.

Voir les partenaires de The Conversation France

CC BY NDNous croyons à la libre circulation de l’information
Reproduisez nos articles gratuitement, sur papier ou en ligne, en utilisant notre licence Creative Commons.

Republier cet article

photographie d’Elon Musk
Elon Musk lors de la présentation du Tesla Cybertruck, en novembre 2019. Connu pour ses activités dans les domaines automobile et spatial, l’excentrique milliardaire s’intéresse aussi au cerveau. Frederic J. Brown / AFP

 

Hier, lundi 25 avril, Elon Musk annonçait racheter le réseau social Twitter pour 44 milliards de dollars.

Les activités du milliardaire américain sont très variées et posent de nombreuses questions. En effet, Le 9 avril 2021, il créait comme à son habitude le buzz en postant une courte vidéo sur les réseaux sociaux. On pouvait y voir un singe macaque jouant par la pensée à une partie du jeu vidéo Pong, grâce à une interface cerveau-machine développée par Neuralink. Cofondée par l’excentrique milliardaire, cette start-up a récemment annoncé avoir réussi à lever 205 millions de dollars supplémentaires auprès d’investisseurs pour développer son produit phare.

À première vue, cette prouesse semble témoigner de changements importants à venir. Elon Musk l’affirme d’ailleurs au début de son intervention : l’objectif de Neuralink est de mettre au point un dispositif implantable bon marché, destiné à « résoudre d’importants problèmes impliquant le cerveau et la moelle épinière ». Le milliardaire l’affirme : tout un chacun sera, à un moment ou à un autre de son existence, concerné par des ennuis de santé d’origine neurologique.

Mais comme souvent avec Elon Musk, il convient de faire la part des choses entre ce qui relève de l’effet d’annonce et la réalité. En l’occurrence, le concept d’interface cerveau-machine n’est pas nouveau, et la seule véritable innovation de Neuralink est la miniaturisation de l’implant cérébral utilisé. Le milliardaire et ses ingénieurs ont beau multiplier les déclarations choc, les promesses de ce type d’interface, si elles sont nombreuses, sont encore loin de se concrétiser. En outre, l’emploi de ces technologies, fantasme transhumaniste s’il en est, soulève bien des questions.

Aidez-nous à mettre l’intelligence au cœur du débat.

Faire un don

50 ans d’interface cerveau-machine

Une interface cerveau-machine est un dispositif destiné à connecter un cerveau à un ordinateur. Il est constitué d’électrodes placées à la surface de l’organe ou en profondeur, associées à un programme informatique permettant aux neurones et aux microprocesseurs de communiquer.

Ce concept n’est pas récent : il est né dans les années 1970 en Californie, sous l’impulsion de la Defense Advanced Research Projects Agency (DARPA), agence du département de la Défense des États-Unis chargée de la recherche et développement des nouvelles technologies destinées à un usage militaire. Les objectifs étaient alors de parvenir à piloter un avion de chasse par la pensée, ou de créer des « super-soldats ».

L’approche a ensuite progressivement évolué vers la réparation de l’humain abîmé. Depuis le début des années 2000, plusieurs équipes ont notamment montré qu’au moyen d’une interface cerveau-machine, un singe peut contrôler par la pensée un curseur sur un écran, un bras robotisé ou un fauteuil électrique. Ces recherches ont ouvert la voie aux neuroprothèses permettant de restaurer des facultés perdues, comme la motricité ou la vue.

Plusieurs entreprises sur les rangs

Plusieurs entreprises ont été créées pour se positionner sur ce marché potentiel. Une concurrence qui a permis l’élaboration de différents prototypes.

Outre l’interface cerveau-machine de Neuralink, une « Brain Gate » conçue en collaboration avec une université privée du Rhode Island a été testée sur une personne souffrant  d’un syndrome d’enfermement incomplet. Ce dispositif fait actuellement l’objet d’un essai clinique chez des personnes victimes de tétraplégie.

Un autre dispositif, qui présente la particularité d’être mini-invasif (car pouvant être introduit dans le corps par voie endovasculaire, autrement dit en passant par les vaisseaux sanguins), a été développé par l’entreprise californienne Synchron. Testé récemment chez deux patients atteints de sclérose latérale amyotrophique (une maladie évolutive et mortelle qui se traduit par une paralysie progressive des muscles impliqués dans la motricité volontaire), il leur a permis d’envoyer des SMS et des courriels, ou encore d’effectuer des achats en ligne par la pensée.


À lire aussi : Sclérose latérale amyotrophique : quelles pistes thérapeutiques ?


L’Europe n’est pas en reste. L’interface cerveau-machine du centre médical universitaire d’Utrecht, aux Pays-Bas, est en phase d’étude pilote. La faisabilité de leur approche a déjà été testée avec succès chez deux patients atteints du syndrome d’enfermement. Et un dispositif semi-invasif a été évalué au centre de recherche français Clinatec : il a permis à un patient tétraplégique de contrôler les mouvements d’un exosquelette à quatre membres.

Finalement, en quoi l’interface Neuralink pourrait-elle changer la donne ? Pour le comprendre, penchons-nous sur la démonstration officielle de l’interface cerveau-machine de Neuralink, retransmise en direct le 28 août 2020.

Les trois petits cochons d’Elon

Durant cette conférence étaient exhibés non pas un singe, mais trois petits cochons. Le premier n’avait pas été opéré. Il n’était là que pour montrer au monde entier l’absence de différences physiques avec les autres.

Le second animal, une truie appelée Dorothy, avait reçu un implant cérébral qui avait ensuite été retiré, sans séquelles (12:59 dans la vidéo ci-dessous). Cochon à l’appui, Elon Musk affirmait que cela démontrait la réversibilité de l’opération : « Si vous avez un Neuralink et décidez que vous n’en voulez plus, ou que vous souhaitez le mettre à jour, il peut être retiré de telle façon que vous demeuriez en bonne santé. » Un point important, comme nous le verrons plus loin…

Le troisième cochon, la truie Gertrude, tenait le rôle vedette : elle bénéficiait depuis deux mois d’un implant cérébral enregistrant l’activité des neurones en lien avec les sensations de son groin.

Le choix n’est pas anecdotique, tant le groin est important chez les cochons. Il sert à explorer le sol pour y trouver des aliments, mais aussi à interagir avec leurs congénères, raisons pour lesquelles il est richement innervé. L’activité électrique des neurones connectés au groin de Gertrude était matérialisée par des points lumineux sur un écran. Elle était aussi audible, sous la forme d’un « bip » (à 15:47 dans la vidéo ci-dessus). Plus Gertrude baladait son groin sur le sol de la cage, plus les bips s’affolaient.

En somme, Elon Musk avait transformé le groin d’un petit cochon en instrument de musique électronique. A priori, il n’y avait pas là de quoi bouleverser radicalement notre monde, malgré les objectifs louables et ambitieux objectifs annoncés début de la conférence : restaurer la mémoire, redonner la vue aux aveugles, l’audition aux sourds, le mouvement aux paralysés, traiter l’épilepsie, etc. Mais intéressons-nous plutôt à la fin de la conférence.

Le « grand méchant transhumanisme en embuscade » ?

C’est en effet lors du jeu de questions/réponses qui la conclu que le milliardaire américain se lâche : « On pourra acquérir une super vision ! » L’un des ingénieurs renchérit aussitôt : « On pourra communiquer par télépathie ». Le thème de l’homme augmenté, cheval de bataille du transhumanisme, pointe alors le bout de son nez.

Le glissement qui s’opère, de l’humain réparé à l’humain augmenté, rappelle les mots du philosophe Jean Michel Besnier, pour qui le transhumanisme avance masqué, « étant continuellement obligé, pour projeter l’homme augmenté, de s’appuyer sur l’homme diminué ».


À lire aussi : Humanisme, posthumanisme, transhumanisme : de quoi parle-t-on exactement ?


Faut-il s’en inquiéter, comme certains le pensent, à l’image du politiste américain Francis Fukuyama ? Ou n’y a-t-il finalement pas de raison d’avoir peur de ces nouvelles améliorations ? Nous sommes en effet d’ores et déjà augmentés pour beaucoup d’entre nous – équipés que nous sommes de nos lunettes, smartphones et autres prothèses mammaires…

Peut-être devrait-on surtout se préoccuper voir l’être humain devenir un objet connecté parmi d’autres. Car ne l’oublions pas, Neuralink n’est pas un laboratoire universitaire : c’est une start-up.

Neuralink, un produit de consommation

Il n’est probablement pas anodin que l’expérience mise en avant par Elon Musk en avril ait eu pour objet un singe jouant à un jeu vidéo.

Cette industrie de loisir est en effet devenue un marché de masse : en 2019, elle avait généré 120 milliards de dollars de chiffre d’affaires au niveau mondial. Un chiffre qui a encore progressé avec les confinements, pour atteindre près de 140 milliards de dollars. D’ailleurs, à la question d’un internaute : « Cette technologie pourra-t-elle être utilisée pour le jeu vidéo ? », un collaborateur d’Elon Musk répond sans ambiguïté : « oui, à 100 %. »

Du reste, si l’implant Neuralink peut être « explanté », ce n’est pas seulement pour laisser à l’utilisateur la liberté de choisir de s’en passer… mais bien aussi avec la volonté de le pousser à consommer ! Comme l’a dit lui-même Elon Musk lors de se présentation : « Comment ferions-nous quand la version 2 sera sur le marché, puis la version 3 ? ». Un basculement du domaine médical, hyperspécialisé, à la grande consommation…

Vers des technologies de grande consommation « dé-médicalisées » ?

Les implants cochléaires, qui n’amplifient pas les sons, mais stimulent électriquement le nerf auditif, constituent un exemple concret de neuroprothèse améliorant le quotidien de personnes malentendantes. Et ce depuis des décennies : la première implantation d’un tel dispositif remonte à 1957.

Plus près de nous, des essais pilotes mettant en œuvre des interfaces cerveau-machine ont également permis de faire marcher des tétraplégiques ou de rendre la vue à des aveugles grâce à des implants rétiniens.

Mais ces technologies, testées en laboratoire, ne sont pour l’instant pas largement accessibles. Les interfaces cerveau-machine ne prendront réellement leur essor que lorsque leur technologie se sera banalisée, que leur coût aura diminué, et que leur implantation ne nécessitera plus que quelques heures d’intervention, sans hospitalisation. Elon Musk et ses collaborateurs l’ont bien compris.

On assistera alors peut-être à leur « dé-médicalisation ». On sait que la musicothérapie permet d’améliorer les symptômes dépressifs. On pourrait donc imaginer qu’un implant cérébral visant à traiter un patient en dépression puisse aussi lui faire entendre de la musique. Mais pourquoi seules les personnes dépressives pourraient-elles bénéficier de ces services ? Pourquoi seraient-elles les seules « connectées » ? La même question pourrait se poser concernant des implants qui permettraient à des personnes tétraplégiques d’interagir avec leur environnement, qu’il s’agisse d’objets connectés, de jeux vidéo, ou de sites d’achats en ligne

Si les frontières entre « l’humain réparé » et « l’humain augmenté » sont parfois floues, celles entre soin et bien-être sont éminemment poreuses… C’est peut-être là que se cache le loup : les trois petits cochons d’Elon Musk sont « HEU-REUX » nous a-t-on répété à l’envi lors du show youtubesque. D’autant plus que, « de toute façon, tout ce qu’ils aiment, c’est manger ». Cette déclaration, destinée à rassurer, peut paradoxalement également faire naître l’image, difficile à chasser, d’une possible humanité implantée, « HEU-REUSE », qui, « de toute façon, n’aime que consommer »…

La géographie de la malédiction des ressources naturelles vue du ciel brésilien

Auteurs

  1. Pierre-Guillaume MéonProfessor of economics, Université Libre de Bruxelles (ULB)
  2. Phoebe W. IshakPostdoctorante, CNRS et école d’économie de Aix-Marseille, Faculté d’économie et de gestion (FEG), Aix-Marseille Université (AMU)

Déclaration d’intérêts

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

Partenaires

Aix-Marseille UniversitéUniversité Libre de Bruxelles et AUF (Agence Universitaire de la Francophonie) fournissent des financements en tant que membres adhérents de The Conversation FR.

Voir les partenaires de The Conversation France

CC BY NDNous croyons à la libre circulation de l’information
Reproduisez nos articles gratuitement, sur papier ou en ligne, en utilisant notre licence Creative Commons.

Republier cet article

Les communes productrices d’énergie attirent des travailleurs et des capitaux aux dépens de leurs voisines. Nelson Almeida/AFP

 

L’augmentation actuelle du prix de l’énergie se fait durement sentir en Europe et plus généralement dans les pays importateurs d’hydrocarbures. Cependant, nos importations sont aussi les exportations des pays producteurs, qui devraient a priori bénéficier de l’augmentation du prix de leurs exportations. L’augmentation du prix des hydrocarbures est-elle pour autant une bonne nouvelle pour eux ?

Étonnamment, les travaux empiriques menés depuis bientôt une trentaine d’années incitent à une réponse prudente. À l’échelle macroéconomique, on a observé que les pays exportateurs de ressources naturelles croissaient moins rapidement que les autres. On a ainsi commencé à parler d’une malédiction des ressources naturelles.

Paradoxalement, les pays producteurs de ressources naturelles jouissent également d’un revenu par habitant plus élevé. De plus, si on passe de comparaisons entre pays à des comparaisons de régions d’un même pays ou d’un continent, on observe que celles qui exploitent des ressources naturelles ne s’en portent que mieux. C’est en tout cas ce qu’on a observé aux États-Unis, au Pérou ou en Afrique sub-saharienne. On observe donc un paradoxe entre des résultats ambigus à l’échelle macroéconomique et des résultats concordants et optimistes à l’échelle régionale.

Pour le résoudre, il faut être capable d’observer finement l’effet des ressources naturelles à l’intérieur d’un pays. C’est ce que fait notre étude (à paraître) consacrée au Brésil.

Vos dons donnent de la voix aux chercheur•euses

Faire un don

L’œil des satellites

Le Brésil constitue un cas d’école parce qu’il produit du pétrole et du gaz, mais dans des quantités trop faibles pour influencer leurs cours mondiaux. De plus, le pays a adopté un mécanisme de partage automatique des bénéfices du pétrole et du gaz entre ses communes en fonction de la présence de puits sur leur territoire ou à proximité de leurs côtes et du passage d’oléo – et de gazoducs.

On peut donc estimer l’effet du prix des hydrocarbures sur les communes brésiliennes sans que l’estimation soit contaminée par un effet en retour. On peut en outre nettement distinguer l’effet du prix des hydrocarbures sur les communes productrices et sur les autres, puisque les revenus des unes et des autres sont précisément déterminés par le mécanisme automatique de partage.

Il faut toutefois relever un défi de taille : mesurer l’activité économique à l’échelle des communes. Or, les données de PIB municipal sont inutilisables parce qu’elles sont déduites de la production d’hydrocarbure et mèneraient donc à une estimation tautologique. La solution est venue de la NASA et des données du Defense Meteorological Satellite Program Operational Linescan System (DMSP-OLS) qui recense les émissions lumineuses de nuit captées par satellite depuis 1992.

Les émissions lumineuses du Brésil captées par satellite en 1992. Auteurs à partir des données du National Oceanic and Atmospheric Administration
Les émissions lumineuses du Brésil captées par satellite en 2001. Auteurs à partir des données du National Oceanic and Atmospheric Administration
Les émissions lumineuses du Brésil captées par satellite en 2013. Auteurs à partir des données du National Oceanic and Atmospheric Administration

Un ensemble de travaux menés depuis une quinzaine d’années montre que l’intensité des émissions lumineuses de nuit fournit une approximation raisonnable de l’activité économique. Comme les satellites mesurent ces émissions avec une précision d’environ un kilomètre carré, on peut les agréger pour calculer les émissions lumineuses des communes.

Un autre avantage des émissions lumineuses est qu’elles réagissent à l’activité, quelle qu’elle soit. En particulier, elle ne se restreint pas aux activités officiellement enregistrées mais inclut également l’économie informelle ou souterraine, qui échappe aux statistiques officielles mais représente pourtant une activité. Il ne reste donc plus qu’à étudier la relation entre les recettes d’hydrocarbures perçues par les municipalités et leurs émissions lumineuses.

Attention aux voisins

Comme l’objet de l’étude est de mesurer l’effet du prix des hydrocarbures non seulement sur les communes productrices mais surtout sur les autres, on passerait à côté de l’information pertinente en étudiant simplement la corrélation entre les revenus issus des hydrocarbures d’une commune et ses émissions lumineuses.

Un recours à l’économétrie spatiale, un ensemble de méthodes statistiques qui permettent de relier les émissions lumineuses d’une commune à celle de ses voisines, permet d’estimer comment les revenus d’une commune affectent sa propre activité mais aussi celle des communes environnantes, ce qui permet de mesurer les effets de débordement d’une commune sur les autres.

Les résultats confirment que les communes productrices de pétrole profitent de leurs ressources naturelles : elles émettent davantage de lumière lorsque le prix des hydrocarbures augmente. Plus précisément, selon nos estimations, une augmentation de 10 % des revenus issus des hydrocarbures augmente l’activité mesurée par les émissions lumineuses de 1,4 %.

En revanche, l’activité des communes situées dans un rayon de 150 kilomètres autour des communes productrices se ralentit. Toujours selon nos estimations, la diminution de l’activité provoquée par l’augmentation des revenus des communes voisines est comparable à ce que gagnerait la commune si ses revenus augmentaient du même montant. On observe le même phénomène lorsqu’on étudie l’évolution des salaires.

Le tour des régions

Une autre façon d’observer les effets de débordement consiste à travailler à l’échelle régionale en agrégeant les revenus d’hydrocarbures et les émissions lumineuses. L’effet qu’on observe alors est la somme des effets directs des revenus d’hydrocarbures sur les communes productrices et des effets de débordement qu’elles imposent à leurs voisines et que leurs voisines leur imposent.

Lorsqu’on procède de cette façon, on n’observe plus de relation entre revenus d’hydrocarbures et activité. Le bonheur des unes a fait le malheur des autres et les deux effets se compensent à l’échelle régionale.

Une hypothèse permettant d’expliquer ce résultat est que, pour se développer, les communes productrices attirent des travailleurs et des capitaux aux dépens de leurs voisines. En se développant grâce aux hydrocarbures, elles priveraient donc les autres des ressources nécessaires à leur propre développement.

Les résultats de l’étude soulignent la dimension géographique de l’effet de l’exploitation des ressources naturelles sur l’activité. Ce qui est une bénédiction pour les communes productrices peut être une malédiction pour leurs voisines, au risque d’accroître les inégalités régionales et de provoquer des tensions politiques. Pour être équitable et politiquement soutenable, l’exploitation de ressources naturelles devrait donc s’accompagner d’un mécanisme de partage de leurs bénéfices et d’une politique d’aménagement du territoire.