• Actualités régionales
    • Communes limitrophes
    • Régionales
  • Adhésion
  • André Lhote
  • Au-delà du 14 juillet, des interrogations tenaces sur l’usage des armées
  • Auteurs morts en 17, (déjà…)
  • BD « Sciences en bulles » : À la recherche des exoplanètes
  • Bonnes feuilles : Le château d’If, symbole de l’évasion littéraire
  • Comment la lecture enrichit l’éducation des enfants
  • Corruption, contrebande : le drame de Beyrouth et la question de la sécurité dans les zones portuaires
  • Des crises économiques à la crise de sens, le besoin d’une prospérité partagée
  • Evènements
  • Lecture : comment choisir un album qui peut vraiment plaire aux enfants
  • L’économie fantôme de l’opéra
  • L’Europe s’en sortirait-elle mieux sans l’Allemagne ?
  • Maladie de Lyme : attention au sur-diagnostic !
  • Mirmande
    • Pages d’histoire
    • AVAP et PLU
    • Fonds de dotation et patrimoine
  • NutriScore : quand l’étiquetage des aliments devient prescriptif
  • Penser l’après : Le respect, vertu cardinale du monde post-crise ?
  • Podcast : le repos, une invention humaine ?
  • Prévoir les changements climatiques à 10 ans, le nouveau défi des climatologues
  • Qui sommes-nous?
  • Réforme de la taxe d’habitation… et si la compensation financière n’était pas le seul enjeu ?
  • Revues de presse et Chroniques
  • S’INSCRIRE AU BLOGUE
  • Scène de crime : quand les insectes mènent l’enquête
  • The conversation – Changement climatique : entre adaptation et atténuation, il ne faut pas choisir
  • Une traduction citoyenne pour (enfin) lire le dernier rapport du GIEC sur le climat

Mirmande PatrimoineS Blogue

~ La protection des patrimoines de Mirmande.com site

Mirmande PatrimoineS Blogue

Archives Mensuelles: septembre 2019

Circulation, vitesse, accès : comment sauver le périph ?

30 lundi Sep 2019

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

The Conversation

  1. François Lévêque

    Professeur d’économie, Mines ParisTech

 

CC BY ND
Le périph s’invite dans la campagne des municipales 2020. Frédérique Voisin-Demery/Flickr, CC BY
 

Plus d’un million d’automobilistes empruntent chaque jour le périphérique parisien. Combien seront-ils demain ? Beaucoup moins s’il est transformé en boulevard avec feux tricolores et plates-bandes. Plus un seul s’il est détruit et remplacé par des logements, des bureaux, des arbres… L’approche des élections municipales en mars 2020 libère l’imagination. Si elle est nécessaire, il faut aussi savoir garder les pieds sur l’asphalte.

Faire un tour d’analyse économique du périphérique et de sa transformation future est moins amusant mais sûrement pas inutile !

Tourner sur le périph

Quelques éléments d’abord pour les lecteurs qui n’auraient jamais roulé sur cette simili-autoroute urbaine.

Vous pouvez parcourir les 35 km de cette voie communale un peu spéciale d’une seule traite. Ni feux rouges ni ronds-points, mais un trajet d’une demi-heure tout de même car la vitesse y est limitée à 70km/h. Vous y entrez et en sortez par une de ses 38 portes, dont les noms du Point du Jour à la Villette « s’égrènent comme les grains d’un chapelet ».

Attention de ne pas vous tromper de sens, le périphérique se dédouble : le périphérique intérieur tourne dans le sens des aiguilles d’une montre ; le périphérique extérieur dans le sens inverse. Les deux chaussées sont séparées par un terre-plein central fréquemment colonisé par l’Ailante glanduleux (un arbuste qui résiste bien à la pollution et à la sécheresse)… et par divers déchets apportés par le vent ou jetés par des automobilistes indélicats.

Sachez enfin que vous circulerez le plus souvent sur quatre voies, mais parfois sur trois, voire sur deux et la moitié du temps en tranchée ouverte ou couverte, vous empêchant de profiter d’une vue imprenable sur Paris et sa Petite Couronne.

Que reproche-t-on à cet ouvrage à peine cinquantenaire ?

À son inauguration en 1973, il était synonyme de vitesse et de décongestion de la voirie parisienne. Et tout le monde, ou presque, ignorait alors que l’automobile polluait. Le bruit et les accidents entraînant morts et blessés étaient ses seuls méfaits.

Vue aérienne prise le 22 avril 1973 du périphérique de la porte Maillot, avec sur la droite le Bois de Boulogne et l’entrée de Neuilly-sur-Seine. AFP
En 1973, la construction du périphérique s’achève. (Ina Société, 2012).

Bouchons et pollution

Aujourd’hui, le périphérique est très souvent embouteillé et il est solidement établi que les émissions des véhicules entraînent maladies et décès prématurés.

En 1996, la vitesse moyenne s’y élevait à 66km/h. Elle est tombée, l’an dernier, à un peu moins de 40 km/h. Et encore ce chiffre inclut-il la circulation nocturne, plus rapide. Si vous êtes francilien, vous savez que vous n’avancerez guère en début de matinée ni en fin d’après-midi.

Cette congestion est doublement néfaste. Elle augmente les temps de trajet, ce qui se traduit par des pertes économiques en euros (voir à ce propos ma note sur la congestion du périphérique). Elle aggrave également la pollution. En effet, pour minimiser les émissions dans l’atmosphère, il faudrait idéalement rouler entre 60 km/h et 80 km/h. Au-delà, cela ne vous surprendra pas, les rejets dans l’atmosphère augmentent. Mais en deçà, c’est pareil ! À 20km/h, la pollution double par rapport à 70km/h et elle quadruple à 15km/h !

Les moteurs thermiques n’ont pas été conçus pour rouler à des vitesses basses. Ils n’ont pas été non plus été conçus pour jouer de l’accordéon : les arrêts-redémarrages des bouchons sont la pire des choses pour les poumons. D’où l’importance d’un trafic le plus fluide possible pour réduire les émissions.

Même si nos bronches semblent d’avis contraire, la qualité de l’air à Paris s’améliore. En tendance longue, les niveaux mesurés de dioxyde d’azote, de microparticules et de benzène diminuent. En est-il de même pour la pollution circonscrite au périphérique ? On ne sait pas.


À lire aussi : Ozone et particules fines dans les poumons des petits Parisiens


Aucun doute en revanche sur le fait que le million de véhicules qui le parcourent quotidiennement contribue significativement à détériorer la qualité de l’air de Paris et de ses alentours, qualité désormais jugée unanimement alarmante car entraînant de graves dommage pour la santé des habitants.

Il existe ainsi aujourd’hui un large consensus pour réduire la pollution et la congestion du périphérique. Mais comment s’y prendre ? En ces temps de précampagne pour conquérir (ou reconquérir) la Mairie de Paris, deux propositions ont jusqu’ici retenu l’attention.

Supprimer le périph ?

Un candidat déclaré, Gaspard Gantzer, propose tout simplement de rayer le périph de la carte. Pas du jour au lendemain, bien sûr. Il est prévu que le projet s’étale sur une durée de 15 ans, les fermetures se réalisant tronçon par tronçon. Plusieurs centaines d’hectares pourraient être ainsi récupérés pour des logements, des commerces, des bureaux et des espaces verts. Le procédé est radical.

Mais comment effacer de l’asphalte en si peu de temps les automobilistes qui empruntent le périph ? Son trafic est supérieur au cumul de celui des deux autres rocades, l’A86 et la Francilienne. De plus, son volume en passagers est impossible à absorber par les transports en commun, même en incluant le futur Grand Paris Express.

BFM Paris

✔@BFMParis

Municipales: le plan de Gaspard Gantzer pour supprimer le périphérique parisien https://buff.ly/30AntfT 

View image on TwitterView image on Twitter

27

9:04 AM – May 23, 2019
Twitter Ads info and privacy
34 people are talking about this

Sa destruction devrait dès lors entraîner un phénomène massif de report de la circulation sur d’autres voies… et donc un transfert de grande ampleur de la pollution et de la congestion ailleurs. Le problème est en grande partie simplement déplacé. Reconnaissons toutefois à cette proposition le mérite d’avoir relancé le débat et les réflexions sur le futur du périphérique.

Les élus de la Ville de Paris n’ont en effet pas tardé à s’emparer du sujet. Un rapport débouchant sur une série de propositions a été publié en mai dernier. Il prévoit de transmuter le périphérique en boulevard avec feux rouges et zones vertes pour le milieu du siècle. S’y croiseraient, dans un climat apaisé et un air pur, piétons, sportifs, cyclistes et véhicules propres venant de Paris et de sa banlieue.

En attendant que cette transformation idyllique se concrétise, la majorité des élus, dont la maire Anne Hidalgo, proposent de réduire le nombre de voies de circulation, de limiter la vitesse et de créer des voies dédiées… Autant de bonnes idées ? Examinons-les de plus près.

Le Parisien

✔@le_Parisien

«En 2014, on a abaissé la vitesse à 70 km/h, sous le feu des polémiques, et aujourd’hui tout le monde est content (…) Le périph’ à 50 km/h, on va y travailler rapidement», annonce Anne Hidalgo http://www.leparisien.fr/info-paris-ile-de-france-oise/transports/anne-hidalgo-le-periph-a-50-km-h-on-va-y-travailler-rapidement-28-05-2019-8081658.php …

View image on Twitter

22

6:53 AM – May 29, 2019
Twitter Ads info and privacy
80 people are talking about this

Réduire le nombre de voies, surtout pas

Le passage du périphérique à deux fois trois voies, au lieu de deux fois quatre voies, est une mesure en droite ligne de la politique menée dans Paris intra-muros depuis des lustres. Elle consiste à réduire la surface viaire pour dissuader les automobilistes, confrontés à des embouteillages croissants, d’emprunter leur voiture pour se déplacer.

C’est un pari risqué car il engage une course de vitesse entre la détérioration de la circulation et l’amélioration du confort des habitacles et des possibilités d’y travailler ou de s’y distraire. Connexion et commande vocale permettent dans les bouchons de traiter messages électroniques et téléphoniques ou d’échanger en continu sur les réseaux sociaux.

Par ailleurs, la réduction de la vitesse entraînée par celle de la voirie aggrave très probablement la pollution. En dix ans, la vitesse moyenne dans Paris intra-muros est passée de 16 km/h à 14km/h. Outre son inefficacité probable dans l’amélioration de la qualité de l’air, la restriction de la surface pour la circulation des véhicules légers affecte indifféremment toutes les voitures, des moins polluantes aux plus polluantes, et tous les types de déplacement, ceux du médecin ou de l’artisan comme ceux qui permettent se rendre au magasin ou au cinéma.

Or le bon réflexe économique lorsqu’une ressource devient rare est de sélectionner les utilisateurs et les usages. Cela reviendrait ici à favoriser l’accès de la voirie aux véhicules légers les moins émetteurs et aux déplacements les plus utiles. Des voies dédiées sont bien prévues sur le périphérique. Cette mesure est discutée plus bas. Mais pourquoi, en plus, restreindre le nombre total de voies au risque d’augmenter les émissions ?

Baisser la vitesse à 50km/h, mauvaise idée

Abaisser la limite de vitesse sur le périphérique de 70km/h à 50km/h présente également une efficacité douteuse pour réduire la pollution. Attention ici aux conclusions à l’emporte-pièce : « Cela ne sert à rien car de toute façon on roule déjà à moins de 40km/h dans la journée » ; ou encore : « Le seul effet sera que les voitures qui roulaient entre 50 et 70 km/h rouleront désormais à 49-50km/h ».

Certes la vitesse en journée est de 35,5 km/h mais il s’agit d’une moyenne, pas d’une borne supérieure ! L’abaissement de la limite de vitesse, radars aidant, va bien écrêter la circulation entre 50 km/h et 70 km/h ; mais les véhicules circulant auparavant dans cet intervalle ne vont pas tous se retrouver à rouler juste en dessous de la nouvelle limite de vitesse. Ils sont beaucoup trop nombreux ! L’écrêtement va se diffuser à l’ensemble des classes de vitesses. Il y aura en particulier davantage de pics de circulation lente à moins de 20km/h. La vitesse moyenne va donc chuter très en deçà du niveau actuel.

La mauvaise nouvelle est que cette diminution des vitesses va augmenter la pollution ; la bonne est que le ralentissement généralisé réduit le débit et donc le nombre total de kilomètres parcourus dans une journée par l’ensemble des véhicules (voir la note sur la congestion) et donc les quantités d’émissions. Bref, davantage d’émissions polluantes par kilomètre, mais moins de kilomètre parcourus.

Seuls les travaux de modélisation des ingénieurs du trafic permettraient de connaître la résultante de ces deux effets opposés. Il est dommage que l’abaissement de la limite de vitesse ait été proposé et présenté comme favorable à la qualité de l’air sans de tels travaux préalables. De même, il est regrettable que la précédente baisse de la limite de vitesse, le passage contesté de 80km/h à 70km/h en 2014, n’ait toujours pas fait l’objet d’une évaluation de ses conséquences sur la congestion et la pollution.

L’option des voies dédiées

L’ouverture de voies sur le périphérique réservées aux véhicules propres – voitures partagées, taxis, minibus, et véhicules prioritaires (ambulances, pompiers, services de secours) – est en principe une bonne idée. Les voies dédiées présentent en effet un double intérêt : primo, elles offrent une circulation fluide et fiable pour des déplacements socialement utiles. Secundo, elles délivrent une incitation à l’acquisition de véhicules propres et au covoiturage dès lors qu’ils sont autorisés à l’emprunter.

Ces bénéfices ne seront pourtant vraisemblablement pas au rendez-vous avec la proposition actuelle des élus qui prévoit une file réservée sur chaque chaussée du périphérique. Pourquoi ? Pour une bête histoire de cisaillement. Supposons que la voie dédiée soit celle de gauche, au plus près du terre-plein central donc. Pour l’atteindre ou la quitter, les véhicules autorisés devront couper les deux fils de droite. Si la voie dédiée est celle de droite, ce sont les véhicules non autorisés qui devront cette fois la couper à l’entrée comme à la sortie.

Or le périph compte 38 points d’accès comportant chacun une entrée et une sortie, soit environ un cisaillement tous les 400 mètres pour chaque sens. Ces cisaillements incessants conduiront à augmenter les ralentissements, y compris sur la voie réservée, ainsi que la congestion des voies d’accès, dont souffriront aussi les véhicules autorisés. Sans parler des problèmes de sécurité. Rien à voir avec des voies dédiées sur autoroute urbaine à entrées-sorties espacées où de tels aménagements ont déjà été réalisés et donnent satisfaction.

Bref, un chaos quasi-assuré et des émissions de gaz d’échappement très élevées car, répétons-le, les vitesses basses et les arrêts-départs sont ce qu’il y a de pire pour la qualité de l’air.

Pas de soute, c’est bien bouché sur le périph. (gaumet75013/Youtube, 2015)

Soyons constructif !

En résumé, aucune de ces propositions ne trouve grâce à mes yeux d’économiste. La critique est aisée et l’art est difficile, pourriez-vous à juste titre me rétorquer. Laissez-moi donc conclure avec une autre proposition. Et, rassurez-vous, je ne vais pas ressortir le péage urbain – même si je crois en ses vertus. Vilipendée lors des manifestations des « gilets jaunes », plus aucune agglomération n’envisage d’ailleurs ce type de mesure.

La proposition est la suivante : réserver la totalité d’une des deux chaussées – le périphérique intérieur ou extérieur – aux déplacements vertueux (véhicules propres, covoiturage, services de secours et de sécurité, trajets de professionnels, etc.), et ce en maintenant la limite de vitesse à 70 km/h, voire en la rehaussant à 80 km/h, si les études de trafic la montrent plus judicieuse.

Cette solution réduirait considérablement les cisaillements car les véhicules seraient beaucoup moins nombreux ; et les vitesses sur les voies seraient plus uniformes, permettant des temps de trajet plus fiables car non soumis aux aléas de la congestion. En outre, les entrées-sorties seraient plus faciles.

Elles seraient en effet plus espacées car la circulation en chaussée dédiée ne sera possible que dans un seul sens. Pour le comprendre, supposons que le périphérique intérieur et sa circulation dans le sens des aiguilles d’une montre soient retenus pour accueillir les véhicules autorisés. Ces derniers pourront alors se rendre directement, comme aujourd’hui, de la Porte d’Italie à la Porte d’Auteuil en parcourant le quart sud-ouest du périphérique. Mais pour le chemin inverse, ces véhicules autorisés devront faire un trois quarts de tour en passant au nord par la Porte de La Chapelle.

À moins, bien sûr, de se mélanger aux autres véhicules en empruntant le périphérique extérieur tournant, lui, dans l’autre sens. Le choix de l’automobiliste sera entre rouler plus vite et avec une fiabilité accrue sur une plus grande distance ou plus lentement sur une plus courte distance où il sera soumis aux aléas de la congestion. Pour le périphérique extérieur ouvert à tous, même contrainte du sens unique sauf que ces véhicules ne pourront évidemment pas se reporter pour éviter le circuit long sur le périphérique intérieur puisqu’il est réservé. Ce sens unique et le détour qu’il impose devraient ainsi limiter l’usage du périph pour des trajets courts. Ce qui n’est pas un mal car ils présentent une moindre utilité sociale et rendent le trafic moins fluide.

En outre, une chaussée dédiée, en lieu et place de deux voies réservées aux véhicules propres de chaque côté du terre-plein central (comme dans le projet actuel de la Mairie de Paris) simplifierait grandement le contrôle des véhicules. Il suffit en effet d’équiper en caméras de surveillance, portiques, capteurs et autres instruments électroniques une moitié seulement du périphérique. Même chose pour le stationnement de la maréchaussée. De plus, le contrôle n’est nécessaire qu’aux entrées-sorties. Nul besoin de surveillance tout le long du périph pour détecter les incursions sur quelques dizaines ou centaines de mètres des voies dédiées par des véhicules non autorisés.

À votre tour maintenant de tirer à boulet rouge sur cette proposition. Mais attention si vous réagissez par texto de votre voiture encalminée sur le périph, gardez tout de même votre calme…

Jacques Chirac, un « bulldozer » en politique

29 dimanche Sep 2019

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

 

The Conversation

  1. Pierre Bréchon

    Professeur émérite de science politique, Sciences Po Grenoble, Auteurs fondateurs The Conversation France

CC BY ND
Jacques Chirac (ici en 2005) aura marqué la vie politique française d’après–Mai 68. World Economic Forum/Flickr, CC BY-NC-SA
 

Jacques Chirac est mort. Sa famille l’a annoncé, jeudi 26 septembre, auprès de l’Agence France Presse. « Le président Jacques Chirac s’est éteint ce matin au milieu des siens. Paisiblement », a déclaré son gendre Frédéric Salat-Baroux, époux de Claude Chirac.

La santé de Jacques Chirac s’était dégradée depuis son départ de l’Élysée en 2007, conséquence notamment d’un accident vasculaire cérébral survenu en 2005, durant son second mandat de président de la République. Il avait été hospitalisé pour une infection pulmonaire en 2016.

Une carrière de haut fonctionnaire engagé

Né en 1932, petit-fils d’instituteurs de la Corrèze, Jacques Chirac est socialisé très jeune aux valeurs de la République et aura quelques velléités d’engagement communiste. Il fait de brillantes études : Institut d’études politiques de Paris, puis École Nationale d’Administration.

Une année sabbatique aux États-Unis pendant ses études à Sciences Po Paris, un mariage dans une famille de l’aristocratie parisienne, un service militaire volontaire en Algérie, un nationalisme républicain contribuent probablement à son évolution vers le gaullisme en 1958.

Sa carrière de haut fonctionnaire engagé va lui permettre une ascension politique très rapide, selon un modèle qu’on peut retrouver dans d’autres familles politiques. Il est, dès 1962, chargé de mission au cabinet du premier ministre, Georges Pompidou, dont il devient un ardent partisan, étant probablement plus pompidolien que gaulliste. Il est un collaborateur apprécié, baptisé par son patron « mon bulldozer ».

Jacques Chirac est parachuté dans sa Corrèze natale pour les élections législatives de 1967, après avoir été élu conseiller municipal de Sainte Féréole en 1965. Il fait partie d’une génération de « jeunes loups » que les gaullistes lancent en politique pour assurer la relève des générations. Contre toute attente, il remporte ce fief du communisme rural, après une campagne très active, alors que le contexte national n’est pas favorable à son camp.

Jacques Chirac en famille, dans les années 70. Flashback/Flickr, CC BY-NC-SA

À 35 ans, le jeune député devient immédiatement secrétaire d’État à l’emploi, ce qui lui vaut de jouer un rôle actif auprès du premier ministre, Georges Pompidou, pendant la négociation des accords de Grenelle, en mai 1968. Il exerce ensuite plusieurs fonctions ministérielles, d’importance croissante, devenant ministre de l’Intérieur au début de 1974. Pendant la campagne présidentielle qui suit la mort de Georges Pompidou, il préfère appuyer la candidature du libéral Valéry Giscard d’Estaing plutôt que celle du gaulliste Jacques Chaban-Delmas.

Premier ministre

L’apport décisif de Jacques Chirac à la victoire giscardienne lui vaut d’être nommé premier ministre. Il défend – sans être toujours convaincu – les grandes réformes du début du septennat : majorité à 18 ans, instauration du divorce par consentement mutuel, légalisation de l’avortement, réforme de l’audiovisuel…

Mais ses rapports avec le président deviennent très vite conflictuels. Estimant ne pas avoir les moyens de mener la politique qu’il souhaiterait faire, il démissionne en 1976 et refond le parti gaulliste dans une stratégie de critique de la droite libérale au pouvoir, défendant alors un « véritable travaillisme à la française ». Il devient maire de Paris en 1977 après une bataille acharnée avec le candidat du pouvoir giscardien, ce qui lui donne des moyens très renforcés d’action politique. Il conservera ce mandat durant 22 ans jusqu’en 1995.

Il mène sa première campagne présidentielle en 1981. Chirac s’oppose toujours au président sortant, mais avec une orientation idéologique très différente puisqu’il se convertit au néo-libéralisme.

Largement distancé par Valéry Giscard d’Estaing au premier tour, il ne l’appuie que très modérément au second. Environ 15 % de l’électorat gaulliste vote en fait pour François Mitterrand, qui l’emporte.

Opposant en chef

Jacques Chirac devient alors le leader de l’opposition au « pouvoir socialo-communiste », ce qui aboutit à une victoire de celle-ci aux législatives de 1986. Le RPR ayant davantage de députés que l’UDF, François Mitterrand choisit Jacques Chirac comme premier ministre. « Cohabitant » avec un président socialiste, il exerce en fait la plus grande part du pouvoir, contrairement à son premier mandat de chef de gouvernement (1974-1976), où il était très contrôlé par Valéry Giscard d’Estaing. Il mène une politique économique libérale, avec notamment de nombreuses privatisations et la suppression de l’impôt de solidarité sur la fortune.

Le Chirac conquérant version 1986. DR

Mais après deux années de cohabitation, la popularité de Jacques Chirac s’est nettement dégradée alors que François Mitterrand s’est refait une santé en incarnant le rôle du président–chef de l’opposition. Ce dernier est donc facilement réélu, en mai 1988, pour un second mandat présidentiel, alors que Jacques Chirac fait des scores plutôt modestes (20 % des suffrages au premier tour, 46 % au second).

À nouveau dans l’opposition, Jacques Chirac doit faire face à des divisions internes à son parti, mais il en conserve le contrôle et prépare les législatives de 1993, très largement gagnées dans un contexte de désaveu de la gauche, après deux mandats présidentiels socialistes.

Jacques Chirac, tirant les leçons de ses deux expériences de premier ministre, qui n’avaient pas constitué les tremplins espérés vers la présidence de la République, laisse Édouard Balladur, un de ses très proches collaborateurs, qui avait été son ministre de l’Économie, des Finances et de la Privatisation lors de la première cohabitation, exercer cette fonction, se réservant pour l’élection présidentielle de 1995.

À la troisième tentative

Mais la forte popularité d’Édouard Balladur dans l’opinion le conduit à se présenter lui-même, ce qui génère une guerre fratricide étonnante.

Beaucoup au RPR considèrent le combat de Jacques Chirac perdu d’avance et lui conseillent de renoncer pour ne pas faire perdre son camp. Contre toute attente, là encore, après une campagne conduite autour d’un diagnostic – plutôt de gauche – sur la « fracture sociale » qu’il convient de combler, il parvient à renverser les pronostics sondagiers et à prendre l’avantage au premier tour – de peu – sur le premier ministre sortant (20,8 % contre 18,6 %). Il est assez facilement élu au second tour contre Lionel Jospin.

C’est donc à sa troisième tentative, après une campagne à rebondissements, qu’il atteint le sommet, manifestant ainsi une grande obstination dans ses combats pour l’exercice du pouvoir politique.

Mais l’exercice de la fonction suprême ne va pas être une promenade de santé. Son premier ministre, Alain Juppé, mène une politique de rigueur budgétaire et doit affronter dès l’automne 1995 un mouvement social très important contre sa réforme des retraites et de la Sécurité sociale.

En 1996, le président Chirac annonce la suspension du service militaire obligatoire et le lancement d’une politique de professionnalisation des armées.

La popularité de l’exécutif étant fortement effritée, Jacques Chirac crée la surprise en décidant de dissoudre l’Assemblée nationale en avril 1997, un an avant le terme du mandat, estimant être alors en meilleure position pour conserver la majorité qu’en laissant s’écouler une année supplémentaire.

Ayant dissous en semblant vouloir poursuivre la même politique, Jacques Chirac perd son pari et doit, à son tour, accepter une cohabitation avec la gauche. Il est en fait privé d’une large partie de son pouvoir, exercé par le nouveau Premier ministre, Lionel Jospin, leader des socialistes, pendant les cinq dernières années de son premier mandat.

Réélu avec 82 % des suffrages

Il maintient – contre le souhait de certains de ses partisans – une stratégie de cordon sanitaire à l’égard du Front national, quel qu’en soit le prix électoral. Il doit faire face à des conflits de tendance internes au RPR et perd le contrôle de son parti. Chirac doit aussi accepter – sous la contrainte de Valéry Giscard d’Estaing et des socialistes – la réduction du mandat présidentiel à cinq ans avec une inversion du calendrier électoral, donc avec d’abord une élection présidentielle et en principe juste après, des législatives.

Il n’en reste pas moins très obstiné dans son combat en vue d’un second mandat. Il adopte une stratégie semblable à celle de François Mitterrand lors de la première cohabitation, attaquant son premier ministre sur sa politique, notamment sur son laxisme à l’égard des délinquants et proposant au contraire une approche sécuritaire.

Bénéficiant aussi de l’éclatement de l’UDF et de l’absence d’une autre candidature de poids à droite, ainsi que de la division que la gauche plurielle entre de nombreux prétendants, il devance – avec un score modeste pour un président sortant – Lionel Jospin lors du premier tour.

Opposé au second tour à Jean‑Marie Le Pen, il peut se dispenser de faire campagne et l’emporte avec 82 % des suffrages, score totalement inédit dans une élection présidentielle française.

Engagement pour l’environnement et politique anti-américaine

Ce franc succès lui permet de refaire en large partie l’unité de la droite, avec le lancement de l’UMP, Union pour la majorité présidentielle, rebaptisée ensuite Union pour un mouvement populaire. Mais il perd rapidement le contrôle de la nouvelle formation, dont Nicolas Sarkozy prend la tête fin 2004. Devenu assez pro-européen au fil de l’exercice de ses mandats, il souhaite faire ratifier le projet de Constitution européenne par référendum, opération à haut risque, qu’il va perdre nettement en 2005.

Chirac s’adresse à la nation suites aux émeutes dans les banlieues (2005). jalbertgagnier/Flickr, CC BY-ND

Outre une politique de baisse de l’impôt sur le revenu, des mesures fortes pour renforcer la sécurité routière, lutter contre le cancer et mieux indemniser les handicapés, son quinquennat est marqué par un engagement important en faveur de l’environnement dont une charte est mise au point et constitutionnalisée.

Surtout, il se distingue par une politique nettement anti-américaine, refusant d’associer la France à l’intervention militaire en Irak. Il doit faire face, fin 2005, à un mouvement d’émeutes dans les banlieues sensibles et au printemps 2006 à un mouvement social contre le contrat de travail première embauche, qui génère une opposition des syndicats de salariés et des mouvements étudiants, aboutissant au retrait du projet.

Les rapports du président de la République et du premier ministre, Dominique de Villepin, avec Nicolas Sarkozy vont se tendre, les deux derniers aspirant à être le candidat de l’UMP à la présidentielle de 2007.

Ayant mis le parti à son service, Nicolas Sarkozy est très largement intronisé candidat en janvier 2007 mais Jacques Chirac laisse planer le doute quant à une possible troisième candidature jusque début mars. Il annonce ensuite son soutien au candidat que son parti s’est choisi, abandonnant la polémique et le combat politique actif.

Jacques Chirac (ici en 2011), un retraité de la politique très populaire. Bryan Pelz/Flickr, CC BY-NC-ND

Dans sa retraite, Jacques Chirac va se consacrer à des actions en faveur de la prévention des conflits internationaux, du dialogue des cultures, des arts premiers et du développement durable. Il siège aussi au Conseil constitutionnel jusqu’en 2010.

Comme beaucoup d’hommes politiques de premier plan ayant quitté la difficile gestion des affaires publiques, il va retrouver une forte popularité dans l’opinion.

Il laisse le souvenir d’un homme au contact facile, aimant les bains de foule et le « cul des vaches », gardien des valeurs républicaines, défenseur de la tolérance face à l’altérité, très actif sur la scène internationale pour faire entendre la voix de la France et défendre un monde multipolaire.

Comment les aurochs et les chevaux sauvages ont disparu du continent européen

28 samedi Sep 2019

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

The Conversation

 

  1. Tim Flannery

    Professorial fellow, Melbourne Sustainable Society Institute, University of Melbourne

University of Melbourne

 

CC BY ND

 


Après la mort du dernier bœuf musqué européen, survenue dans ce qui est aujourd’hui la Suède, il y a environ 9 000 ans, il faut attendre le XVIIe siècle avant que le continent européen ne perde une autre de ses espèces. Étant donné les changements en œuvre dans les sociétés humaines, ce laps de temps entre deux extinctions est tout ce qu’il y a de plus extraordinaire : la population humaine de l’Europe s’est en effet multipliée par cent, les Européens sont passés de la chasse et la cueillette à l’agriculture, ils ont inventé des outils en bronze et en fer et leur organisation sociale est passée du niveau clanique à celui de l’Empire romain.

Extinction, dernier acte

L’extinction n’est que le dernier acte d’un processus habituellement long. Pendant tout ce temps, les grands mammifères d’Europe ont continué à subir la pression incessante et croissante de la chasse et de la concurrence du bétail domestique. Au fil des millénaires, leur distribution s’est restreinte, se limitant aux zones défavorables à l’occupation humaine, et peut-être aux régions frontalières entre tribus. Lorsque la vague d’extinctions s’abat au milieu du XVIIe siècle, elle prend rapidement de l’ampleur, balayant les derniers survivants groupe après groupe. Comme dans le cas des extinctions précédentes, elle affecte de façon disproportionnée les espèces les plus grandes, mais elle est si grave que même le castor eurasien, qui vivait autrefois dans les cours d’eau et les lacs de la Grande-Bretagne à la Chine, est pratiquement exterminé ; au début du XXe siècle, il ne reste que 1 200 spécimens vivants dans le monde. Les chiffres démontrent clairement que la cause de ces disparitions est une population humaine de plus en plus dense et dangereuse.

En 200 de notre ère, la population de l’Empire romain (qui couvre alors une grande partie de l’Europe, ainsi que certaines régions d’Afrique du Nord) est d’environ 50 millions d’habitants, soit cent fois plus que la population de l’Europe 11 000 ans auparavant. Il est important de noter qu’à l’époque romaine, entre 85 et 90 % de la population habite en dehors des villes, survivant grâce à ce qu’elle peut faire pousser ou attraper. Entre 200 et 1700, la population de l’Europe double pratiquement, atteignant environ 100 millions, mais le pourcentage de personnes vivant hors des villes reste similaire.

L’Empire romain en 200 avant J.-C. Thomas Lessman/Wikimedia, CC BY-SA

Au cours des deux siècles suivants, entre 1700 et 1900, la population de l’Europe quadruple pour atteindre 400 millions d’habitants. Pourtant, à l’exception de la Grande-Bretagne industrialisée (où la proportion de la population vivant en dehors des villes tombe à environ 75 %), 90 % des Européens vivent encore en dehors des villes. Dans la première moitié du XXe siècle, presque toutes les terres disponibles, à l’exception partielle des réserves de chasse royale, sont exploitées et doivent fournir un rendement. En Europe méditerranéenne, des centaines de millions de moutons et de chèvres parcourent les montagnes, consommant toutes sortes de végétation. Les collines et les montagnes, autant que possible, sont aménagées en terrasses pour la culture.

Un facteur important empêche cette grande expansion humaine de détruire encore plus d’espèces qu’elle ne l’a fait. Il dérive d’une attitude européenne particulière à l’égard de la chasse. À l’époque romaine, la chasse est principalement l’affaire des domestiques et des esclaves. Mais au Moyen Âge, elle prend une signification symbolique et s’insère dans un système social complexe. La caccia médiévale réserve la chasse de certains animaux à des groupes sociaux particuliers. Cette conception se répand rapidement et perdure pratiquement sans changement jusqu’à la Révolution française. Seuls les seigneurs et leurs familles peuvent chasser le gibier noble : le cerf élaphe, le sanglier, le loup et l’ours… Le petit gibier, comme le lièvre et le faisan, est généralement abandonné aux domestiques et aux fermiers.

Miniature d’une chasse seigneuriale au cerf. Musée national du Moyen âge

Réserves giboyeuses

À partir du Moyen Âge, les grandes réserves de gibier européennes voient le jour. Elles se maintiendront dans certains endroits jusqu’à la fin de la Seconde Guerre mondiale. L’un de leurs plus ardents partisans est le roi espagnol Alphonse XI (1311-1350). Habile chasseur, il rédige un traité sur la chasse très apprécié, dans lequel il décrit où trouver les ours et les sangliers les plus féroces dans les différentes réserves (montes) de son royaume, ainsi que la façon de les chasser et de les tuer.

Les Européens ne sont pas les seuls à avoir mis en place des coutumes qui protègent les espèces de gibier de grande taille et de prestige. De nombreuses cultures, y compris celles des Aborigènes d’Australie, protègent les habitats riches en gibier et limitent la consommation des aliments les plus savoureux aux hommes âgés. Les réserves de gibier royales sont loin de constituer un mécanisme de protection parfait pour les grands mammifères d’Europe, mais elles contribuent malgré tout à prolonger l’existence des derniers vestiges de sa grandeur naturelle.

Le funeste destin de l’aurochs

La première extinction qui afflige l’Europe occidentale continentale depuis la disparition du bœuf musqué 9 000 ans plus tôt a pour théâtre la forêt polonaise de Jaktorów, en 1627. L’aurochs est alors le plus beau témoignage vivant de l’ancienne Europe. Les taureaux, noirâtres et beaucoup plus gros que les vaches, pèsent jusqu’à 1,5 tonne, ce qui fait d’eux, avec le gaur, les plus gros bovidés ayant jamais existé sur Terre. Les vaches sont d’un brun rougeâtre et beaucoup plus petites. Les deux sexes ont une belle tête blanche et un corps athlétique : une poitrine large, de longues jambes surmontées par un cou et des épaules puissants, leur hauteur au garrot étant pratiquement égale à la longueur de leur corps. Leurs énormes cornes, mesurant jusqu’à 80 centimètres de long et 20 centimètres de diamètre, partent dans trois directions : vers le haut et vers l’extérieur à la base, puis vers l’avant et vers l’intérieur, et à la pointe, vers l’intérieur et vers le haut. La forme caractéristique de l’animal, et en particulier de ses cornes, est facilement identifiable dans de nombreuses représentations de l’époque glaciaire européenne.

Crâne d’auroch. Eden, Janine and Jim, CC BY

À l’époque romaine, l’aurochs est encore largement répandu, mais vers l’an 1 000 de notre ère, on ne le trouve plus que dans quelques régions du centre-est de l’Europe. Au XIIIe siècle, seule une dernière population se maintient autour de Jaktorów, dans la province polonaise de Mazovie. Aujourd’hui, la Mazovie est la région la plus peuplée de Pologne, mais il y a 700 ans, c’est un pays isolé et recouvert de forêts. D’autres grands mammifères sont couramment chassés par les nobles, mais les monarques locaux, les Piast, conscients de la valeur des aurochs, se sont réservé leur chasse. Toute infraction est punie de la peine de mort.

Selon l’historien des aurochs polonais, Mieczysław Rokosz :

Les princes locaux de la dynastie des Piast, et plus tard les rois de Pologne, n’ont jamais transigé sur leur droit de chasse exclusif aux aurochs, même devant les plus grands magnats, ecclésiastiques ou séculiers. Ils n’ont eux-mêmes jamais abusé de ce droit. Si l’on examine la situation des aurochs à la lumière de ce droit régalien et de la législation sur la chasse en vigueur, il paraît clair que le fait d’avoir exclu les aurochs des droits de chasse et de leur avoir accordé « un privilège sacré d’immunité » qui, selon une coutume ancienne, ne tombe que devant le roi, est la raison principale qui a permis à cette espèce de survivre aussi longtemps. Cette attention exceptionnelle et presque personnelle portée par les souverains polonais à ces animaux ainsi que leur volonté délibérée de les préserver pour la postérité ont prolongé la période de survie de cette magnifique espèce.

Malgré cette protection exceptionnelle, à la fin du XVIe siècle, les aurochs ne survivent que dans une petite zone située près de la rivière Pisa. Un rapport des inspecteurs du troupeau d’aurochs, rédigé en 1564, tente d’expliquer pourquoi la protection royale ne suffit pas à garantir le maintien des populations :

Dans les forêts vierges de Jaktorówski et de Wislicki, nous avons trouvé un troupeau d’environ 30 aurochs, dont 22 vaches adultes, trois jeunes aurochs et cinq veaux. Nous n’avons vu aucun mâle adulte, car ils s’étaient enfuis dans la forêt, mais les anciens gardes-chasses nous ont dit qu’il y en avait huit. Parmi les vaches, l’une est vieille et maigre, et ne survivra pas à l’hiver. Lorsque nous avons demandé aux gardes pourquoi les animaux étaient maigres et pourquoi leur nombre n’augmente pas, on nous a dit que les animaux des villageois, les chevaux, les vaches et le reste du bétail, empiètent sur le territoire des aurochs et les dérangent.

Sauvage forêt de Pologne. Jacek Karczmarz, CC BY-SA

Être la bête du roi est à la fois une bénédiction et une malédiction. Une bénédiction parce que personne ne peut vous tuer, mais une malédiction quand il s’agit de décider qui, des aurochs ou des vaches du village, aura accès aux pâturages. Lorsque la nourriture se fait rare, l’intérêt personnel des villageois l’emporte, et en 1602, le troupeau ne compte plus que trois mâles et une femelle. En 1620, il ne reste plus qu’une seule femelle, et lorsque l’inspecteur du roi revient voir les aurochs en 1630, il découvre qu’elle est morte trois ans auparavant.

Les chevaux sauvages disparaissent

Le déclin vers l’extinction des chevaux sauvages d’Europe est moins bien documenté. Au Paléolithique, les chevaux sauvages sont encore nombreux. Quelques milliers d’années plus tard, ils ont pratiquement disparu des plaines centrales européennes. En Grande-Bretagne, ils s’éteignent sur l’île il y a 9 000 ans, et il faut attendre 5 000 ans avant qu’ils ne soient réintroduits. Une situation similaire prévaut en Suisse, où les chevaux disparaissent il y a 9 000 ans et sont remplacés par des chevaux domestiques il y a 5 000 ans. Dans certaines régions de France et d’Allemagne, les chevaux sauvages, en voie d’extinction entre 7 500 et 5 750 ans avant notre ère, se reprennent, peut-être grâce au déboisement fait par l’homme qui leur ouvre davantage d’habitats. On observe un modèle différent en Ibérie, où les habitats ouverts se maintiennent naturellement, ce qui permet au cheval sauvage de prospérer jusqu’il y a environ 3 500 ans, le début de l’âge de bronze, une époque à laquelle les chevaux domestiques sont déjà présents.

Cheval de Przewalskis, parent des chevaux sauvages disparus en Europe. Claudia Feh, CC BY-SA

Hérodote note qu’il a vu des chevaux sauvages dans ce qui est aujourd’hui l’Ukraine, et des signalements de chevaux sauvages en Allemagne et au Danemark persistent jusqu’au XVIe siècle. Les chevaux sauvages ont peut-être survécu jusqu’au XVIIe siècle dans la partie de la Prusse orientale connue sous le nom de « grande région sauvage » (aujourd’hui la Mazurie, en Pologne). En l’espace d’un siècle, cette région perd toutefois ses derniers chevaux et seuls quelques spécimens vivant en captivité survivent jusqu’à la fin du XVIIIe siècle dans un zoo créé par le comte Zamoyski dans le sud-est de la Pologne. Il est possible que des chevaux sauvages, appelés tarpans, aient survécu en Russie du Sud jusqu’au XIXe siècle, mais il s’agissait d’hybrides, porteurs des gènes des chevaux domestiques. Le dernier tarpan, qui ressemblait à un cheval domestique, est mort dans un zoo russe en 1909.

Après la perte tragique des aurochs et la disparition du cheval sauvage, l’Europe réussit à éviter une nouvelle extinction pendant exactement 300 ans. Le plus grand mammifère sauvage d’Europe est alors le wisent, le poids des taureaux dépassant parfois une tonne, les femelles étant généralement deux fois moins lourdes. Hybrides du bison des steppes (dont descend le bison d’Amérique) et de l’aurochs, les wisents ont toujours été plus nombreux et plus répandus que les aurochs, ce qui a sans doute favorisé leur survie pendant des siècles après la disparition de leur parent.

Le wisent, bête massive à la barbe hirsute

Un wisent dans un zoo en Belgique. Linda De Volder, CC BY-NC-SA

Si vous prenez la peine d’observer l’art de l’époque glaciaire, vous ne confondrez jamais un wisent avec une autre créature, à l’exception peut-être du bison des steppes européen éteint. Leur forme distinctive, dominée par des membres antérieurs massifs, une barbe hirsute et une frange de fourrure descendant le long du poitrail incarne à elle seule l’époque glaciaire. Se trouver face à face avec un wisent, sentir son odeur caractéristique, prendre la mesure de sa masse incroyable, observer la vapeur et le bruit profond de sa respiration, évoque irrésistiblement la préhistoire. Le wisent est en moyenne un peu plus léger que le bison d’Amérique, bien qu’il soit plus haut au garrot. Il est uniformément brun, avec des cornes et une queue plus longues que celles de son parent américain. Certaines de ces caractéristiques se retrouvent chez l’aurochs, l’un de ses ancêtres. La diminution de la diversité génétique, résultant de la faible densité des populations et de leur éloignement, implique qu’il y a environ 20 000 ans, le wisent et l’aurochs étaient tous deux en voie d’extinction. De petites populations isolées de wisents survivent dans les Ardennes et dans les Vosges en France jusqu’au XVe siècle et en Transylvanie jusqu’en 1790 ; les tout derniers wisents vivent dans deux petites populations isolées, l’une dans le Caucase, l’autre en Pologne, dans la forêt de Białowieza.

Le spectre de l’extinction s’abat sur les wisents d’Europe alors que les humains sont engagés dans une boucherie sans précédent. La période 1914-1945 est l’heure la plus sombre de l’Europe. Après des milliers d’années de guerres tribales, les Européens, munis d’armes d’une puissance destructrice inimaginable, s’entretuent avec une férocité effrayante. Toutes les lois sont mises de côté, et tout souci de la nature oublié.

La Grande Guerre décime les animaux

Les wisents de Białowieza appartenaient aux rois polonais et étaient strictement protégés. Mais dans la tourmente de la Première Guerre mondiale, les soldats allemands abattent 600 wisents pour le sport, la viande et les trophées, et à la fin de la guerre, il n’en reste plus que neuf. La Pologne est frappée par la famine en 1920 et le dernier wisent du pays est tué en 1921 par un braconnier, Bartholomeus Szpakowicz. Pendant ce temps, la population du Caucase survit à grand-peine. Il y a environ 500 wisents causasiens en 1917, seulement une cinquantaine en 1921. En 1927, les trois derniers spécimens sont tués par des braconniers.

« Supercontinent » de Tom Flannery. Author provided

Cependant, le wisent n’est pas complètement perdu. Un taureau caucasien vit encore en captivité, ainsi que 50 spécimens provenant de Białowieza. Ce petit troupeau est dispersé entre les différents zoos européens. Seul le sentiment profond de perte ressenti par les Polonais sauve alors le wisent. En 1929, un centre de rétablissement du bison est créé à Białowieza, et les animaux captifs sont rassemblés et répartis en deux groupes d’élevage, l’un descendant de sept vaches seulement et l’autre de douze ancêtres, dont le taureau caucasien. Malgré le soin apporté à la gestion du troupeau, la diversité génétique du wisent continue à décliner, tous les mâles vivants aujourd’hui étant issus de seulement deux des cinq taureaux ayant survécu en 1929. Heureusement, ce goulot d’étranglement génétique semble n’avoir eu qu’un effet délétère mineur sur leur condition physique. Plus de 5 000 spécimens en bonne santé vivent aujourd’hui aux Pays-Bas, en Allemagne et dans de nombreux pays d’Europe de l’Est. Après avoir frôlé l’extinction, l’avenir du wisent semble assuré, à condition que les humains réussissent à maintenir une forme de paix sur le continent.

L’embryon humain est-il une personne ?

27 vendredi Sep 2019

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

 

The Conversation

  1. Bernard Baertschi

    Université de Genève et Comité d’éthique, Institut national de la santé et de la recherche médicale (Inserm)

Inserm

 

CC BY ND
L’embryon humain est certes une personne potentielle, mais ce n’est pas une personne. Pierre Jouannet – DR
 

2 000 : c’est le nombre d’amendements passés en revue par la commission spéciale de l’Assemblée nationale chargée d’examiner le projet de révision de la loi relative à la bioéthique. Un chiffre qui laisse présager des débats intenses, alors que le texte est soumis à l’ensemble des députés ce lundi 24 septembre.

Parmi les 7 volets couverts par les 32 articles du projet de loi figure notamment la question sensible de la recherche sur l’embryon. Une occasion de faire le point sur la façon dont ce dernier est considéré par le législateur dans notre pays.


À lire aussi : Révision des lois de bioéthique : entre éthique et politique


Distinguer les « personnes » et les « choses »

De nombreux aspects du droit français découlent du droit romain. C’est notamment à ce dernier que nous devons l’existence de deux statuts juridiques : celui des personnes et celui des choses. Pour le droit romain, les êtres habitant le monde sublunaire se divisent en ces deux catégories. Les choses ont généralement un propriétaire, elles peuvent être achetées et vendues, utilisées ou détruites par celui qui les possède. Ce n’est pas le cas des personnes qui, de plus, sont des sujets de droit. Les êtres humains adultes sont des exemples paradigmatiques de personnes.

La question du statut juridique de certains êtres est parfois plus sujette à controverse. C’est par exemple le cas des animaux : un tribunal argentin à récemment attribué à une femelle orang-outang vivant au zoo un statut de « personne non humaine ». Mais les êtres vivants ne sont pas les seuls concernés, puisqu’en 2017, la Nouvelle-Zélande a accordé le statut de personne au fleuve Whanganui, lui assurant ainsi protection et droits. Quelques jours plus tard, l’Inde faisait de même avec le Gange et la Yamuna.

Sur le plan de l’éthique, la notion de statut moral joue un rôle analogue à celle de statut juridique pour le droit. Avoir un statut moral, c’est posséder une valeur qui compte moralement et qui est la source de devoirs moraux.

Traditionnellement, c’est le statut de personne qui est considéré comme le statut moral le plus élevé : les personnes possèdent une dignité particulière, est-il souvent précisé. Pourquoi cela ? Parce que la personne est un être doué de raison répète-t-on depuis Boèce (Vème siècle). On retrouve cette affirmation chez les philosophes qui ont marqué la pensée morale occidentale, de Thomas d’Aquin, l’inspirateur de la tradition catholique à Emmanuel Kant, le philosophe le plus cité dans la pensée moderne et contemporaine, en passant par John Locke, l’un des pères du libéralisme politique. Kant précise que la personne est

« un être entièrement différent, par le rang et la dignité, de choses comme le sont les [êtres] dépourvus de raison, dont on peut disposer à sa guise. » Anthropologie du point de vue pragmatique (1984), p. 17

Dans cette conception, il apparaît immédiatement que l’embryon n’est pas une personne, car on ne saurait dire qu’il est doué de raison. Cependant, « être doué de raison » est une expression un peu vague, et il est nécessaire de préciser quelles sont les capacités rationnelles qui comptent.

La question du statut moral

Pendant longtemps en Occident, le critère déterminant a été le moment de l’animation, c’est-à-dire l’instant où on imaginait que l’âme entrait dans le corps humain. Ces débats ne datent pas d’hier : pour Basile de Césarée, l’âme pénétrait dans le corps à la conception. Thomas d’Aquin considérait quant à lui que cela se produisait entre le 40e et le 80e jour de la gestation, tandis que selon Augustin d’Hippone, c’était à la première respiration.

Bien plus tard, Kant, considérant que la capacité pertinente est la conscience de soi, estimera que l’enfant devient une personne vers l’âge de 2 ans, lorsqu’il ne parle plus de lui à la 3e personne, mais dit « je ». Plus proche de nous, le bioéthicien contemporain Tristram Engelhardt, estime que ce qui compte, c’est la possibilité de blâmer ou de louer et d’être l’objet de louange ou de blâme. Bref, d’avoir une conscience morale. Il s’agit là de capacités que ni un embryon ni un fœtus ne possèdent et ne sauraient posséder.

Certes, pour les philosophes, ne pas être une personne n’implique pas que l’on soit une chose, car l’éthique n’est pas tenue à adopter la dichotomie du droit. Mais il s’ensuit que l’embryon et le fœtus ne bénéficient pas de la protection et des droits moraux des personnes. Donc, quand leurs intérêts entrent en conflit avec ceux des personnes, ils ne sauraient prévaloir. C’est ainsi qu’il est possible de justifier moralement l’avortement et les recherches sur les embryons, même si elles se terminent par leur destruction.

Cependant, en tant qu’ils sont de véritables intérêts, les intérêts de l’embryon méritent considération et une certaine protection – contrairement à ce que disait Kant, il existe de bonnes raisons de penser que les embryons ne sont pas des choses « dont on peut disposer à sa guise ».

L’embryon, une personne potentielle

Parmi les bonnes raisons de s’opposer à Kant, il y a le fait qu’embryons et fœtus sont des personnes potentielles. Une personne potentielle est un être qui deviendra une personne, lorsqu’il aura acquis les capacités constitutives de la personne. Dans son état actuel, une personne potentielle n’_est donc _pas une personne, tout comme un président potentiel de la France – un candidat à l’élection présidentielle – n’est pas président de la France.

Le Comité consultatif national d’Éthique (CCNE) a soutenu cette position sur la base d’une argumentation de type juridique : comme l’enfant devient une personne à la naissance, avant cet événement, il est un être qui deviendra une personne mais n’en est pas encore une, bref, il est une personne potentielle. Sur le plan philosophique, le même raisonnement est valide, sauf qu’il n’existe pas de consensus sur un critère qui serait la naissance.

Quand l’embryon devient-il un individu ?

Cette indétermination fait que, dans une pratique qui veut s’inspirer de positions philosophiques, on opte souvent pour une solution restrictive : il faut que des intérêts humains importants soient en jeu pour qu’on permette la destruction d’un fœtus (l’avortement) ou l’instrumentalisation des embryons (la recherche). En outre, on place une limite temporelle précoce, afin d’éviter de porter préjudice à un être humain qui, avec son développement, va ressembler de plus en plus à une personne.

Ainsi l’interruption volontaire de grossesse (IVG) est limitée à 12 semaines de grossesse (l’interruption médicale de grossesse, ou IMG, est possible plus longtemps, mais il y faut des raisons plus graves) et la recherche sur l’embryon est bornée dans certains pays au 14e jour.

Cette dernière limite est intéressante. En effet, elle marque la fin de la totipotentialité de l’embryon (durant les premières divisions de l’œuf, les cellules peuvent se transformer en n’importe quel type cellulaire, pour donner un organisme entier ; cette capacité disparaît rapidement) ainsi que l’apparition de la ligne primitive, qui définit le plan de symétrie bilatérale de l’embryon. Avant ces deux événements, si on coupe un embryon en deux, il se divise pour donner des jumeaux bien vivants. Après, il meurt. Leur survenue marque fait donc d’une collection de cellules un véritable individu.

Être un véritable individu, ce n’est pas encore être une personne. Cependant, on ne saurait être une personne sans être un individu, puisqu’une personne est un individu doué de raison.

L’argument de la rationalité

Il reste à se demander pourquoi certains courants – en France et en Europe, il s’agit surtout du catholicisme – considèrent que l’embryon est une personne dès la fécondation. Basile de Césarée l’avait affirmé, mais il se référait à l’entrée de l’âme dans le corps, un événement inobservable même pour ceux qui croient à sa réalité. Qu’en est-il si on adopte le critère de l’apparition de la rationalité ?

L’argumentation présentée jusqu’ici milite fortement contre cette affirmation. Ses partisans font toutefois remarquer qu’un être peut posséder la raison sans qu’on s’en aperçoive, car il n’a pas les moyens de la manifester. Selon eux, ce serait la condition des embryons humains. En effet, ils possèdent déjà tout ce qu’il faut pour être une personne – leur génome humain est constitué – et il suffit d’attendre pour que ce qui est là, à l’état latent, se réveille. Lorsque je dors, je continue d’être une personne.

Cet argument a une certaine solidité apparente, même si on a de bonnes raisons de penser qu’il met dans le génome de l’embryon bien des choses qui n’y sont pas (encore). Il s’appuie néanmoins sur une conception qui fait de toute potentialité une capacité, bref, qui confond les deux notions.

Un gland est un chêne potentiel, mais il ne possède pas en tant que gland les capacités que possède un chêne ; il ne deviendra un chêne que s’il est planté et arrosé. De manière plus frappante, quoique moins pertinente : le sable est du verre potentiel, mais il n’a pas du tout les mêmes propriétés ; notamment, le sable n’est pas fragile, il n’a pas la capacité de se briser lorsqu’il est heurté. Il n’acquiert cette capacité que s’il est chauffé. De la même manière, un embryon humain ne possède pas les capacités que possède une personne : il n’est pas encore doué de raison. Il est certes une personne potentielle, mais il n’est pas une personne.

Petite histoire du spermatozoïde : la Belle au bois dormant et les missiles

26 jeudi Sep 2019

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

Faites un don

The Conversation

  1. Jean-François Bodart

    Professeur des Universités, en Biologie Cellulaire et Biologie du Développement, Université de Lille

Université de Lille

 

CC BY ND
On a longtemps perçu le spermatozoïde comme un preux chevalier venant réveiller la princesse endormie. Shutterstock

Cet article est publié dans le cadre de la prochaine Fête de la science (du 5 au 13 octobre 2019 en métropole et du 9 au 17 novembre en outre-mer et à l’international) dont The Conversation France est partenaire. Cette nouvelle édition aura pour thème : « À demain, raconter la science, imaginer l’avenir ». Retrouvez tous les débats et les événements de votre région sur le site Fetedelascience.fr.


Sujets sensibles, les spermatozoïdes intriguent, inquiètent ou inspirent. Produits dans les gonades mâles (les testicules), ce sont à l’origine des cellules sphériques (les spermatides), qui se transforment en cellules fuselées, propulsées par un flagelle – leur « queue ». Lors de la fécondation, l’union de deux cellules reproductrices, d’une part un spermatozoïde et d’autre part un ovocyte, rétablit la totalité du nombre de chromosomes et forme la cellule-œuf, qui se développera en embryon.

Cette fonction essentielle fait des cellules reproductrices un objet de préoccupation chez l’homme. Ce dernier surveille leur qualité et leur quantité avec la nervosité d’un conducteur, qui, l’œil sur la jauge, s’inquiéterait de ne pas arriver à bon port. Sa capacité reproductrice se voit en effet parfois affectée, lorsque des facteurs environnementaux tels que les perturbateurs endocriniens ou les métaux lourds diminuent la production ou la qualité des spermatozoïdes.

Peu surprenant donc qu’ils aient été dans l’histoire l’objet de tant de fantasmes et de métaphores. Antoine Van Leeuwenhoek, scientifique néerlandais, fut le premier à décrire la présence de spermatozoïdes dans le sperme en 1677, grâce aux améliorations qu’il fit du microscope. Ces « animaux » à mi-chemin entre le ver et l’anguille furent considérés par beaucoup comme des parasites présents dans la semence. Si le chercheur ne doutait pas de la portée biologique de sa découverte, il fallut attendre le XIXe siècle qu’Alfred Kölliker – anatomiste et physiologiste suisse – montre que les spermatozoïdes n’étaient autres que des cellules produites par les testicules et que ces cellules fécondaient les ovocytes. Les spermatozoïdes y gagnèrent alors leurs premières lettres de noblesse.

Animalcules et homoncules

Animalcules. Daniel Friedman/Flickr, CC BY-NC-ND

Entre temps, les théories se sont succédé. À une époque, certains scientifiques virent même la forme d’êtres minuscules à l’intérieur de ces cellules flagellées qui se démenaient en tous sens : ce furent les homoncules (formes humaines minuscules) ou animalcules (animaux microscopiques). C’est en se fondant sur cette idée que N. Hartsoeker, biologiste et physicien néerlandais, expliqua qu’un fœtus tout entier se logeait dans la « tête » du spermatozoïde. La description d’un nouveau-né, roulé en boule, dans la tête du spermatozoïde est devenue emblématique de la théorie de la préformation. Cette théorie affirmait que les êtres se développent à partir d’une version miniature d’eux-mêmes – contenant elles-mêmes des versions miniatures de leur descendance à venir.

Le développement était alors envisagé comme une simple croissance de l’individu, l’être étant préexistant : les bras, les jambes, le torse et la tête formés étaient déjà formés dans les cellules reproductrices. Une théorie qui eut la vie dure, avec deux variantes. Les spermistes ou animalculistes estimaient que les êtres miniatures étaient présents dans les spermatozoïdes. Pour les ovistes, ils logeaient au contraire dans les ovocytes. Dans le premier cas, le rôle de l’ovocyte se cantonnait à leur fournir de la nourriture. Dans le second, l’assaut du spermatozoïde visait à le réveiller pour l’obliger à commencer sa croissance.

Exit le preux chevalier

Nous avons désormais délaissé ces théories au profit d’une approche plus constructiviste : la fécondation est aujourd’hui perçue comme le fruit d’interactions entre les cellules. L’ovocyte apparaît de moins en moins passif, n’attendant plus du spermatozoïde qu’il pourfende la couronne de cellules qui entoure l’ovocyte, afin de réveiller ce dernier – dans une analogie avec une lascive belle au bois dormant secourue par son preux chevalier.

Le spermatozoïde et l’ovocyte interagissent dans un phénomène de reconnaissance mutuelle qui déclenche plusieurs événements : un « frisson » sous la forme d’une vague de concentration élevée de calcium se propage dans tout l’ovocyte ; le cortex de l’ovocyte réagit et bloque la pénétration de tout autre spermatozoïde ; le cycle cellulaire reprend et l’ovule entreprend la fusion avec le spermatozoïde.

Balance des sexes. Daniel Friedman/Flickr, CC BY-NC-ND

Cette reconnaissance est permise par l’existence de protéines à la surface de chaque cellule. On pense notamment à Juno et Izumo, les plus célèbres. La première est essentielle à la fécondation – chez la souris, sa perte rend les ovocytes stériles. Mais elle agit de concert avec Izumo, son partenaire spermatique, dont le rôle est de faciliter la reconnaissance des deux cellules reproductrices et leur fusion.

Missiles à têtes chercheuses

S’il est à espérer que le récit chevaleresque de l’épopée des spermatozoïdes n’est plus qu’un lointain souvenir, une autre image persiste pourtant : celle qui associe la cellule reproductrice mâle au missile à tête chercheuse : les récepteurs présents dans leur membrane plasmique le rendent en effet sensible à la chaleur ou à des molécules spécifiques. À l’image du missile guidé vers sa cible, le spermatozoïde traque ces signaux qui le conduisent vers l’ovocyte.

Le système qui propulse notre missile est le flagelle. Les mouvements de ce dernier peuvent résulter de mécanismes différents. Dans le cas des bactéries – qui en sont elles aussi dotées – ils sont assurés par la rotation de moteurs moléculaires. La base du flagelle tourne sur elle-même, à l’image des hélices d’un hélicoptère.

Dans le cas des spermatozoïdes, le mouvement du flagelle est impulsé différemment : sa structure comprend des tubes microscopiques (les microtubules), qui glisser les uns contre les autres, provoquant des battements. L’amplitude, le rythme et l’orientation des battements des flagelles sont alors régulés. Dans certains cas de stérilité masculine, cette capacité de mouvement se voit altérée, entraînant un ralentissement voire une absence de propulsion des spermatozoïdes.

Des spermbots contre la stérilité

Les caractéristiques des cellules reproductrices mâles, comme leurs capacités de détection, de propulsion et de transport, continuent d’inspirer de nos jours. Désormais, c’est la nanomédecine qui s’y intéresse pour développer des systèmes hybrides de taille microscopique. Ces derniers intègrent les spermatozoïdes à des microstructures qui trouvent des applications dans le domaine de la procréation médicalement assistée ou de l’administration de médicaments. C’est par exemple le cas de micromoteurs appelés spermbots.

Un robot pour lutter contre la stérilité.

Ces mini-robots permettent par exemple aux spermatozoïdes d’exercer leurs fonctions quand leur nombre est trop petit ou qu’ils présentent de sévères défauts de mobilité : ces nanomachines peuvent être activées par un champ magnétique pour améliorer le guidage des spermatozoïdes vers l’ovocyte. À l’avenir, ils pourraient aussi conduire les médicaments dans des zones ciblées en évitant une propagation indésirable des agents pharmaceutiques dans tous les tissus de l’organisme.

Les spermatozoïdes deviendraient alors des missiles armés d’une charge pharmacologique ou médicament dans des stratégies ciblées de traitements des cancers du col de l’utérus, des ovaires ou de l’utérus.

Quand la faune de la rade de Villefranche inspirait les artistes du XIXᵉ

25 mercredi Sep 2019

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

The Conversation

 

Quand la faune de la rade de Villefranche inspirait les artistes du XIXᵉ

  1. John Dolan

    Chercheur en biologie marine, Laboratoire d’océanographie de Villefranche-sur-Mer, Sorbonne Université

 

Partenaires

Sorbonne Université

 

CC BY ND
Un animal marin microscopique aurait inspiré René Binet pour sa Porte monumentale de l’Exposition universelle de 1900. Wikimedia, CC BY-NC-ND

Cet article est publié dans le cadre de la prochaine Fête de la science (du 5 au 13 octobre 2019 en métropole et du 9 au 17 novembre en outre-mer et à l’international) dont The Conversation France est partenaire. Cette nouvelle édition aura pour thème : « À demain, raconter la science, imaginer l’avenir ». Retrouvez tous les débats et les événements de votre région sur le site Fetedelascience.fr.


Sur la Côte d’Azur, la rade de Villefranche et la « mer de Nice » qui l’entoure ont une particularité unique en Europe : elles sont proches des eaux très profondes, du fait de la quasi-absence de plateau continental dans cette zone. Les organismes marins qui peuplent cette zone sont donc à la fois typiques des eaux côtières mais aussi des eaux profondes de la Méditerranée, donnant lieu à une large variété d’espèces.

Cette découverte remonte au début du XIXe siècle lorsque François Péron et Charles Lesueur, deux naturalistes français, s’intéressent à la faune de la rade. En 1810, ils publient les résultats de leurs explorations dans la baie, et présentent des espèces jusqu’alors inconnues, comme la Ceinture de Vénus (Cestum veneris).

La richesse de cette faune suscitera après eux l’intérêt de nouveaux explorateurs : zoologues, dessinateurs ou encore architectes des monuments parisiens.

Sur la Côte d’Azur, la rade de Villefranche abrite une grande variété d’espèces marines. Jeanguyane/Flickr, CC BY-NC-ND

Monographies illustrées

Après François Péron et Charles Lesueur, le naturaliste niçois Jean‑Baptiste Vérany se distingue en réalisant de nombreux dessins de la faune locale. C’est à lui que l’on doit notamment la découverte en 1834 d’un superbe calamar des profondeurs, le Chiroteuthis veranyi.

Le calamar des profondeurs Chiroteuthis veranyi, découvert par Jean‑Baptiste Vérany. Illustration tirée de sa monographie « Mollusques méditerranéens observés, décrits, figurés et chromolithographiés d’après le vivant ». Vintage printable.

Mais c’est sans aucun doute Karl Vogt, professeur de zoologie de Genève, qui rendit le mieux compte de la variété exceptionnelle des organismes vivants de Villefranche en passant ses hivers sur la côte. Ses monographies richement illustrées décrivent nombre de ses découvertes, certaines réalisées avec l’aide de Jean‑Baptiste Vérany.

Après Vogt, Johannes Müller, professeur de médecine à Berlin, marquera à son tour l’histoire de Villefranche avec ses descriptions d’organismes marins, et notamment les radiolaires, animaux microscopiques dotés de squelettes d’une rare complexité.

Haeckel et les radiolaires

Disciple de Müller, le jeune Ernst Haeckel, alors âgé de 22 ans, se rend en 1856 à Villefranche pour observer les radiolaires qui joueront un rôle clé dans ses travaux ultérieurs. Haeckel est à l’origine de la popularisation des organismes de Villefranche dans le monde, et à l’introduction des radiolaires à Paris dans leur forme surdimensionnée et artistique.

En 1864, huit ans après son voyage initial, Haeckel revient à Villefranche après le décès brutal de son épouse Anna. Six semaines durant, il observe à nouveau les radiolaires.

Lors d’un séjour à Villefranche au printemps 1864, Ernst Haeckel renouvelle ses observations sur les radiolaires. Wikimedia

Haeckel était un scientifique renommé – on lui doit en 1866 l’introduction du terme « écologie » – doublé d’un artiste de grand talent. Vers la fin de sa vie, il fait paraître Formes artistiques de la nature, un livre d’illustrations composé de 100 planches publiées, entre 1899 et 1904, en plusieurs lots. Cet ouvrage rencontre alors un large succès et influence les designers et architectes du mouvement Art nouveau. Avec les illustrations d’Haeckel, les animaux marins découverts dans la rade de Villefranche pénètrent dans les foyers européens.

Source d’inspiration artistique

Parmi les artistes et designers qui se sont inspirés des illustrations de Haeckel, le plus enthousiaste est sans doute l’architecte René Binet, figure de proue du mouvement de l’Art nouveau. Dès 1887, bien avant la parution de Formes artistiques de la nature, il commence à suivre le travail de Haeckel sur les radiolaires. En 1900, pour l’Exposition universelle, la structure de la Porte monumentale qu’il imagine s’inspirerait de l’une des illustrations préférées de l’architecte, le radiolaire dénommé Clathrocanium reginae.

Ces deux planches sont extraites de « Formes artistiques de la nature ». Sur celle de gauche, dans le coin supérieur gauche, Haeckel a reproduit la petite méduse à la forme délicate de l’espèce Koellikerina fasciculata découverte par Péron et Lesueur. Sur la planche de droite, on retrouve au centre un Chiroteuthis veranyi, le calamar des profondeurs découvert par Jean‑Baptiste Vérany. Wikimedia, CC BY-NC-SA

Deux planches, tirées du rapport sur l’expédition du Challenger de Haeckel (1887), à gauche, et des Cyrtoidea (dans « Formes artistiques de la nature »), à droite. La flèche désigne le Clathrocanium reginae dont la forme a inspiré René Binet pour sa Porte monumentale. Wikimedia, CC BY-NC-SA

Haeckel semblait avoir un faible pour ce radiolaire qui apparaît également dans les planches de Formes artistiques de la nature publiées en 1901. René Binet le mettra pour sa part en avant dans ses Esquisses décoratives, qui comporte des dessins d’une infinité d’objets inspirés de ces créatures marines – des interrupteurs électriques aux bijoux, en passant par des structures pour les jardins.

La coupole de René Binet éclairait à l’origine la grande halle du nouveau magasin du Printemps. Sa structure rappelle le squelette du Litharachnium eupilium, une des espèces de radiolaires décrites par Haeckel.

Si la Porte monumentale de Binet n’existe plus, un autre de ses chefs-d’œuvre inspirés des radiolaires est lui encore debout : la célèbre coupole des Grands Magasins du Printemps. C’est Binet qui conçut en 1907 l’extension des lieux et imagina un hall central pour le nouveau bâtiment haut de six étages et éclairé par une grande coupole dont la structure ressemble beaucoup à celle des Sethophormis eupilium, décrit par Haeckel lors de son expédition Challenger de 1872–1876.

Le squelette du Litharachnium eupilium, décrit par Haeckel sous le nom de Sethophormis eupilium, ressemble beaucoup à la structure de la coupole qui surmonte le hall central du Printemps, conçue par Binet.

Après l’incendie qui a ravagé le magasin en 1881, de nouveaux vitraux seront installés sur la coupole en 1923 puis enlevés pour être mis à l’abri au début de la Seconde Guerre mondiale. Redécouverts et remontés dans les années 1970, ces vitraux abritent aujourd’hui la brasserie du Printemps, située au sixième étage.

La coupole du Printemps, ornée de vitraux, éclaire la brasserie du sixième étage. Nathan Rupert/Flickr, CC BY-NC-ND

Une rencontre entre art et sciences

Grâce à Ernst Haeckel et à René Binet, les illustrations d’animaux marins de Villefranche se sont imposées dans de nombreuses maisons et ont influencé des constructions monumentales à Paris. Si les deux hommes ne se sont jamais rencontrés, tout porte à croire qu’ils se sont écrit. Binet a envoyé une copie de ses Esquisses décoratives à Haeckel en hommage à celui dont le travail l’avait tant inspiré. Les œuvres de Binet ont elles aussi peut-être influencé Haeckel dans l’élaboration de certaines planches de son livre Formes artistiques de la nature.

Une telle synergie pourrait-elle se produire aujourd’hui ? Cela semble assez compliqué. À la fin du XIXe et au début du XXe siècle, la science et l’art étaient des disciplines bien moins cloisonnées : les scientifiques faisaient de l’art en créant des illustrations et touchaient souvent à l’artisanat en construisant eux-mêmes leurs instruments.

Mais il existe bien sûr quelques exceptions, comme ces artistes qui s’efforcent de sensibiliser le public à la beauté du monde naturel, menacé par le changement climatique. On pourra inviter en guise de conclusion les lecteurs à aller découvrir les créations de l’Américaine Mara Haseltine qui s’est notamment intéressée aux formes microscopiques du vivant.

Traquer la haine sur les réseaux sociaux exige bien plus qu’un algorithme

24 mardi Sep 2019

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

The Conversation

  1. Mohamed Benabid

    Docteur en Sciences de gestion, Docteur en Sciences de l’information et de la Communication, Université Paris 8 -Vincennes Saint-Denis chercheur associé l’ENCG Casablanca, Université Hassan II Casablanca – AUF

AUF (Agence Universitaire de la Francophonie)

 

CC BY ND
Les groupes de haine sont protéiformes et se reconstituent sans cesse sur des espaces physiques ou temporels difficiles à maitriser. Unsplash, CC BY-ND

Qui a dit que la lutte contre les contenus haineux sur les réseaux sociaux était un combat désespéré ? Facebook compte équiper à partir du mois prochain des policiers en caméras pour mieux pister les tueries en ligne. Il y a deux mois, Twitter introduisait de nouvelles règles pour freiner les attaques contre les groupes religieux, allant même jusqu’à détailler le type de posts qui s’exposent à des interdictions :

« Nous devons exterminer les rats. Les [Groupe religieux] sont dégoûtants, [Groupe religieux] devraient être punis. Nous ne faisons pas assez pour nous débarrasser de ces sales bêtes. »

Début septembre, YouTube dressait un bilan d’étape prometteur, annonçant le retrait sur trois mois (entre avril et juin 2019) de plus de 100 000 vidéos et 17 000 chaînes et plus de 500 millions de commentaires compromettants.

Monika Bickert (Facebook), Nick Pickles (Twitter), Derek Slater (Google) et George Selim, de la ligue anti-diffamation américaine, lors d’une audience face au sénat portant sur la « violence de masse, l’extrémisme et la responsabilité digitale » le 18 septembre à Washington, DC. Olivier Douliery/AFP

Les deux plates-formes emboîtaient le pas à Facebook qui avait supprimé une année auparavant, après une alerte du blog consacré à la sécurité en ligne, KrebsOnSecurity, près de 120 groupes de discussion privés rassemblant plus de 300 000 membres faisant l’apologie d’activités illicites.

Les réseaux sociaux tiennent manifestement à donner des gages de bonne volonté pour contrebalancer les effets d’une des faces les plus hideuses du cyberespace. En sont-ils seulement capables ?

Prise de conscience

Récemment, on a vu une multiplication de pressions institutionnelles et réglementaires visant à lutter contre la haine en ligne, comme pour la loi Avia en France, dont la proposition a été adoptée par l’Assemblée nationale en juillet dernier (sans pour autant faire l’unanimité). Cette dernière impose aux plates-formes de retirer un contenu en 24 heures. En Allemagne, la loi NetzDG qui soumet les réseaux sociaux aux mêmes délais sous peine d’amendes pouvant atteindre jusqu’à 50 millions d’euros.

Vidéo relative aux standards de la communauté de Facebook, qui représente en quelque sorte ses directives pour le contenu qu’elle autorise sur sa plate-forme.

Ces mesures ne sont sans doute pas étrangères à la prise de conscience des propriétaires des réseaux sociaux face à ces montées haineuses.

Mais cela peut-il endiguer un phénomène de plus en plus accru ? Plus de la moitié des Américains ont déclaré avoir été victimes de discours haineux et de harcèlement en 2018. En Europe, 75 % des personnes qui suivent ou participent à des débats en ligne ont été témoins ou ont été victimes d’abus, de menaces ou de contenu haineux.

L’IA à la rescousse ?

Si de nombreux pays commencent à s’en préoccuper, c’est que le processus de cyberviolence a changé de temporalité et d’espace aussi. Au début de l’aventure Internet, la diffusion des discours haineux était à sens unique, transposée exclusivement de la vie réelle vers le numérique.

Aujourd’hui, sans pour autant faire disparaître la première, c’est la tendance inverse qui est constatée, souvent avec des prolongements tragiques, comme pour les attentats de Christchurch où un suprématiste blanc filmait en direct sa tuerie ou pour le meurtre de la députée britannique Jo Cox : 50 000 tweets célébraient sa mort.

La députée travailliste Jo Cox a été assassinée le 16 juin 2016 en pleine rue par un partisan de l’extrême droite britannique. Daniel Leal-Olivas/AFP

Cette avalanche de chiffres communiqués par les réseaux sociaux traduit aussi les spectaculaires avancées permises par l’intelligence artificielle (IA) et le champ de la linguistique informatique (comme pour le traitement automatique du langage naturel, connu sous l’acronyme TALN).

De manière opérationnelle, celles-ci s’expriment à travers le déploiement d’une logistique d’apprentissage par la machine (machine learning) pour la traque de messages haineux en mobilisant des algorithmes comme les « K plus proche voisin », qui vont même jusqu’à prédire, en fonctionnant sur le modèle des prédicteurs textuels de nos smartphones, l’orientation de futurs contenus, ou encore ceux de la « reconnaissance d’entités nommées » (Named Entity Recognition, NER), programmes qui permettent d’identifier et de classer plus efficacement l’information textuelle : le processus va consister, dans une chaîne de texte par exemple à identifier un certain nombre de mots clefs pertinents : lieux, personnes, organisations.. Un arsenal pour lequel les GAFA se livrent à de féroces batailles de suprématie

Traiter la masse de renseignements sur chaque profil

Les données sur Internet renvoient à une pléthore de renseignements qui peuvent aider à mieux cerner le profil : contributions des internautes, mais aussi les données de navigation ou journaux d’activités (appelés logs dans le jargon), ou encore les gisements du web sémantique, une extension du World Wide Web qui a ouvert de nouvelles perspectives pour Internet et ses nombreuses applications, en améliorant par rapport à l’architecture originelle inventée par Tim Berners-Lee, la qualité des données interprétables par les machines.

Intensément investi par la recherche ces dernières années, le développement d’outils capables de prédire et d’identifier ce type de contenu commence présentement à porter ses fruits. La puissance des systèmes automatisés a permis à YouTube par exemple de détecter puis de supprimer plus de 87 % des 9 millions de vidéos au cours du deuxième trimestre 2019.

Les limites de l’éthique numérique

Tout n’est pas gagné pour autant. Les efforts de déploiement d’une éthique numérique continuent de se heurter à de nombreux écueils.

Une partie des difficultés tient aux discussions interminables sur le caractère privé Vs public des données personnelles ou à l’équilibre introuvable entre la lutte contre les discours haineux et la préservation de la liberté d’expression comme s’en défendait fin août 2019, la PDG de YouTube dans une lettre à son audience.

C’est d’ailleurs l’alibi brandi par la filiale de Google pour justifier son refus de bloquer la vidéo intitulée « Les Juifs admettent avoir organisé le génocide blanc » postée par David Duke, militant d’extrême droite américain et proche un moment du KKK ou encore la réouverture de deux comptes qui auraient inspiré le terroriste de Christchurch.

Un anonymat opportun

Mi-aout 2019, la ligue anti-diffamation, une ONG de lutte contre l’antisémitisme, constatait que 29 chaînes au moins sur YouTube relevaient de la catégorie antisémites et suprémacistes blancs. L’anonymat permis par de nombreuses plates-formes complique également la traque.

Il constitue un environnement favorable dans ce que les travaux en sociologie et/ou en psychologie décrivent en tant que propension à s’autoriser en ligne des comportements qu’on n’accepterait pas dans la vie réelle ou ce que John Suler nomme l’« effet de désinhibition ».

La plate-forme « Secret » créée en 2013 par des anciens cadres de Google, et dont le modèle économique s’appuyait en grande partie sur l’anonymat des messages, en a fait les frais, fermée au bout de deux ans d’activité car accusée de favoriser la cyberintimidation ou de ne rien faire pour prévenir le risque suicidaire chez les adolescents en dépit de la multiplication des demandes d’aide des victimes.

Au Myanmar, un jeune homme Kyaw Zin Win, s’est donné la mort fin juin après avoir été victime de harcèlement homophobe sur les réseaux sociaux. Sai Aung Main/AFP

Les risques du tout technologique

Le tout technologique n’est pas non plus une garantie de résultat dans la lutte contre la cyberhaine. Les approches mobilisées peuvent contribuer à amplifier des biais, signalant par erreur des messages comme étant offensants ou haineux. Une nouvelle recherche montre d’ailleurs que les principaux modèles d’intelligence artificielle avaient 1,5 fois plus de risques de qualifier « d’offensants » les tweets rédigés par des Africains-Américains !

Les impératifs de contextualisation, les vocabulaires pouvant concerner des situations non liées à la haine, tiennent avant tout à la qualité des répertoires de mots ou des catégorisations de données établis, lesquels ne sont jamais suffisamment exhaustifs.

Twitter a par exemple a accidentellement suspendu un compte parce que son algorithme a buggé sur une photo de profil où Captain America frappait un nazi.

Plus préoccupant, la récente recherche menée par l’équipe du professeur Neil Johnson, du département de physique de l’université George Washington, et dont les résultats ont été publiés en août dans la revue Nature, confirme bien l’existence d’autoroutes de la haine en ligne et des grappes ou clusters solides, hautement interconnectés et auto organisées à travers différents plates-formes (Facebook, Twitter, VKontakte), pays et langues.

Ces réseaux peuvent associer une variété de thèmes haineux (antisémitisme, anti-immigrés, anti-LGBT+).

La cyberhaine alimente un réseau complexe d’autoroutes et de grappes. Le mouvement xénophobe sud-africain « Stop white genocide in South Africa », par exemple, étudié par les équipes de N. Johnson a noué des ponts (indiqués par les cercles verts sur ce graphe) entre Facebook et VKontakte, des réseaux sociaux non seulement indépendants sur le plan opérationnel mais concurrents. Johnson 2019, Author provided

Lorsqu’ils se sentent menacés, ces systèmes ou grappes font preuve d’une surprenante résilience face aux attaques. Toute stratégie tentant d’interdire un groupe haineux en une zone A, par exemple, est vouée à l’échec dans la mesure ou la grappe se reconstitue rapidement dans une Zone B. Paradoxalement, cette « réincarnation » intervient alors mêmes que les deux zones peuvent correspondre à des plates-formes non seulement indépendantes mais concurrentes (Facebook Vs VKontakte dans le cas d’espèce), et que les groupes de la haine peuvent être éloignés géographiquement, linguistiquement et culturellement.

Quelle méthode face aux grappes de la haine

Compte tenu de leurs complexité, Johnson et son équipe préconisent d’ailleurs entre autres approches d’interdire, au hasard, de petits échantillons de la grappe au lieu de cibler une grappe tout entière sous peine d’échec.

Cette solution tranche avec celles adoptées actuellement par les plates-formes, lesquelles consistent soit à exclure individuellement les contrevenants soit à bannir des groupes entiers de comptes haineux. On l’a bien compris, dans ce débat la question est de savoir si la méthode est la bonne.

Mais, au-delà il s’agit aussi de s’interroger sur l’ensemble des valeurs véhiculées sur ces plates-formes.

En effet, ce sont les nouvelles perceptions des notions mêmes de démocratie qui paraissent désormais en jeu. Aux États-Unis, par exemple, quatre jeunes sur dix seulement considèrent que le gouvernement devrait sévir contre des contenus offensants à l’égard des minorités.

Comment alors évaluer les stratégies de lutte sans les croiser avec les transformations, pour le meilleur et malheureusement pour le pire aussi, de nos sociétés contemporaines ?

Plaidoyer pour une éducation à la « condition terrestre »

23 lundi Sep 2019

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

The Conversation

  1. Richard-Emmanuel Eastes

    Head of the academic development : University of applied arts and sciences Western Switzerland (HES-SO, Suisse), Haute école spécialisée de Suisse occidentale (HES-SO)

  2. Francine Pellaud

    Docteure en sciences de l’éducation, professeure spécialisée, Haute École pédagogique de Fribourg

Haute école spécialisée de Suisse occidentale (HES-SO)

AUF (Agence Universitaire de la Francophonie)

Comment les aider à affronter l’aggravation des crises environnementales ? Anna Samoylova/Unsplash
 

Parfois à la peine pour canaliser la contestation manifestée par les jeunes lors des récentes grèves de l’école pour le climat, l’Éducation nationale aurait pourtant de quoi se réjouir : l’éducation au développement durable (EDD), entrée formellement dans les programmes français en 2007, n’a-t-elle pas fini par porter ses fruits ?

Sans doute. Mais paradoxalement, cette crise pourrait bien en même temps rebattre les cartes de ce champ pédagogique interdisciplinaire qu’est l’EDD, notamment parce qu’elle interroge désormais la pertinence du concept de développement durable lui-même.

Il faut bien l’admettre, cet idéal de développement humain conciliant à parts égales les sphères économique, sociale et environnementale donne à bien des égards l’impression de ne plus être le concept le plus opératoire pour imaginer les termes et conditions d’une transition écologique radicale et volontaire. Il est même probable qu’en s’appuyant sur une vision continue et non-disruptive du développement humain, le développement durable joue le rôle de « concept-sédatif » et créée des taches aveugles dans les imaginaires nécessaires à l’anticipation du « grand basculement » de la civilisation.


À lire aussi : « Grève scolaire pour le climat » : les lycéens bousculent l’agenda


Comment alors repenser les contenus et la mise en œuvre de l’éducation qui était sensée le promouvoir ? Surtout, comment faire entrer à l’école, qui se veut à la fois laïque et garante d’une certaine stabilité face aux soubresauts de la société, ces deux repoussoirs que sont pour elle l’urgence de l’action et les enjeux politiques, intriqués avec la recherche de solutions à la crise ?

Pour tenter de comprendre sur quels principes nouveaux il pourrait être possible de rebâtir une éducation à ce que nous pourrions a minima appeler la « transition écologique », il est nécessaire d’interroger les fondements de l’actuelle éducation au développement durable. À savoir les visions du monde sur lesquelles elle repose et ce qu’elles impliquent d’un point de vue éducatif.

Des visions du monde

Dans la conception « forte » du développement durable, l’écologie est clairement posée comme une condition sine qua non de l’existence des sphères sociales et économiques. Sans ce que nous offre la Terre, pas de possibilité de développement social et, sans ce dernier, pas d’économie. Le capital environnemental est fini et non renouvelable, comme l’envisageait déjà en 1920 l’économiste Alfred Marshall avec sa loi des rendements non-proportionnels.

La vision du monde qui émane de cette conception apparaît en rupture avec le modèle dominant au XXe siècle dans le monde occidental, et donc potentiellement militante. La logique est linéaire, simple et efficace : si l’on protège la nature, on permet aux humains de subvenir à leurs besoins essentiels et de développer une économie au service de l’amélioration de leur confort. C’est dans cette vision que l’éducation relative à l’environnement (ERE) et à l’éco-citoyenneté a évolué, se démarquant d’ailleurs souvent ostensiblement de l’éducation au développement durable.

Conversation France

✔@FR_Conversation

Peut-on concilier capitalisme et écologie ? Écoutons à nouveau Ignacy Sachs ! http://bit.ly/2DYtA4n 

View image on Twitter

9

3:00 PM – Feb 8, 2019
Twitter Ads info and privacy
See Conversation France’s other Tweets

La conception « faible » du développement durable émane quant à elle de l’approche économique de Hartwick (1977). Ancrée dans une économie libérale classique, elle s’autorise l’idée de marchandisation de la nature afin de maintenir un équilibre artificiel entre les trois sphères que sont l’économie, l’écologie et le social. Cette représentation de la durabilité est plus ancrée dans son époque : lorsqu’en 1987, Gro Harlem Brundtland rédige le rapport pour l’ONU qui va ensuite fixer la notion de développement durable pour les décennies à venir, elle part du constat que l’économie est omniprésente et que c’est sa croissance non régulée qui conduit aux déséquilibres sociaux et aux perturbations environnementales auxquels le monde assiste. Plutôt que de nier la primauté de l’économie, elle affirme l’interdépendance des trois pôles et donc la nécessité de les maintenir en équilibre.

À la fin du XXe siècle, l’enjeu essentiel étant de sensibiliser les milieux économiques et politiques sans les effrayer, c’est cette seconde conception qui finira par s’imposer. Élaborée pour toucher le plus grand nombre, elle conduit à une vision du monde consensuelle et donc peu militante, ne désignant aucun responsable mais définissant des responsabilités réciproques pour tous les acteurs.


À lire aussi : Les malentendus du développement durable


Une éducation au développement durable sous pression

C’est sur cette conception « faible » que les préoccupations environnementales ont été intégréee dans les programmes éducatifs dans les années 2000. Un bienfait en matière de sensibilisation, sans doute, mais qui a peut-être également contribué à promouvoir une vision angélique d’une civilisation occidentale qui n’aurait qu’à « faire un peu moins mal » pour pouvoir continuer à vivre comme avant.

Si l’idée de développement durable a vécu, l’éducation au développement durable doit donc également se réinventer d’urgence. Or s’il convient de préparer les futurs citoyens de ce monde à endiguer les extraordinaires crises environnementales, politiques, économiques et sociales à venir, il y a deux manières de le faire : en enseignant à nos enfants les connaissances et compétences qui leur permettront de résoudre ces crises, ou en leur prodiguant celles qui leur permettront de s’y adapter. Préparer la résilience plutôt que le changement, c’est faire un douloureux constat d’échec. Mais ne serait-il pas temps de leur apprendre à penser le monde d’après et à y vivre, voire à y survivre ? Il en va de notre responsabilité de penseurs de l’éducation.

Accompagner la transition écologique : la nécessité d’une transition pédagogique (UVED, Paris, 2018).

Du grain à moudre pour l’éducation

Les réponses à ces questions sont évidemment éminemment politiques. Comment penser l’éducation en vue d’une transition écologique radicale sans faire entrer au sein de l’école des visions du monde qui seront inévitablement accusées d’être orientées idéologiquement ?

C’est d’ailleurs ce que ses opposants reprochent à Greta Thunberg, l’accusant soit de manipulation politique, soit de préparer la « dictature verte ». Pourtant, au vu de la gravité de la situation environnementale, l’entrée d’une certaine radicalité écologique à l’école nous semble indispensable.


À lire aussi : Greta et la canicule


Mais jusqu’où déplacer le curseur ? Quels verrous sommes-nous prêts à faire sauter ? Quels garde-fous devrons-nous préserver quoiqu’il arrive ?

Il y a une différence énorme entre un élève qui répète les gestes que l’on attend de lui et un élève qui choisit délibérément de les accomplir parce qu’il en a compris le bien-fondé et estime que c’est de son devoir, de sa responsabilité de les perpétuer. Alors quelles que soient les réponses à ces questions, il est une valeur qui ne saurait être négociable : l’école devra garantir des objectifs d’autant plus élevés en matière de compétences, de compréhension et d’autonomie de pensée qu’elle se verra chargée d’orienter la société vers une transition plus radicale. Pour justement ne pas tomber dans le despotisme écologique.

Nous avons conscience que ce positionnement relève de l’utopie démocratique ; mais c’est une utopie que nous devons nous imposer avant de commencer à penser, comme l’historien narrateur de l’essai d’anticipation de Naomi Oreskes (L’Effondrement de la civilisation occidentale), que la dictature est le seul régime propre à nous protéger de notre inaction chronique.

Un basculement, trois questions

Comment, dans ces conditions, inventer le courant éducatif qui succédera à l’éducation au développement durable ? Pour y réfléchir, nous nous inspirons des travaux de Bruno Latour et proposons une grille d’analyse susceptible de clarifier quelque peu les pistes à suivre dans la perspective du « grand basculement » évoqué plus haut. Elle consiste à distinguer les trois questions : où sommes-nous ? Où voulons-nous aller (Bruno Latour dirait « Où atterrir ? ») ? Comment pourrions-nous y aller ? Des questions qui reviennent respectivement à prendre acte sans ambiguïté de l’état environnemental de notre planète, à penser et négocier les conditions de notre existence future, ainsi qu’à définir les mesures à prendre pour habiter la Terre dans son nouvel état.

Trois questions pour penser l’avenir. Author provided.

Emerge alors immédiatement une ultime interrogation : comment organiser les modalités de ces négociations pour être collectivement en mesure de prendre des décisions admises par tous ? La récente crise des « gilets jaunes » a montré combien il était difficile d’y répondre.

À la première question « Où sommes-nous ? » – et contrairement à ses habitudes consistant à n’enseigner que des connaissances stabilisées depuis des décennies –, l’école se doit de faire preuve de courage en intégrant les données scientifiques environnementales produites récemment. Quitte à les réviser ou à revenir en arrière, mais en se montrant intraitable face aux tentatives de désinformation climatosceptiques qui gangrennent les médias sociaux, jusqu’aux sites d’information pour enseignants. Et comme l’éducation au développement durable le préconisait déjà, certes sans grand succès, elle doit développer encore plus largement l’enseignement de la pensée systémique et complexe : non plus la linéarité mais les interdépendances, les rétroactions, la gestion du flou, de l’aléatoire, de l’incertain. Pour littéralement « changer le logiciel » de la manière dont nous enseignons aux élèves à penser le monde.

La pensée complexe : pas si compliquée ! (UVED/Youtube, 2016).

À la deuxième question « Où voulons-nous aller ? », l’école doit donner aux futurs citoyens que sont ses élèves la capacité d’élaborer collectivement la réponse. Aux compétences systémiques évoquées ci-dessus, elle ajoutera la pensée prospective et créative et visera le développement d’individus capables d’une pensée autonome et critique, mais surtout collaborative. Car la difficulté principale ne résidera pas dans le fait de répondre à cette question mais, comme nous l’avons vu, de mettre en place des conditions permettant d’y répondre.

Il faudra enfin peut-être laisser un peu de côté la troisième question « Comment y aller ? », pourtant favorite d’une éducation au développement durable fondée sur des propositions destinées à faire évoluer nos modes de vie. Parce qu’il est vain de chercher à décider du chemin et du véhicule si l’on ne sait ni d’où on part, ni où on va. On remplacera alors les approches prescriptive et normative de l’EDD par une approche plus programmatique, non plus fondée sur des écogestes mais visant à développer de véritables compétences.

Pour une éducation à la condition terrestre

En 2011, nous affirmions que l’éducation au développement durable avait pour mission « d’insuffler un changement d’état d’esprit pour « voir plus loin », anticiper sur l’avenir et agir en conséquence ». En ce sens, elle entendait déjà préparer une hypothétique transition écologique, même si le terme était encore peu populaire. Cette définition reste pour nous d’actualité, mais elle nécessite désormais de prendre acte du caractère inévitable de la catastrophe, comme nous y incite le philosophe Jean‑Pierre Dupuy depuis quinze ans déjà. À ce stade, et alors que la pertinence du concept de « transition » est elle-même déjà contestée, même une « éducation à la transition écologique » nous semble devenue insuffisamment forte. Alors quoi ?

Combiner une vision du monde militante où l’urgence est reconnue, avec une vision de l’école démocratique où l’opinion et la liberté d’expression et de pensée sont respectées : tel est le défi que nous proposons à la communauté éducative de relever pour fonder une nouvelle forme d’action. Au-delà du développement durable, de la transition écologique, de l’éco-citoyenneté et de la préservation de l’environnement, l’éducation qu’il convient de bâtir devra être soucieuse de construire une société capable de définir démocratiquement les moyens de protéger radicalement des humains les biens communs que sont la biosphère et son enveloppe atmosphérique, en prenant acte des limites de la Terre.

Une éducation relative à la condition terrest

Cette concurrence « par soustraction » qui renforce le pouvoir des grandes entreprises

22 dimanche Sep 2019

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

 

The Conversation

  1. Bernard Guilhon 
    Bernard Guilhon est un·e adhérent·e de The Conversation

    Professeur de sciences économiques, SKEMA Business School

SKEMA Business School

 

CC BY ND
L’indice de concentration de l’économie américaine, toutes activités confondues, a augmenté de près de 70% entre 1997 et 2014. Axel Alvarez / Shutterstock
 

Il est nécessaire de distinguer la concurrence schumpétérienne entraînant la disparition des entreprises matures et souvent obsolètes et la concurrence qui provoque l’élimination d’entreprises en phase de démarrage. Ces dernières sont des start-up susceptibles, parce que fortement innovantes, plus rentables et plus productives, de franchir les seuils de croissance et de concurrencer les entreprises installées. Dans ce contexte, elles sont rachetées et absorbées par de grandes entreprises installées ou elles se heurtent à des restrictions administratives. C’est ce que nous appelons la concurrence par soustraction.

Les mécanismes sont profondément différents. La destruction créatrice signifie que l’innovation est d’abord un processus interne à l’entreprise qui transforme la structure économique en éliminant les entreprises faiblement productives, en déclassant les technologies dépassées et en créant des gains de productivité indispensables pour que les niveaux de vie s’améliorent. Depuis les années 2000, l’innovation assure mal sa fonction de recomposition du système productif. Le nouveau apparaît sans apporter de progrès notables (thèse de l’économiste américain Robert J.Gordon), les entreprises peu productives se maintiennent grâce à des politiques monétaires accommodantes, la concentration des marchés augmente et favorise la constitution de rentes de monopole, le dynamisme entrepreneurial s’enraye.

Les États-Unis illustrent nettement le renforcement de la concentration des activités et ses effets macroéconomiques négatifs. En particulier, le déclin du dynamisme entrepreneurial se traduit par un déficit du nombre des start-up et l’effet durable de ce déficit représente un freinage des gains de productivité d’environ 0,5 % par an sur la période 2005-2018.

Des activités plus concentrées

L’évolution des niveaux de concentration aux États-Unis et en Europe sur la période 2000-2015 conduit au constat suivant, quelle que soit la méthode utilisée (considérer les marchés européens isolément ou traiter l’Europe comme un marché unique) : l’indice de concentration des 8 plus grandes entreprises pour chaque activité connaît une hausse significative aux États-Unis, alors qu’il reste stable ou en légère diminution en Europe sur cette période.

Évolution des niveaux de concentration aux États‐Unis et en Union européenne (2000‐2015). Compustat et ORBIS cités par le Conseil d’analyse économique (CAE), mai 2019.

Plus exactement, les calculs ont été réalisés pour les 10 pays européens pour lesquels l’information statistique sur les entreprises est de qualité : Autriche, Belgique, Allemagne, Espagne, Finlande, France, Royaume-Uni, Italie, Pays-Bas, Suède. Ce qui signifie que l’Europe est un espace concurrentiel que la Commission de la concurrence cherche à préserver à partir de l’idée que des structures plus concentrées conduisent inévitablement à des hausses de prix au détriment des consommateurs. En effet, sur la même période, les prix ont augmenté de 15 % de plus aux États-Unis qu’en Europe et la concentration des 4 plus grandes entreprises dans chaque industrie a augmenté de 5 points de pourcentage aux États-Unis par rapport à l’Union européenne.

Sur une période légèrement différente (1997-2014), les auteurs Grullon, Larkin et Michaely ont calculé que l’indice de concentration de l’économie américaine, toutes activités confondues, avait augmenté de près de 70 % et que ce phénomène pouvait s’observer dans un grand nombre d’industries. Une confirmation a été fournie en considérant l’autre facette de la concentration, c’est-à-dire le nombre de firmes cotées en bourse. On observe à la fois une forte diminution de ce nombre et une augmentation marquée de la taille de la firme moyenne qui est en 2014 trois fois plus importante en considérant les ventes réelles réalisées qu’elle ne l’était 20 ans auparavant. Si l’on s’attache aux entreprises non cotées, l’indice de concentration a augmenté de 76 % sur la période considérée.

Plusieurs facteurs sont à l’œuvre et notamment les rendements d’échelle et les effets de réseau qui caractérisent en particulier les activités numériques. Ainsi, en 2018, les deux entreprises les plus importantes représentaient 72 % de la consultation des médias sociaux (Facebook et YouTube), 70 % du marché des moteurs de recherche (Google et Microsoft), 69 % du marché de la téléphonie mobile (Verizon et ATT), 76 % du marché des services de livraison (Fedex et UPS), 75 % du marché des smartphones (Apple et Samsung), etc.

« Acquisitions tueuses »

L’effet de soustraction se manifeste d’abord par l’acquisition de start-up. Plus précisément, les grandes firmes installées déterminent leurs projets d’innovation et les comparent à ceux des start-up dans la même industrie. Les projets de ces dernières sont connus puisque la recherche de financements les conduit à déposer des brevets de façon à envoyer des signaux de qualité aux investisseurs et à les informer de leur potentiel de R&D. Si les projets sont estimés concurrents, les grandes entreprises, en absorbant les start-up, ont la capacité d’interrompre ces projets, c’est-à-dire de bloquer la concurrence future.

La préemption de la concurrence se manifeste notamment dans l’industrie pharmaceutique et, plus précisément, sur des médicaments potentiellement substituables appartenant à la même classe thérapeutique et possédant le même mécanisme d’action. Pour qualifier ce comportement, les auteurs ont utilisé l’expression d’« acquisitions tueuses ». Ce comportement se manifeste lorsque le pouvoir de marché de la grande entreprise est important et que ses brevets ont une date d’expiration éloignée, la concurrence des start-up pouvant provoquer dans l’intervalle un affaissement des parts de marché et du chiffre d’affaires.

6 % des acquisitions dans l’échantillon étudié sont des acquisitions tueuses. Le processus d’élimination des start-up est confirmé par le fait que, une fois l’acquisition réalisée, les projets de la grande entreprise sont rigoureusement semblables à ceux qu’ils étaient avant l’acquisition. L’hypothèse de redéploiement des technologies est donc écartée. N’est pas retenue non plus l’hypothèse de redéploiement du capital humain. 78 % des inventeurs des start-up absorbées quittent la grande entreprise et, pour ceux qui restent, le dépôt de brevets chute de 30 %.

Dans plusieurs secteurs de l’économie numérique comme les smartphones, près des trois quarts du marché sont détenus par les deux principaux acteurs. Pieter Beens/Shutterstock

Un autre mécanisme d’éviction des start-up réside dans l’influence des coûts d’entrée parmi lesquels les économistes Germán Gutierrez et Thierry Philippon soulignent l’importance des régulations. Le déclencheur est ici encore la grande entreprise installée qui est capable d’activer deux leviers complémentaires : le lobbying vis-à-vis du pouvoir politique et l’influence exercée sur les régulateurs (le pouvoir administratif).

En particulier, les agences publiques peuvent être capturées par les intérêts privés qu’elles avaient la charge de réguler. Les régulations administratives représentent des barrières à l’entrée significatives pour les petites entreprises. Les auteurs ont calculé que, lorsque le nombre de régulations est multiplié par deux au sein d’une industrie, cela a pour effet de diminuer le taux de croissance annuel de 2,5 % du nombre de petites entreprises relativement aux grandes entreprises. En d’autres termes, le nombre d’entrées est inversement proportionnel au nombre de restrictions administratives.

Des effets macroéconomiques négatifs

L’entrave à la concurrence bloque l’apparition de produits innovants et conduit à restreindre le nombre de produits offerts et à fixer des prix plus élevés. Le constat établi pour l’industrie pharmaceutique pourrait être étendu à d’autres industries.

Les grandes entreprises disposent de deux moyens d’action : l’élimination des futurs concurrents et le pouvoir hors marché (blocage par les régulations) exercé sur les sphères politique et administrative. Cependant, l’exercice du pouvoir de marché a d’autres conséquences. Si on considère les taux de marge (profit/production) des firmes américaines cotées en bourse, en particulier les grandes entreprises qui représentent un tiers de l’emploi total et 41 % des ventes en 2014, on observe une stabilité de ces taux entre 1960 et 1980, puis une augmentation d’un coefficient de 3,6 jusqu’en 2015. Au sein de chaque industrie, on constate que l’augmentation est très forte pour les grandes entreprises.

Les taux de marge impliquent un pouvoir de marché accru et cela a un effet sur les revenus du capital, les dividendes et plus largement les profits. Ce mécanisme n’a rien à voir avec les progrès technologiques. Lorsque le taux de marge est multiplié par 3,6, la part des profits dans le PIB augmente d’un facteur égal à 2,34. De plus, lorsque le taux de marge augmente, la hausse des dividendes conduit à une stagnation de l’investissement.

La concentration croissante des activités pose de redoutables problèmes. Un premier pas serait d’adapter les lois de la concurrence au contexte actuel, ce qui permettrait de renouveler l’approche des barrières à l’entrée et d’éviter que la part des entreprises nouvellement créées continue de baisser dans l’économie américaine.

Derrière les feux de forêt, le rôle clef des politiques agricoles

21 samedi Sep 2019

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

 

The Conversation

  1. Christian de Perthuis

    Professeur d’économie, fondateur de la chaire « Économie du climat », Université Paris Dauphine – PSL

Université Paris Dauphine

 

CC BY ND
Un troupeau qui paît près de Novo Grosso, dans l’État du Para, au Brésil, avec en arrière-plan un pan de forêt brûlé, le 25 août 2019. Joao Laet/AFP

Ce texte reprend un extrait de l’ouvrage de Christian de Perthuis à paraître le 1er octobre 2019 : « Le tic-tac de l’horloge climatique » (édition De Boeck Supérieur).


Alors que les incendies brûlent toujours en Amazonie, la question de la protection des forêts tropicales se pose de manière accrue. Dans le monde, elles ont sans doute perdu un cinquième de leur superficie depuis 1970.

Couvrant près de 12 % des terres émergées, soit bien moins que les forêts boréales et tempérées, elles constituent une réserve sans pareil de biodiversité, fournissant de multiples services écosystémiques. La grande majorité de ces services ne font d’ailleurs pas l’objet d’une valorisation sur les marchés ; ils ne sont pas non plus comptabilisés dans les grandeurs économiques standards, comme le PIB ou l’IDHI (indicateur de développement humain).

La motivation première des actions de protection qui ciblent ce milieu naturel exceptionnel est de sauvegarder ces services. Notamment le stockage de carbone, un volet majeur pour viser la neutralité carbone et freiner le réchauffement global. Les forêts tropicales primaires étant arrivées à maturité depuis longtemps, elles n’absorbent plus guère de CO2 supplémentaire. Mais elles piègent un important stock de carbone qui retourne à l’atmosphère en cas de déforestation ou de dégradation.

Sous l’angle du climat, l’enjeu majeur de la protection de la forêt tropicale est d’empêcher ce transfert de carbone depuis le réservoir terrestre vers l’atmosphère.

Des zones sous pression

En Indonésie, en Afrique sub-saharienne et au Brésil – les trois grandes aires géographiques où se concentrent les forêts tropicales –, la pression exercée par l’agriculture et l’élevage est l’un des facteurs déterminants à l’origine de la déforestation. C’est sur ces causes que doit prioritairement porter l’action.

Commençons par l’arc forestier Asie-Pacifique – qui part de la péninsule indochinoise, traverse la Malaisie, l’Indonésie et le nord de l’Australie, pour déboucher en Papouasie-Nouvelle-Guinée. Il couvre environ 3 millions de km2 ; c’est le massif qui a décliné le plus rapidement depuis 1970.

L’Indonésie, devenue au début des années 2010 le premier défricheur mondial devant le Brésil, en constitue l’épicentre. Ici, l’extension des cultures de rente, en particulier le palmier à huile, et l’industrie de la pâte à papier en sont deux moteurs importants ; tout comme le grignotement des forêts pour l’agriculture vivrière généralement à l’origine des feux déclenchés intentionnellement. L’exportation, souvent en contrebande, de bois d’œuvre vers la Chine a accéléré le mouvement.

Le quart de la forêt indonésienne est d’autre part implanté sur des tourbières, des milieux humides particulièrement riches. Quand ces sols sont retournés et drainés, ils relâchent des quantités de CO2 de trois à six fois supérieures à celles présentes dans les arbres.

En Indonésie, la forêt tropicale est menacée par l’expansion des plantations pour la pâte à papier et l’huile de palme. Chaideer Mahyuddin/AFP

En Afrique – au sud du Sahara et à Madagascar –, la forêt tropicale couvre une surface double de celle de l’arc Asie-Pacifique. La première cause de la déforestation concerne l’extension de pratiques agricoles ou pastorales provoquées par la croissance démographique. En savane arborée (forêt tropicale sèche), le surpâturage se conjugue à la culture sur brûlis pour appauvrir le milieu naturel. En zone humide, l’extension des plantations de café et de cacao (Ghana, Côte d’Ivoire) et les exportations de bois exotique viennent s’ajouter à la pression des systèmes vivriers. La quête du bois de feu pour les systèmes de cuisson exerce enfin une pression supplémentaire dans l’ensemble de la zone.

Quant à l’Amérique latine, elle abrite la moitié des forêts tropicales mondiales. Principal massif, la forêt amazonienne brésilienne occupait 4 millions de km2 en 1970 (plus de 7 fois la superficie de la France métropolitaine), mais seulement 3,3 millions en 2018. Elle a constitué le principal foyer de déforestation dans le monde jusqu’au milieu des années 2000. Entre 2004 et 2012, le rythme de déforestation a été divisé par quatre d’après les données satellitaires officielles, une performance sans équivalent dont on peut tirer quelques enseignements.

En Amazonie, l’inconstance des gouvernements

L’État brésilien a mené jusqu’à la fin des années 1980 une politique vigoureuse de colonisation agricole de l’Amazonie, subventionnant l’installation de petits agriculteurs tournés vers des systèmes vivriers, avec une vision stratégique d’occupation du territoire fédéral. Après la chute de la dictature militaire (1985), la politique libérale favorise l’« agro-business » à base de ranchs exportant la viande bovine sur le marché de Chicago et la culture du soja.

Malgré la mise en place dans les années 1990 de réserves forestières en lien avec les peuples autochtones, le rythme de la déforestation continue de progresser jusqu’en 2004.

La situation change radicalement dans la décennie suivante sous la présidence de Lula (2003-2010). Le système national d’imagerie satellite permet au gouvernement fédéral de mieux lutter contre la déforestation illégale. En réaction à des campagnes d’ONG, un moratoire est mis en place en 2006 sur les exportations de soja et les règles sur le marché de Chicago interdisent l’importation de viande issue de zones récemment défrichées.

Lula, l’ancien président brésilien, lors d’une présentation sur la déforestation illégale en Amazonie en 2009. Entre 2005 et 2013, la déforestation avait diminué de 70 %. Evaristo Sa/AFP

Simultanément, le pays devient un laboratoire de projets visant à concilier l’amélioration des pratiques des petits agriculteurs (intensification des productions à l’hectare, agro-foresterie, etc.) et la protection de la forêt.

Comme l’a analysé Gabriela Simonet dans sa thèse où elle approfondit le cas de projets conduits dans le cadre du Fonds Amazone, la difficulté est de mettre en place des incitations économiques qui rémunèrent durablement les pratiques respectueuses de la forêt. En l’absence de modèles économiques donnant un avantage définitif à ces pratiques, les résultats obtenus restent fragiles.

Le Brésil, premier défricheur de forêt tropicale

C’est ce que montre bien la reprise de la déforestation sur la période récente au Brésil.

Entre 2012 et 2018, le rythme de déforestation a de nouveau doublé, alors que le pays faisait face à une grave crise économique et morale, affaiblissant la capacité d’impulsion du pouvoir fédéral. Depuis l’arrivée à la présidence de Jair Bolsonaro, en janvier 2019, cette dynamique s’est accélérée. Comme simultanément l’Indonésie a réalisé des progrès rapides en réduisant le rythme de sa déforestation en 2017 et 2018, le Brésil a retrouvé son statut de premier défricheur mondial de forêt tropicale.

On peut retenir deux leçons principales de l’expérience brésilienne : les cycles d’accélération et de décélération de la déforestation répondent aux changements de priorité opérés à l’égard des producteurs agricoles, grands et petits ; en l’absence de modèles économiques donnant un avantage définitif aux pratiques agricoles respectueuses de la diversité biologique des forêts, les progrès réalisés par les politiques forestières restent réversibles.

← Articles Précédents
septembre 2019
L M M J V S D
 1
2345678
9101112131415
16171819202122
23242526272829
30  
« Août   Oct »

Stats du Site

  • 97 083 hits

Liens

  • Associations-patrimoines
  • La Fédération d'environnement Durable
  • Moelle Osseuse
  • Visite de Mirmande
septembre 2019
L M M J V S D
 1
2345678
9101112131415
16171819202122
23242526272829
30  
« Août   Oct »

Commentaires récents

protodiacre dans Meghan et Harry : ces « confes…
Светлана dans Donald Trump cerné par les…
Paf dans Le bilan économique des années…
Hervé Brient dans « Apocalypse snow » : la délic…
Paf dans L’humiliation comme méthode di…

Propulsé par WordPress.com.

Annuler

 
Chargement des commentaires…
Commentaire
    ×