• Actualités régionales
    • Communes limitrophes
    • Régionales
  • Adhésion
  • André Lhote
  • Au-delà du 14 juillet, des interrogations tenaces sur l’usage des armées
  • Auteurs morts en 17, (déjà…)
  • BD « Sciences en bulles » : À la recherche des exoplanètes
  • Bonnes feuilles : Le château d’If, symbole de l’évasion littéraire
  • Comment la lecture enrichit l’éducation des enfants
  • Corruption, contrebande : le drame de Beyrouth et la question de la sécurité dans les zones portuaires
  • Des crises économiques à la crise de sens, le besoin d’une prospérité partagée
  • Evènements
  • Lecture : comment choisir un album qui peut vraiment plaire aux enfants
  • L’économie fantôme de l’opéra
  • L’Europe s’en sortirait-elle mieux sans l’Allemagne ?
  • Maladie de Lyme : attention au sur-diagnostic !
  • Mirmande
    • Pages d’histoire
    • AVAP et PLU
    • Fonds de dotation et patrimoine
  • NutriScore : quand l’étiquetage des aliments devient prescriptif
  • Penser l’après : Le respect, vertu cardinale du monde post-crise ?
  • Podcast : le repos, une invention humaine ?
  • Prévoir les changements climatiques à 10 ans, le nouveau défi des climatologues
  • Qui sommes-nous?
  • Réforme de la taxe d’habitation… et si la compensation financière n’était pas le seul enjeu ?
  • Revues de presse et Chroniques
  • S’INSCRIRE AU BLOGUE
  • Scène de crime : quand les insectes mènent l’enquête
  • The conversation – Changement climatique : entre adaptation et atténuation, il ne faut pas choisir
  • Une traduction citoyenne pour (enfin) lire le dernier rapport du GIEC sur le climat

Mirmande PatrimoineS Blogue

~ La protection des patrimoines de Mirmande.com site

Mirmande PatrimoineS Blogue

Archives Mensuelles: juin 2021

En France, des services de renseignement sans vrais contre-pouvoirs

30 mercredi Juin 2021

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

  1. Félix TréguerPost-doctorant au CERI, Sciences Po

Félix Tréguer participe au projet de recherche GUARDINT (www.guardint.org), qui porte sur le contrôle des services de renseignement et de leurs activités de surveillance. Il est également membre bénévole de La Quadrature du Net, une association de défense des droits impliquée dans des recours contentieux contre les pratiques de surveillance des services de renseignement français.

Partenaires

Sciences Po
CC BY NDNous croyons à la libre circulation de l’information
Le 30 avril 2021, Nicolas Lerner, directeur de la Direction Générale de la Sécurité Intérieure (DGSI), assiste à un rassemblement en mémoire de Stéphanie Montfermé, fonctionnaire de police assassinée le 23 avril à Rambouillet par un homme exposé à de la propagande djihadiste. La menace de terroristes solitaires, frappant à petite échelle et de manière autonome, participe à légitimer l’opacité du système de renseignement français. Ludovic Marin/AFP
  • r

Huit ans après les révélations du lanceur d’alerte Edward Snowden, l’Assemblée nationale vient d’adopter, dans une certaine indifférence, le projet de loi relatif à la prévention d’actes de terrorisme et au renseignement. Le texte est désormais en cours d’examen au Sénat.

Il s’agit de la première révision d’ampleur de la loi renseignement adoptée en 2015. À l’époque, le gouvernement de Manuel Valls avait défendu ce texte en expliquant que la France était « l’une des dernières démocraties occidentales à ne pas disposer d’un cadre légal, cohérent et complet pour les activités de renseignement ».

Le rapporteur de la loi à l’Assemblée nationale, Jean‑Jacques Urvoas, soulignait à l’envi combien elle constituait « un progrès de l’État de droit ». L’affaire était entendue : les services secrets voyaient leurs missions et leurs méthodes consacrées dans la loi ; le renseignement sortait autant que possible de l’exceptionnalité qui le caractérisait pour rentrer dans le rang des politiques publiques normales.https://platform.twitter.com/embed/Tweet.html?creatorScreenName=FelixTreguer&dnt=false&embedId=twitter-widget-0&features=eyJ0ZndfZXhwZXJpbWVudHNfY29va2llX2V4cGlyYXRpb24iOnsiYnVja2V0IjoxMjA5NjAwLCJ2ZXJzaW9uIjpudWxsfSwidGZ3X2hvcml6b25fdHdlZXRfZW1iZWRfOTU1NSI6eyJidWNrZXQiOiJodGUiLCJ2ZXJzaW9uIjpudWxsfSwidGZ3X3R3ZWV0X2VtYmVkX2NsaWNrYWJpbGl0eV8xMjEwMiI6eyJidWNrZXQiOiJjb250cm9sIiwidmVyc2lvbiI6bnVsbH19&frame=false&hideCard=false&hideThread=false&id=587880717964673024&lang=en&origin=https%3A%2F%2Ftheconversation.com%2Fen-france-des-services-de-renseignement-sans-vrais-contre-pouvoirs-163040&sessionId=04f33887fb6e36395718ec81ebafabb669b96bda&siteScreenName=FR_Conversation&theme=light&widgetsVersion=82e1070%3A1619632193066&width=550px

Cette manière de présenter les choses avait le mérite de reconnaître les lacunes historiques de la France en matière de contrôle des services de renseignement. Elle tendait cependant à faire oublier un important corollaire : le fait que la loi votée légalisait a posteriori des mesures de surveillance employées depuis des années en toute illégalité, ce qui aurait dû valoir aux responsables politiques et administratifs ayant autorisé ces programmes des poursuites pénales.

Le projet de loi débattu en ce moment même au Sénat est certes bien moins ambitieux que son prédécesseur de 2015. Il relève cependant d’une même logique, bien analysée par les sociologues Laurent Bonelli, Hervé Rayner et Bernard Voutat, laquelle consiste à recourir au droit pour légitimer l’action des services et préserver leurs marges de manœuvre.

Cette nouvelle loi cherche en effet à sécuriser sur le plan juridique des capacités de surveillance toujours plus étendues – telles les « boîtes noires » scannant le trafic Internet pour détecter des URL « suspectes » (article 13), le partage de données entre services français (article 7), ou l’obligation pour les opérateurs et gestionnaires de serveurs de collaborer avec les autorités pour « pirater » les messageries chiffrées (article 10), etc. –, tout en abritant les services de renseignement de tout réel contre-pouvoir.

Renforcer le contrôle du renseignement devrait pourtant constituer une priorité compte tenu de sa place croissante au sein de l’État. Depuis 2015, les services de renseignement ont vu leurs effectifs augmenter de 30 %, notamment pour développer leurs capacités technologiques. Dans ce contexte, le recours aux différentes techniques de surveillance connaît lui aussi une forte croissance et porte sur des domaines toujours plus sensibles pour les libertés publiques. Ainsi, l’activité consacrée à la surveillance des mouvements sociaux – érigée en priorité depuis 2019 à la suite du mouvement des « gilets jaunes » – a plus que doublée en trois ans, passant de 6 % du total des mesures de surveillance en 2017 à plus de 14 % en 2020.

Les activités de surveillances des mouvements sociaux et de protection des institutions (en gris) représentaient 6 % des demandes d’actes de renseignement en 2017…. CNCTR
… contre plus de 14 % (en rose) en 2020. CNCTR

En dépit de cette montée en puissance, la quasi-totalité des propositions visant à renforcer les dispositifs de contrôle sont restées lettres mortes, qu’elles émanent de la Délégation parlementaire au renseignement (la DPR, composée de députés et de sénateurs), de la Commission nationale de l’informatique et des libertés (CNIL, censée contrôler les fichiers dits « régaliens »), ou encore de la Commission nationale de contrôle des techniques de renseignement (la CNCTR, qui rend des avis sur les mesures de surveillance sollicitées par les services).

Des échanges de données hors de tout contrôle

Depuis plusieurs années, la CNCTR demande par exemple de pouvoir contrôler le partage de données entre services de renseignement français et services étrangers. En France, la question est d’autant plus pressante que les flux de données échangés entre la Direction générale de la sécurité extérieure (DGSE) et la National Security Agency (NSA) ont connu une augmentation rapide suite à la conclusion des accords SPINS, signés fin 2015 entre la France et les États-Unis pour renforcer la coopération des deux pays en matière de renseignement.

Or, la loi de 2015 proposée par le gouvernement Valls excluait explicitement tout contrôle de la CNCTR sur ces collaborations internationales, nourries par des réseaux de professionnels du renseignement jouissant d’une forte autonomie, et que le chercheur Didier Bigo a proposé d’appréhender à travers la notion de « guilde transnationale ».

Dans son rapport annuel publié en 2019, la CNCTR admettait que ce véritable trou noir dans le contrôle du renseignement présentait un risque majeur, puisqu’il pourrait permettre aux services français de recevoir de leurs homologues des données qu’ils n’auraient pas pu se procurer légalement au travers des procédures définies dans la loi française. Dans le langage feutré qui la caractérise, la commission estimait qu’« une réflexion devait être menée sur l’encadrement légal des échanges de données entre les services de renseignement français et leurs partenaires étrangers ».

Pour appuyer sa demande, la CNCTR évoquait la jurisprudence de la Cour européenne des droits de l’Homme (CEDH). Celle-ci a encore rappelé dans son arrêt Big Brother Watch c. Royaume-Uni du 25 mai 2021 que ces échanges devaient être encadrés par le droit national et soumis au contrôle d’une autorité indépendante (§ 362). Or, à ce jour, la France est le dernier État membre de l’Union européenne à ne disposer d’aucun cadre juridique pour encadrer ces échanges internationaux. Ni le gouvernement ni les députés n’ont apparemment trouvé opportun d’y remédier.https://www.youtube.com/embed/gCWkTuwQdbw?wmode=transparent&start=0

La jurisprudence ignorée

Un autre principe essentiel dégagé par la jurisprudence européenne est le droit à l’information des personnes ayant fait l’objet d’une mesure de surveillance, dès lors qu’une telle information n’est plus susceptible d’entraver l’enquête menée à leur encontre par les services.

Dans un rapport publié en janvier 2018, la CNCTR passait en revue la jurisprudence afférente et mentionnait plusieurs exemples de législations étrangères – la loi allemande notamment – garantissant une procédure de notification des personnes surveillées et prévoyant un certain nombre d’exceptions étroitement limitées. Elle était forcée de constater que, en l’état du droit français, « les personnes surveillées ne peuvent être informées des techniques de renseignement mises en œuvre à leur encontre ». Le projet de loi élude complètement cet enjeu.

Le gouvernement a également choisi d’ignorer une autre exigence, encore rappelée par le Conseil d’État dans son arrêt du 21 avril 2021 relatif à la conservation généralisée des données de connexion. Dans cette décision qui donnait largement gain de cause au gouvernement, le Conseil d’État se fondait sur un arrêt de la Cour de justice de l’Union européenne du 6 octobre 2020 pour exiger que les avis rendus par la CNCTR sur les mesures de surveillance soient « conformes » (c’est-à-dire impératifs pour le gouvernement) et non plus simplement consultatifs. La CNIL l’a à son tour rappelé début mai dans son avis rendu sur le projet de loi. Nouvelle fin de non-recevoir du gouvernement.

Quant à la volonté conjointe de la DPR et de la CNCTR de garantir à cette dernière un droit de regard sur les fichiers du renseignement, elle se heurte à l’opposition farouche des services. Comme l’ont souligné les parlementaires de la DPR, il s’agit pourtant d’une étape cruciale du contrôle, seule capable de permettre à la CNCTR de « s’assurer qu’aucune donnée n’a été recueillie, transcrite ou extraite en méconnaissance du cadre légal, voire en l’absence d’une autorisation accordée par le Premier ministre ».

On sera par ailleurs bien en peine de trouver, dans le cadre juridique français, des dispositions encadrant d’autres activités typiques du renseignement et extrêmement sensibles du point de vue des libertés publiques. C’est le cas de la surveillance des lettres et des colis postaux, ou encore de l’infiltration de certains groupes par des agents du renseignement. Au Royaume-Uni, l’Investigatory Powers Act de 2016 couvre pourtant ces deux domaines.

De 2016 à 2020, les demandes d’actes hautement sensibles pour les libertés individuelles, comme la géolocalisation en temps réel (+246 %) ou l’accès aux données de connexion en temps réel (+346,7 %) ont explosé. CNCTR

Le loi française ne fait également aucune mention de la surveillance dite « en source ouverte », notamment sur les réseaux sociaux comme Facebook ou Twitter – une activité sur laquelle peu de choses ont fuité dans la presse mais dont on sait qu’elle a pris une importance croissante ces dix dernières années.

L’impossible transparence ?

Enfin, le texte aujourd’hui débattu au Parlement ne s’accompagne d’aucun progrès en matière de transparence des activités de renseignement. Pourtant, l’étendue du secret obère gravement la capacité des journalistes, des ONG, des chercheurs mais aussi d’autres acteurs institutionnels, comme les juges, à jouer leur rôle de contre-pouvoirs.

En dehors des quelques informations ayant filtré grâce au petit cercle de journalistes spécialisés disposant d’un accès à des sources au sein des services, et outre les rares allusions faites par les responsables du renseignement lors d’auditions parlementaires ou par la CNCTR, aucune information officielle n’est fournie sur la nature exacte des technologies utilisées par les services. Leur imbrication dans les processus de production du renseignement, la nature des marchés publics et l’identité des sous-traitants privés, et même les interprétations juridiques ayant cours au sein des services, restent également marqués par une grande opacité.https://platform.twitter.com/embed/Tweet.html?creatorScreenName=FelixTreguer&dnt=false&embedId=twitter-widget-1&features=eyJ0ZndfZXhwZXJpbWVudHNfY29va2llX2V4cGlyYXRpb24iOnsiYnVja2V0IjoxMjA5NjAwLCJ2ZXJzaW9uIjpudWxsfSwidGZ3X2hvcml6b25fdHdlZXRfZW1iZWRfOTU1NSI6eyJidWNrZXQiOiJodGUiLCJ2ZXJzaW9uIjpudWxsfSwidGZ3X3R3ZWV0X2VtYmVkX2NsaWNrYWJpbGl0eV8xMjEwMiI6eyJidWNrZXQiOiJjb250cm9sIiwidmVyc2lvbiI6bnVsbH19&frame=false&hideCard=false&hideThread=false&id=1131575518862675969&lang=en&origin=https%3A%2F%2Ftheconversation.com%2Fen-france-des-services-de-renseignement-sans-vrais-contre-pouvoirs-163040&sessionId=04f33887fb6e36395718ec81ebafabb669b96bda&siteScreenName=FR_Conversation&theme=light&widgetsVersion=82e1070%3A1619632193066&width=550px

Là encore, la comparaison avec les principales puissances européennes du renseignement révèle en miroir le retard français. Il suffit pour s’en convaincre de consulter le rapport publié en août 2016 par David Anderson en marge du débat parlementaire sur l’Investigatory Powers Act en Grande-Bretagne. Ce juriste en charge du contrôle indépendant des législations antiterroristes y faisait état des capacités technologiques en matière de collecte et d’exploitation « massive » de données (« bulk powers »). Il donnait aussi plusieurs exemples de cas dans lesquels ces technologies étaient employées et évaluait leur intérêt opérationnel à partir de documents internes et d’entretiens avec certains hauts responsables.

En France, un tel degré de transparence semble pour l’heure inimaginable. Même si la CNCTR a fait quelques progrès dans la précision des informations fournies dans ses rapports, elle se contente pour l’essentiel de décrire l’état du droit et son évolution, ou de diffuser des statistiques générales sur les types de mesures autorisées et leurs finalités. On est encore loin du niveau de détail venant nourrir le débat public et alimenter les travaux des parlementaires, des journalistes ou des ONG dans des pays comme le Royaume-Uni ou l’Allemagne.

Faute pour le Sénat d’amender le projet de loi sur ces différents points, cette réforme constituera une nouvelle occasion manquée dans la tentative de réconcilier le renseignement français avec les normes internationales et les bonnes pratiques observées à l’étranger.

À quoi ressemblaient les premiers restaurants ?

29 mardi Juin 2021

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

  1. Nathalie LouisgrandEnseignante-chercheure, Grenoble École de Management (GEM)
Grenoble École de Management (GEM)

Grenoble École de Management (GEM) apporte des fonds en tant que membre fondateur de The Conversation FR.

CC BY NDNous croyons à la libre circulation de l’information
Déjeuner au Palais Royal, 1822, par George Cruikshank (1792-1878). British library

Le concept même de restaurant connaît aujourd’hui des changements majeurs avec le « click and collect » et les « dark kitchens » ou « cuisines fantômes ». Avec ces nouvelles façons de se restaurer, le consommateur tend à s’éloigner du lieu physique que constitue le restaurant. Ces bouleversements interrogent son identité même nous invitent à nous questionner sur ses origines.

Du « bon bouillon qui restaur » au lieu le « restaurant »

Le mot restaurant, avec le sens que nous lui connaissons aujourd’hui, a été validé par l’académie française en 1835. Jusque-là, le « restauran », aussi appelé « bouillon restaurateur », désigne un plat composé principalement, au gré des recettes, de viande, d’oignons, d’herbes et de légumes. Il s’agit d’un bouillon aux vertus médicinales et digestives dont le but initial est de redonner des forces aux personnes faibles, de les « restaurer ». Le terme « restaurant » a donc initialement une connotation médicale. D’ailleurs, les lieux qui les proposent à la vente dans les années 1760 se nomment aussi « maison de santé ».

Le premier restaurant

Le premier restaurant tel que nous l’entendons aujourd’hui a ouvert ses portes à Paris, en 1765, rue des Poulies, l’actuelle rue du Louvre. Sur le devant de la boutique est gravée la phrase latine issue de la Bible : « Venite ad me omnes qui stomacho laboratis, et ego vos restaurabo. » « Venez à moi, ceux dont l’estomac souffre, et je vous restaurerai. » C’est de là qu’est venu le terme « restaurant ». Son propriétaire se nomme Mathurin Roze de Chantoiseau.

D’autres écrits évoquent un certain Boulanger. Quoi qu’il en soit il vend des mets « restaurans » tels que la volaille, les œufs, les pâtes au beurre, les gâteaux de semoule, dont on disait que la couleur claire possédait des vertus bénéfiques pour la santé. Ce lieu est aussi un des premiers à connaître un certain succès culinaire grâce à la « volaille sauce poulette » réputée dans le Tout-Paris.

Diderot, le mentionne dès 1767 dans une lettre adressée à Sophie Volland :

« Si j’ai pris du goût pour le restaurateur ? Vraiment oui ; un goût infini. On y sert bien, un peu chèrement, mais à l’heure que l’on veut. […] Cela est à merveille, et il me semble que tout le monde s’en loue. »

L’écrivain Édouard Fournier relate d’ailleurs l’apparition de ce restaurant dans l’ouvrage Paris démoli, publié en 1853 :

« Tout près de là, dans la rue des Poulies, s’ouvrit, en 1765, le premier Restaurant, qui fut ensuite transféré à l’hôtel d’Aligre. C’était un établissement de bouillons, où il n’était pas permis de servir de ragoût, comme chez les traiteurs, mais où l’on donnait des volailles au gros sel, des œufs frais et cela sans nappe, sur de petites tables de marbre. »

Dans ces années qui précèdent la Révolution française, Mathurin Roze de Chantoiseau est le premier à proposer le concept novateur qui consiste en un service sans horaire fixe, sur une table individuelle et à offrir un choix de plats dont le prix est indiqué à l’avance, devant le restaurant. À cette époque, en France, le seul endroit où l’on peut manger en dehors de chez soi est la taverne ou l’auberge.

Or ces lieux ne proposent que des tables d’hôtes avec un plat unique, au prix non fixé à l’avance, dans lesquels on ne vient qu’à heure fixe. De plus, la qualité n’est pas toujours au rendez-vous. Les personnes qui se rendent dans ces lieux le font pour se nourrir et non pas pour apprécier les qualités gustatives d’un plat. Les rôtisseurs et les traiteurs présents aussi à l’époque ne peuvent vendre que des pièces entières et non pas des portions individuelles.

Cette nouvelle façon de se nourrir, proposée par Mathurin Roze de Chantoiseau, connaît un très grand succès, et ce style de restaurant va se répandre tout en évoluant. La notion de plaisir de manger va devenir prépondérante et la gastronomie va alors se développer, voire, dans une certaine mesure, se démocratiser. Jusqu’alors, les seules personnes qui mangeaient très bien en France étaient les membres de la cour à Versailles ou les nobles car ils disposaient de leurs cuisiniers personnels.

Les nouveaux restaurants et l’apparition du menu

À la veille de la Révolution française, sur la centaine de restaurants recensés dans la capitale, de nombreuses enseignes sont fort renommées. Les clients ne viennent plus dans ces lieux pour manger des plats reconstituants mais pour déguster des mets qui charment leurs papilles. Le restaurant d’alors est un endroit luxueux que l’on trouve principalement dans le quartier du Palais Royal. En effet, réside ici une clientèle capable de s’offrir des repas qui, s’ils ne sont plus réservés aux aristocrates, n’en demeurent pas moins onéreux. C’est donc une élite aisée qui les fréquente.

La grande nouveauté des restaurants d’alors est le menu. Les restaurants proposent très souvent un choix incalculable de plats. Le menu a donc été inventé car « il ne propose qu’un « menu » aperçu de la prodigalité de l’établissement » comme l’écrit l’historienne Rebecca Spang.

Un extrait de la carte du restaurant Véry, en 1790. Bibliothèque de la Ville de Paris

Cependant, même avec cette version « abrégée » de ce qui est offert, le client a parfois besoin de longues minutes pour le lire. D’ailleurs dans les premiers temps, son utilisation n’est pas évidente pour de nombreux clients. D’autre part, le menu permet aussi grâce aux mots qui le composent, d’éveiller des désirs et des sensations autrement que par l’odorat ou la vue et d’aiguiser l’appétit, fonctions qu’il conserve aujourd’hui.

Antoine de Beauvilliers et le premier restaurant gastronomique

Antoine de Beauvilliers, ancien Officier de bouche du comte de Provence, frère du roi, est le premier de sa profession à quitter son maître pour s’installer à son compte à Paris. En 1782 il ouvre, dans le quartier du Palais-Royal, rue de Richelieu, Le Beauvilliers (qui sera remplacé quelques années plus tard, toujours dans la même rue par La Taverne de Londres). Cet endroit, fort luxueux, va rapidement connaître un immense succès car il propose à ses clients – principalement des aristocrates – de manger comme à Versailles. Il y a en effet un cadre magnifique, un service irréprochable, une superbe cave et des plats exquis présentés avec soin dans une vaisselle magnifique. Pendant de nombreuses années, sa cuisine demeurera inégalée au sein de la haute société parisienne. Ce restaurant est d’ailleurs considéré comme le premier restaurant gastronomique français.

Beauvilliers, L’art du Cuisinier, 1814. Wikimedia

Dans les années précédant puis suivant la Révolution française, de nombreux cuisiniers, qui jusqu’alors travaillaient pour des membres de la noblesse, suivront l’exemple d’Antoine de Beauvilliers et ouvriront leur propre restaurant. C’est ainsi qu’une cuisine de qualité faite de recettes, de rites et de façons de manger, mais comprenant aussi les arts de la table passa des cuisines privées de l’aristocratie à celles, publiques, de la haute société.

La restauration gastronomique française fait son apparition et de célèbres et luxueuses enseignes comme Véry, ou Les Trois-Frères Provençaux (qui importera à Paris la brandade de morue et la bouillabaisse) ou encore le restaurant le Grand Véfour, toujours en service aujourd’hui voient le jour. L’aspect médical des premiers « bouillons restaurans » est désormais loin et remplacé par la gastronomie, référence culturelle mondialement reconnue.

Pourquoi n’y a-t-il (presque) plus d’eau sur Mars ?

28 lundi Juin 2021

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

  1. Franck MontmessinDirecteur de recherche CNRS au Laboratoire Atmosphères, Milieux, Observations Spatiales (LATMOS), Université de Versailles Saint-Quentin-en-Yvelines (UVSQ) – Université Paris-Saclay
Université Paris-Saclay
Université de Versailles Saint-Quentin-en-Yvelines

Université Paris-Saclay apporte des fonds en tant que membre fondateur de The Conversation FR.

Université de Versailles Saint-Quentin-en-Yvelines apporte un financement en tant que membre adhérent de The Conversation FR.

CC BY NDNous croyons à la libre circulation de l’information
La calotte polaire nord de Mars photographiée par la mission NASA Mars Reconnaissance Orbiter. NASA/JPL-Caltech/MSSS

Mars est connue pour sa fine atmosphère, où le CO2 domine et fournit l’essentiel de la masse et de la pression atmosphériques, cette dernière comparable à celle que l’on trouve dans la stratosphère de la Terre à plus de 30 kilomètres au-dessus de la surface.

Mais quid de l’eau ? L’eau sur Mars s’observe actuellement à la surface sous la forme d’une couche de glace au pôle nord épaisse de plusieurs kilomètres, sous forme de givre saisonnier aux périodes de l’année les plus froides, et dans l’atmosphère, sous forme de vapeur et de glace dans les nuages. Néanmoins, l’atmosphère martienne est extrêmement sèche en comparaison de la Terre : en proportion, 100 fois moins d’eau est présente dans l’atmosphère de Mars que dans celle de la Terre. Alors que les précipitations sur Terre se traduisent par des pellicules d’eau de plusieurs centimètres, l’eau que l’on ferait précipiter sur Mars ne formerait qu’une fine pellicule inférieure au millimètre.

De nouvelles données permettent de mieux comprendre pourquoi il n’y a (presque) plus d’eau sur Mars alors qu’elle a dû être abondante par le passé.

L’eau s’échappe de l’atmosphère martienne

Car tout indique que Mars n’a pas toujours été la planète froide et aride que l’on connaît aujourd’hui. Mars expose de nombreux témoignages à sa surface d’un passé lointain – environ quatre milliards d’années en arrière, où l’eau liquide circulait à grands flots et stagnait sous forme de bassins ou de lacs, tels que dans le cratère Jezero que le rover Perseverance est en train d’explorer à la recherche de traces de vie passée.

Le cratère Jézéro, où a atterri Perseverance en février 2021, était un lac dans un passé lointain. NASA/JPL-Caltech

Pour que l’eau liquide circule autant et réside en surface suffisamment longtemps pour creuser toutes ces empreintes, il faut invoquer un climat radicalement différent de celui que l’on observe actuellement. Mars, Terre et Vénus ont sans doute été accrétées à partir des mêmes matériaux de base, ce qui signifie qu’elles ont dû connaître de grandes similitudes très tôt dans leur histoire. Mais alors que la Terre et Vénus ont conservé l’essentiel de leur atmosphère épaisse, Mars, de par sa faible taille et sa faible gravité, n’a pas pu retenir son atmosphère au cours du temps.


À lire aussi : La Terre a-t-elle toujours été bleue ?


C’est en effet cette « théorie de l’échappement » qui permet d’expliquer la ténuité actuelle de l’atmosphère de Mars. Cet échappement se produit très haut dans l’atmosphère, au-dessus de 200 kilomètres, là où les molécules se sont déjà dissociées en atomes et où les plus légers, comme l’hydrogène, peuvent s’arracher de la faible gravité de Mars. Exposée aux particules énergétiques du vent solaire, cette « exosphère » de Mars est aussi son « talon d’Achille », car elle a laissé au cours du temps l’équivalent de centaines d’atmosphères actuelles se perdre dans l’espace.

Les nouvelles données

De nouvelles données, reçues de la mission Trace Gas Orbiter de l’ESA (l’Agence Spatiale Européenne) et publiées aujourd’hui dans la revue Nature Astronomy, viennent nous éclairer sur les mécanismes subtils qui président à l’échappement de l’eau.

Cet échappement était connu de tous, notamment parce que l’eau martienne possède une composition qui lui est propre. En effet, les isotopes de l’eau, en particulier l’eau « semi-lourde » HDO où un atome d’hydrogène (H) est remplacé par un atome de deutérium (D) deux fois plus lourd, que l’on a mesurés sur Mars depuis les années 80, nous révèlent une concentration relative 6 fois plus grande en deutérium sur Mars que sur Terre. Cet enrichissement relatif est interprété justement comme le résultat de l’échappement de l’hydrogène, qui a progressivement laissé derrière lui les isotopes le plus lourds, en l’occurrence D et HDO, expliquant ce rapport d’enrichissement de 6.

Par extrapolation, la quantité d’eau initiale sur Mars devait être au moins 6 fois plus importante que maintenant, soit l’équivalent d’une couche liquide d’une centaine de mètres recouvrant la planète. Ceci montre à quel point le rapport HDO/H20 est crucial pour se projeter dans la jeunesse de Mars et pour éclairer l’hypothèse d’un climat passé chaud et humide, préalable à son habitabilité.

Comparer le rapport isotopique entre eau « semi-lourde » HDO et eau « habituelle » H20 pour comprendre l’évolution de la quantité d’eau à la surface de Mars, et son climat. Franck Montmessin, Fourni par l’auteur

Ces résultats du Trace Gas Orbiter nous permettent de mieux comprendre les conditions dans lesquelles l’eau et l’eau semi-lourde présentes dans la basse atmosphère sont transportées dans la très haute atmosphère pour ensuite se transformer en atomes capables de s’échapper. En effet, on s’est longtemps demandé à quel point les processus intermédiaires pouvaient modifier la manière dont hydrogène et deutérium issus de l’eau accédaient à l’exosphère. Depuis 20 ans, deux théories suggèrent qu’hydrogène et deutérium ne peuvent atteindre l’exosphère dans les proportions qui sont les leurs dans les molécules d’eau de la basse atmosphère. Ces processus intermédiaires sont d’une part la condensation, qui forme les nuages de glace d’eau martiens, et d’autre part la photolyse, qui casse la molécule d’eau et libère un atome d’hydrogène ou de deutérium sous l’action des rayons UV.

Étudiées en laboratoire depuis des décennies, condensation et photolyse sont connues pour affecter l’eau et ses isotopes de manière spécifique : c’est que l’on appelle le « fractionnement isotopique ». C’est d’ailleurs grâce à notre compréhension du fractionnement isotopique qu’il est possible de retracer le parcours climatique passé de la Terre en forant des carottes de glace aux pôles, où la concentration de HDO révèle le climat plus ou moins froid qui régnait au moment où l’eau a condensé en glace. C’est une discipline où la communauté française excelle, et qui a permis d’initier des travaux exploratoires dans le contexte martien au sein des laboratoires français.


À lire aussi : Pourquoi y a-t-il de l’eau sur Terre ?


Sur Mars, le fractionnement par photolyse opère de manière opposée au fractionnement par condensation. Et surtout, les deux n’opèrent pas au même moment dans le parcours de l’eau – ce dernier point a une incidence majeure sur le devenir des atomes d’hydrogène et de deutérium. En effet, la condensation de la vapeur d’eau tend à concentrer le HDO dans la glace formée, et appauvrit ainsi de facto la vapeur en HDO. La photolyse, quant à elle, tend à favoriser la libération du deutérium présent dans la molécule HDO. Longtemps, il a été supposé que le fractionnement isotopique par condensation, qui rend la vapeur plus pauvre en deutérium, dominait sur la photolyse et forçait la proportion de deutérium dans l’exosphère à être plus faible que dans l’eau de la basse atmosphère.

Ce que l’étude récente révèle, c’est que la condensation joue en fait un rôle mineur dans la proportion de deutérium de l’exosphère. Grâce à l’instrument Atmospheric Chemistry Suite du Trace Gas Orbiter et à ses mesures simultanées de H20 et HDO, nous avons pu montrer d’où viennent les atomes d’hydrogène et de deutérium, à une altitude et une période de l’année martienne où la condensation n’a pas la possibilité d’interférer avec la photolyse.

C’est bien la photolyse qui produit l’essentiel des atomes et qui dicte le fractionnement isotopique des atomes d’hydrogène qui s’échappent de la haute atmosphère martienne.

Prochaine destination : comprendre le parcours de l’eau, depuis la surface jusqu’à la haute atmosphère

Cette remise en cause de notre compréhension des processus qui mènent à l’échappement de l’eau pose un jalon essentiel dans les tentatives pour retracer l’histoire de l’eau sur Mars. Seul le satellite Trace Gas Orbiter est capable de révéler les concentrations conjointes de H20 et HDO. Mais un autre satellite, de la NASA cette fois, MAVEN, est en mesure d’observer et de caractériser les populations d’hydrogène et de deutérium dans l’exosphère.

Un axe de recherche majeur est en train d’émerger de la concomitance de ces deux missions et il est maintenant possible d’envisager pouvoir décrire le parcours complet de l’eau depuis la basse atmosphère vers la très haute atmosphère, où les atomes qui la composent s’échappent dans l’espace. Seule une compréhension détaillée de ce parcours permettra à la communauté d’élaborer des scénarios fiables sur l’histoire de l’eau au cours des derniers milliards d’années et ainsi, la possibilité de corroborer l’habitabilité passée de Mars où la vie pourrait avoir émergé.

À partir de quand pourra-t-on dire que la récession est derrière nous ?

27 dimanche Juin 2021

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

  1. Valérie MignonProfesseure en économie, Chercheure à EconomiX-CNRS, Conseiller scientifique au CEPII, Université Paris Nanterre – Université Paris Lumières
  2. Laurent FerraraProfesseur d’Economie Internationale, SKEMA Business School
Université Paris Nanterre
SKEMA Business School

Université Paris Nanterre apporte des fonds en tant que membre fondateur de The Conversation FR.

SKEMA Business School apporte un financement en tant que membre adhérent de The Conversation FR.

Voir les partenaires de The Conversation France

CC BY NDNous croyons à la libre circulation de l’information

L’étude historique des cycles économiques constitue un sujet de recherche de longue date. Être à même de les dater permet d’éclairer l’analyse économique dans de multiples dimensions. En macroéconomie, une telle chronologie ou datation est en particulier utile pour déchiffrer et anticiper les fluctuations économiques au travers du cycle. Elle constitue aussi un outil fondamental pour les conjoncturistes dans l’étude et la classification des indicateurs économiques (avancés, retardés, coïncidents) par rapport au cycle de référence.

Au niveau international, disposer d’une telle datation rend possibles les comparaisons cycliques mondiales et l’étude de la synchronisation des cycles entre pays. Les travaux sur les relations entre cycles de l’économie réelle et cycles financiers pourront également bénéficier de l’existence d’une datation pour comparer les deux types de cycles. Disposer d’une chronologie de référence des points de retournement du cycle économique apparaît ainsi très précieux dans le cadre des outils d’aide à la mise en place des politiques économiques.

Les États-Unis ont été les premiers à proposer, dès 1978, une chronologie officielle des points de retournement du cycle des affaires en mettant sur pied au National Bureau of Economic Research (NBER) un comité de datation (Business Cycle Dating Committee), composé actuellement de huit économistes, dont le rôle consiste à déterminer les dates d’entrée et de sortie des récessions américaines.

Cette chronologie des récessions, établie par le comité de datation du NBER depuis 1854, fait autorité parmi les économistes et sert de référence à de nombreuses analyses empiriques. En Europe, le Center for Economic and Policy Research (CEPR) s’est inspiré de l’expérience américaine et a créé en 2003 un comité de datation, composé actuellement de cinq économistes, afin de proposer une chronologie des points de retournement du cycle des affaires pour la zone euro. D’autres pays tels que le Brésil, l’Espagne ou le Canada, ont également mis en place des comités de datation, mais leur audience reste relativement limitée auprès du grand public.

S’agissant de la France, le Comité de datation des cycles de l’économie française (CDCEF) créé par l’Association française de sciences économiques (AFSE), composé de neuf économistes dont les auteurs de cet article, a récemment proposé une datation trimestrielle de référence des périodes de récession et d’expansion de l’économie française. L’objectif est d’identifier les points de retournement du cycle des affaires économiques (business cycle ou encore cycle classique) pour l’économie française et d’établir ainsi une chronologie historique qui sera ensuite maintenue à jour.

L’insuffisante règle des « deux trimestres »

La définition du cycle adoptée par le CDCEF correspond à celle utilisée par le NBER pour les États-Unis et par le CEPR pour la zone euro dans son ensemble.

Graphique 1. Schéma du cycle économique. Auteurs.

Le cycle se définit comme étant la succession de phases de hausse du niveau d’activité, c’est-à-dire de croissance économique positive (expansions), et de phases de baisse de ce même niveau, c’est-à-dire de croissance négative (récessions). Ces différentes périodes sont délimitées par des pics (plus haut niveau d’activité) et des creux (plus bas niveau d’activité), correspondant aux points de retournement du cycle (voir graphique 1).

Dater les phases du cycle économique n’est pas une tâche aisée, la raison principale étant que les cycles sont par nature non observables. Il faut donc les estimer à l’aide de différentes approches statistiques et économétriques.

Une caractérisation simple des récessions, souvent utilisée par la presse et le grand public, consiste à identifier une récession dès que le taux de croissance du PIB affiche deux trimestres consécutifs de baisse. Cette règle dite « des deux trimestres » ne suffit toutefois pas à caractériser complètement une récession.

Tout d’abord, sur les chronologies existantes pour d’autres pays, il arrive que cette règle ne coïncide pas avec les datations officielles. Par exemple, la récession américaine de 2001, liée à l’éclatement de la bulle Internet, ne serait pas identifiée aujourd’hui par la « règle des deux trimestres ».

Par ailleurs, si cette ligne directrice peut être utile pour dater le début des récessions économiques, elle ne permet pas d’en identifier la fin. Plus généralement, elle ne se focalise que sur une seule caractéristique de l’entrée en récession et néglige d’autres caractéristiques importantes des cycles.

La règle « DAD »

En particulier, pour le NBER, une récession économique se caractérise par :

« un déclin significatif de l’activité économique dans les différentes branches d’une durée supérieure à quelques mois. Cette baisse significative devrait normalement être présente dans le PIB, l’emploi, la production industrielle, les ventes des secteurs manufacturier et du commerce ».

Trois caractéristiques sont ici essentielles : la durée, l’amplitude et la diffusion au sein de l’économie ; il s’agit de la règle dite « DAD » (durée, amplitude et diffusion). La durée indique qu’une récession doit se prolonger sur plusieurs mois. Une durée minimale de six mois est en général considérée, d’où la « règle des deux trimestres ». Mais cette condition doit être associée aux deux autres, à savoir l’amplitude et la diffusion au sein de l’économie.

L’amplitude renvoie au fait qu’une période de deux trimestres avec un taux de croissance du PIB très légèrement négatif ne serait pas nécessairement considérée comme une récession. À l’opposé, un évènement qui ne durerait que trois mois mais avec une très forte amplitude, ayant des conséquences macroéconomiques importantes, pourrait être admis comme une récession.

Le critère de diffusion renvoie à l’idée qu’une récession doit être largement diffusée au sein des différentes composantes de l’économie. C’est pour cela que l’analyse du seul PIB n’est pas suffisante pour évaluer l’occurrence des récessions. D’autres variables telles que l’emploi, la production industrielle ou les revenus des ménages doivent être intégrées dans le processus d’analyse. Au total, c’est la combinaison des critères de la « règle DAD » qui permet au CDCEF d’estimer les dates des phases de récession.

Cinq récessions depuis 1970

Plus précisément, la méthodologie retenue par le CDCEF repose sur deux piliers. Le premier, quantitatif, consiste à mesurer le cycle économique à l’aide de différentes méthodes économétriques, à partir desquelles est obtenue une liste de dates possibles des récessions de l’économie française.

Le deuxième pilier, qualitatif, repose sur une approche narrative basée sur l’avis des experts composant le CDCEF (économistes, conjoncturistes, économètres, historiens). Ce filtre dit du « dire d’experts » est essentiel dans ce type d’exercice car, si les méthodes quantitatives constituent une aide précieuse à la décision qui sera in fine prise par le Comité, leurs résultats ne peuvent pas pour autant être pris directement en compte sans analyse économique qualitative.

L’approche narrative permet ainsi de valider, au regard de la situation économique prévalant lors des épisodes considérés, les périodes identifiées comme des récessions possibles par l’analyse économétrique précédente, sans nécessairement chercher à modifier les dates des pics et des creux.

Tableau 1. Dates des récessions de l’économie française. Note : La date t du pic correspond au trimestre de la fin de la période d’expansion (c.-à-d., la récession commence en t+1). La date t du creux correspond à la fin de la période de récession (c.-à-d., l’expansion commence en t+1). *Par convention, les dates de la dernière récession sont considérées comme provisoires.

À l’issue de l’application de cette méthodologie, quatre épisodes ont été identifiés comme des périodes de récession en France depuis 1970 : les chocs pétroliers de 1974-75 et 1980, le cycle d’investissement de 1992-93, la grande récession de 2008-09 engendrée par la crise financière et le choc sanitaire lié à la pandémie de Covid-19. Les dates des points de retournement du cycle caractérisant ces récessions sont synthétisées dans le tableau 1 ci-contre.

Si le pic de la récession liée à la récente pandémie de Covid-19 a été daté par le CDCEF au dernier trimestre 2019, il est encore trop tôt pour se prononcer sur la date de sortie d’une telle récession, inédite dans sa forme et son profil. Les futures mises à jour effectuées par le CDCEF permettront de répondre prochainement à cette question.


Les membres du Comité de datation des cycles de l’économie française sont : Laurent Ferrara, président, professeur d’économie internationale à SKEMA Business School, et membre du Comité directeur de l’AFSE ; Antonin Aviat, économiste, sous-directeur du diagnostic et des prévisions à la direction générale du Trésor ; Frédérique Bec, professeur à CY Cergy Paris Université, chercheur rattaché au Thema et au CREST-ENSAE, membre du Haut conseil des finances publiques ; Claude Diebolt, directeur de recherche CNRS au BETA, ancien président de l’AFSE ; Catherine Doz, professeur à l’Université de Paris 1 Panthéon-Sorbonne et Paris School of Economics ; Denis Ferrand, directeur général de Rexecode, vice-président de la Société d’économie politique : Éric Heyer, directeur du département analyse et prévision l’OFCE, membre du Haut conseil des finances publiques ; Valérie Mignon, professeur à l’Université Paris-Nanterre, chercheur à EconomiX-CNRS, conseiller scientifique au CEPII, présidente de l’AFSE, membre du Cercle des économistes ; et Pierre-Alain Pionnier, économiste à l’OCDE.


  • Faire un don
  • Recevoir la newsletter
  • Devenir auteur
  • S’inscrire en tant que lecteur
  • Connectez-vous

L’expertise universitaire, l’exigence journalistique

  1. Covid-19
  2. Culture
  3. Économie
  4. Éducation
  5. Environnement
  6. International
  7. Politique + Société
  8. Santé
  9. Science
  10. Podcasts
  11. En anglais

Les cycles macroéconomiques sont par nature non observables. Il s’agit donc de penser une méthode pour les estimer à l’aide de différentes approches.

22 juin 2021, 21:16 CEST

Auteurs

  1. Valérie MignonProfesseure en économie, Chercheure à EconomiX-CNRS, Conseiller scientifique au CEPII, Université Paris Nanterre – Université Paris Lumières
  2. Laurent FerraraProfesseur d’Economie Internationale, SKEMA Business School
Université Paris Nanterre
SKEMA Business School

Université Paris Nanterre apporte des fonds en tant que membre fondateur de The Conversation FR.

SKEMA Business School apporte un financement en tant que membre adhérent de The Conversation FR.

Voir les partenaires de The Conversation France

CC BY NDNous croyons à la libre circulation de l’information

L’étude historique des cycles économiques constitue un sujet de recherche de longue date. Être à même de les dater permet d’éclairer l’analyse économique dans de multiples dimensions. En macroéconomie, une telle chronologie ou datation est en particulier utile pour déchiffrer et anticiper les fluctuations économiques au travers du cycle. Elle constitue aussi un outil fondamental pour les conjoncturistes dans l’étude et la classification des indicateurs économiques (avancés, retardés, coïncidents) par rapport au cycle de référence.

Au niveau international, disposer d’une telle datation rend possibles les comparaisons cycliques mondiales et l’étude de la synchronisation des cycles entre pays. Les travaux sur les relations entre cycles de l’économie réelle et cycles financiers pourront également bénéficier de l’existence d’une datation pour comparer les deux types de cycles. Disposer d’une chronologie de référence des points de retournement du cycle économique apparaît ainsi très précieux dans le cadre des outils d’aide à la mise en place des politiques économiques.

Les États-Unis ont été les premiers à proposer, dès 1978, une chronologie officielle des points de retournement du cycle des affaires en mettant sur pied au National Bureau of Economic Research (NBER) un comité de datation (Business Cycle Dating Committee), composé actuellement de huit économistes, dont le rôle consiste à déterminer les dates d’entrée et de sortie des récessions américaines.

Cette chronologie des récessions, établie par le comité de datation du NBER depuis 1854, fait autorité parmi les économistes et sert de référence à de nombreuses analyses empiriques. En Europe, le Center for Economic and Policy Research (CEPR) s’est inspiré de l’expérience américaine et a créé en 2003 un comité de datation, composé actuellement de cinq économistes, afin de proposer une chronologie des points de retournement du cycle des affaires pour la zone euro. D’autres pays tels que le Brésil, l’Espagne ou le Canada, ont également mis en place des comités de datation, mais leur audience reste relativement limitée auprès du grand public.

S’agissant de la France, le Comité de datation des cycles de l’économie française (CDCEF) créé par l’Association française de sciences économiques (AFSE), composé de neuf économistes dont les auteurs de cet article, a récemment proposé une datation trimestrielle de référence des périodes de récession et d’expansion de l’économie française. L’objectif est d’identifier les points de retournement du cycle des affaires économiques (business cycle ou encore cycle classique) pour l’économie française et d’établir ainsi une chronologie historique qui sera ensuite maintenue à jour.

L’insuffisante règle des « deux trimestres »

La définition du cycle adoptée par le CDCEF correspond à celle utilisée par le NBER pour les États-Unis et par le CEPR pour la zone euro dans son ensemble.

Graphique 1. Schéma du cycle économique. Auteurs.

Le cycle se définit comme étant la succession de phases de hausse du niveau d’activité, c’est-à-dire de croissance économique positive (expansions), et de phases de baisse de ce même niveau, c’est-à-dire de croissance négative (récessions). Ces différentes périodes sont délimitées par des pics (plus haut niveau d’activité) et des creux (plus bas niveau d’activité), correspondant aux points de retournement du cycle (voir graphique 1).

Dater les phases du cycle économique n’est pas une tâche aisée, la raison principale étant que les cycles sont par nature non observables. Il faut donc les estimer à l’aide de différentes approches statistiques et économétriques.

Une caractérisation simple des récessions, souvent utilisée par la presse et le grand public, consiste à identifier une récession dès que le taux de croissance du PIB affiche deux trimestres consécutifs de baisse. Cette règle dite « des deux trimestres » ne suffit toutefois pas à caractériser complètement une récession.

Tout d’abord, sur les chronologies existantes pour d’autres pays, il arrive que cette règle ne coïncide pas avec les datations officielles. Par exemple, la récession américaine de 2001, liée à l’éclatement de la bulle Internet, ne serait pas identifiée aujourd’hui par la « règle des deux trimestres ».

Par ailleurs, si cette ligne directrice peut être utile pour dater le début des récessions économiques, elle ne permet pas d’en identifier la fin. Plus généralement, elle ne se focalise que sur une seule caractéristique de l’entrée en récession et néglige d’autres caractéristiques importantes des cycles.

La règle « DAD »

En particulier, pour le NBER, une récession économique se caractérise par :

« un déclin significatif de l’activité économique dans les différentes branches d’une durée supérieure à quelques mois. Cette baisse significative devrait normalement être présente dans le PIB, l’emploi, la production industrielle, les ventes des secteurs manufacturier et du commerce ».

Trois caractéristiques sont ici essentielles : la durée, l’amplitude et la diffusion au sein de l’économie ; il s’agit de la règle dite « DAD » (durée, amplitude et diffusion). La durée indique qu’une récession doit se prolonger sur plusieurs mois. Une durée minimale de six mois est en général considérée, d’où la « règle des deux trimestres ». Mais cette condition doit être associée aux deux autres, à savoir l’amplitude et la diffusion au sein de l’économie.

L’amplitude renvoie au fait qu’une période de deux trimestres avec un taux de croissance du PIB très légèrement négatif ne serait pas nécessairement considérée comme une récession. À l’opposé, un évènement qui ne durerait que trois mois mais avec une très forte amplitude, ayant des conséquences macroéconomiques importantes, pourrait être admis comme une récession.

Le critère de diffusion renvoie à l’idée qu’une récession doit être largement diffusée au sein des différentes composantes de l’économie. C’est pour cela que l’analyse du seul PIB n’est pas suffisante pour évaluer l’occurrence des récessions. D’autres variables telles que l’emploi, la production industrielle ou les revenus des ménages doivent être intégrées dans le processus d’analyse. Au total, c’est la combinaison des critères de la « règle DAD » qui permet au CDCEF d’estimer les dates des phases de récession.

Cinq récessions depuis 1970

Plus précisément, la méthodologie retenue par le CDCEF repose sur deux piliers. Le premier, quantitatif, consiste à mesurer le cycle économique à l’aide de différentes méthodes économétriques, à partir desquelles est obtenue une liste de dates possibles des récessions de l’économie française.

Le deuxième pilier, qualitatif, repose sur une approche narrative basée sur l’avis des experts composant le CDCEF (économistes, conjoncturistes, économètres, historiens). Ce filtre dit du « dire d’experts » est essentiel dans ce type d’exercice car, si les méthodes quantitatives constituent une aide précieuse à la décision qui sera in fine prise par le Comité, leurs résultats ne peuvent pas pour autant être pris directement en compte sans analyse économique qualitative.

L’approche narrative permet ainsi de valider, au regard de la situation économique prévalant lors des épisodes considérés, les périodes identifiées comme des récessions possibles par l’analyse économétrique précédente, sans nécessairement chercher à modifier les dates des pics et des creux.

Tableau 1. Dates des récessions de l’économie française. Note : La date t du pic correspond au trimestre de la fin de la période d’expansion (c.-à-d., la récession commence en t+1). La date t du creux correspond à la fin de la période de récession (c.-à-d., l’expansion commence en t+1). *Par convention, les dates de la dernière récession sont considérées comme provisoires.

À l’issue de l’application de cette méthodologie, quatre épisodes ont été identifiés comme des périodes de récession en France depuis 1970 : les chocs pétroliers de 1974-75 et 1980, le cycle d’investissement de 1992-93, la grande récession de 2008-09 engendrée par la crise financière et le choc sanitaire lié à la pandémie de Covid-19. Les dates des points de retournement du cycle caractérisant ces récessions sont synthétisées dans le tableau 1 ci-contre.

Si le pic de la récession liée à la récente pandémie de Covid-19 a été daté par le CDCEF au dernier trimestre 2019, il est encore trop tôt pour se prononcer sur la date de sortie d’une telle récession, inédite dans sa forme et son profil. Les futures mises à jour effectuées par le CDCEF permettront de répondre prochainement à cette question.


Les membres du Comité de datation des cycles de l’économie française sont : Laurent Ferrara, président, professeur d’économie internationale à SKEMA Business School, et membre du Comité directeur de l’AFSE ; Antonin Aviat, économiste, sous-directeur du diagnostic et des prévisions à la direction générale du Trésor ; Frédérique Bec, professeur à CY Cergy Paris Université, chercheur rattaché au Thema et au CREST-ENSAE, membre du Haut conseil des finances publiques ; Claude Diebolt, directeur de recherche CNRS au BETA, ancien président de l’AFSE ; Catherine Doz, professeur à l’Université de Paris 1 Panthéon-Sorbonne et Paris School of Economics ; Denis Ferrand, directeur général de Rexecode, vice-président de la Société d’économie politique : Éric Heyer, directeur du département analyse et prévision l’OFCE, membre du Haut conseil des finances publiques ; Valérie Mignon, professeur à l’Université Paris-Nanterre, chercheur à EconomiX-CNRS, conseiller scientifique au CEPII, présidente de l’AFSE, membre du Cercle des économistes ; et Pierre-Alain Pionnier, économiste à l’OCDE.

Le « bouchon » de l’Antarctique prêt à sauter sous l’effet du changement climatique

26 samedi Juin 2021

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

  1. Christoph KittelChercheur Post-Doctorant en Climatologie, Université de Liège
Université de Liège
AUF (Agence Universitaire de la Francophonie)

Université de Liège et AUF (Agence Universitaire de la Francophonie) fournissent des financements en tant que membres adhérents de The Conversation FR.

Voir les partenaires de The Conversation France

CC BY NDNous croyons à la libre circulation de l’information
Baie de Chiriguano, îles de Shetland du Sud (Antarctique) en novembre 2019. Johan Ordonez / AFP

Le 13 mai 2021, un immense iceberg de 4320km² (une superficie équivalente à l’île espagnole de Majorque) s’est détaché de la plate-forme de Ronne en Antarctique.

Les causes du détachement de cet iceberg, nommé A76 et le plus gros à dériver à l’heure actuelle, semblent s’inscrire dans un cycle naturel non lié au réchauffement climatique. Bien qu’impressionnant, ce processus aussi appelé « vêlage » se produit régulièrement : des morceaux de glace se décrochent de l’inlandsis antarctique, créant des icebergs de tailles diverses, les plus grands comme l’A76 étant évidemment plus rares.

Mais s’ils se reproduisent localement de nombreuses fois et à intervalles plus rapprochés, ces vêlages peuvent cacher un phénomène bien plus inquiétant lié au changement climatique qui pourrait déterminer le futur de l’Antarctique, et par extension la hausse du niveau marin. Car l’Antarctique est entièrement recouvert d’un inlandsis, c’est-à-dire d’une étendue glaciaire plus vaste que l’Europe qui s’étend sur l’océan pour y former de grandes plates-formes flottantes.

Ces dernières se créent par écoulement gravitaire de la glace du continent vers l’océan et constituent un barrage de sécurité autour de l’Antarctique. De la même façon qu’un bouchon maintient du liquide dans une bouteille, les plates-formes retiennent la glace sur le continent. Sans ce rôle crucial, d’immenses volumes s’écouleraient directement dans l’eau faisant augmenter le niveau marin.

Dislocation de plates-formes

Depuis quelques années, les scientifiques pensent que le changement climatique peut fragiliser les plates-formes autour de l’Antarctique. En se réchauffant, l’océan provoque leur fonte progressive et diminue leur capacité de maintien. C’est la raison principale expliquant la perte de masse actuelle en Antarctique.

Plus inquiétant encore, le réchauffement atmosphérique peut entraîner la dislocation entière de plates-formes en très peu de temps, comme l’ont déjà observé les scientifiques en 2002. La plateforme de Larsen B, située en Péninsule Antarctique, s’est en effet désintégrée en quelques semaines, générant une importante accélération du flux de glace vers l’océan dans cette région.

Destructionde la plate-forme de Larsen B en Antarctique, images du 31 janvier au 13 avril 2002. On y voit la plate-forme « intacte » mais recouverte de lacs d’eau de fonte (tâches bleues très sombres) puis sa disparition brutale. Là où se trouvait précédemment la plate-forme apparaît l’océan qui gèle ensuite formant de la glace de mer (grande zone bleue claire) se revêtant de neige. Crédits : NASA

L’été, lorsque la neige sur les plates-formes fond, l’eau s’infiltre dans les pores fins du manteau neigeux où elle peut regeler. Certains étés, cette eau de fonte est trop importante pour être absorbée par le manteau neigeux. L’excès d’eau s’infiltre alors plus profondément, ou s’accumule en surface, formant ainsi des lacs.

Ce phénomène résultant de l’action combinée de l’infiltration et du poids de l’eau peut fracturer verticalement la glace – on parle d’« hydrofracturation ». Le morceau de plate-forme (ou son entièreté dans le cas de Larsen B) se retrouve ainsi déconnecté de l’Antarctique et se désintègre très rapidement.

Une théorie, aujourd’hui encore âprement discutée dans la communauté scientifique, stipule que les nouvelles falaises glaciaires ainsi générées sont très instables et peuvent s’effondrer rapidement, entraînant une désintégration d’autant plus rapide des plates-formes de glace.

Inversement, si les chutes de neige sont suffisantes pour régénérer les pores du manteau neigeux, l’eau de fonte pourra donc y regeler et limiter les risques de fracturation des plates-formes.

30 % des plates-formes menacées

Cette hydrofracturation se produit lorsque l’équilibre complexe entre chutes de neige et eau liquide – essentiellement produite par la fonte en surface – est rompu. Cela pourrait advenir dans le futur du fait du réchauffement climatique, puisqu’une conséquence relativement évidente implique une progression de la fonte en surface.

Néanmoins, les températures en Antarctique sont tellement basses que le changement climatique augmentera aussi les chutes de neige. L’évolution (locale) de cet équilibre paraît ainsi particulièrement incertaine.

Avec une collègue de l’Université de Reading, nous avons étudié l’évolution de cet équilibre à l’aide d’un modèle climatique spécialisé pour représenter les régions polaires.https://www.youtube.com/embed/ENle6XPit2c?wmode=transparent&start=0Iceberg, « A-76 » breaks from an ice shelf in Antarctica – BBC Report (Paul Morgan, le 22 mai 2021).

Notre objectif était d’identifier les plates-formes qui pourraient se désintégrer pour différents taux de réchauffement. Une hausse de 4 °C pourrait entraîner la disparition de 30 % des plates-formes, dont celle de l’île de Pin. Ce glacier, en disparaissant entièrement, pourrait contribuer à lui seul à une progression de 1,5 mètre du niveau marin.

Si les concentrations de gaz à effet de serre poursuivent leur augmentation au rythme actuel, le réchauffement de 4 °C sera atteint avant 2100. En revanche, le limiter à 2 °C – objectif minimal des accords de Paris – réduirait le risque d’hydrofracturation de moitié.

Hausse du niveau marin et incertitudes

La désintégration des plates-formes glaciaires n’a pas encore été prise en compte dans les rapports du GIEC. Selon les dernières études scientifiques, ce processus pourrait entraîner une hausse du niveau marin de 1 à 2,8 cm supplémentaires d’ici à 2100, soit une augmentation de maximum 9 % par rapport aux projections qui n’en tiennent pas compte.

Il est probable que les modèles utilisés dans ces prédictions aient sous-estimé les désintégrations des plates-formes glaciaires, ce qui suggère que ces chiffres ne seraient qu’une évaluation basse. Néanmoins, prédire le phénomène reste très difficile.

Certaines d’entre elles en Antarctique de l’Est (Amery par exemple) subissent déjà des conditions favorables à une désintégration qui ne survient cependant pas, probablement grâce à leur localisation géographique particulière leur offrant un soutien latéral supplémentaire.

S’il faut retenir un point, c’est bien l’incertitude importante associée à des risques d’augmenter rapidement le niveau marin. Les scientifiques pensent aujourd’hui que la fonte de l’Antarctique influencera surtout le niveau marin de l’hémisphère Nord. Sa hausse locale en Europe dépendra donc directement de la situation en Antarctique, qui apparaît comme un élément déterminant pour l’avenir de nos régions… avec un scénario qui pourrait à tout moment pencher vers une éventualité plus catastrophique.

Compter les mammifères, les oiseaux et les bousiers pour protéger l’Amazonie

25 vendredi Juin 2021

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

  1. Filipe FrançaSenior research associate, Lancaster University
  2. Alexander C. LeesSenior Lecturer in Conservation Biology, Manchester Metropolitan University
  3. Jos BarlowProfessor of Conservation Science, Lancaster University
  4. Yves BasPost-doctorant, Muséum national d’histoire naturelle (MNHN)

Déclaration d’intérêts

Filipe França has received research funding from the BNP Paribas Foundation (Climate and Biodiversity) and the Brazilian National Council for Scientific and Technological Development (CNPq). He is the co-coordinator of Synergize and PELD-RAS projects and, currently, a Visiting Academic at the University of Canterbury, New Zealand.

Alexander C. Lees has received research funding from the BNP Paribas Foundation (Climate and Biodiversity) and the National Environment Research Council (NERC).

Jos Barlow has received research funding from the BNP Paribas Foundation (Climate and Biodiversity) and the National Environment Research Council (NERC).

Yves Bas has received research funding from the BNP Paribas Foundation (Climate and Biodiversity).

Lancaster University
Sorbonne Université
Muséum National d’Histoire Naturelle

Lancaster University apporte des fonds en tant que membre fondateur de The Conversation UK.

Sorbonne Université apporte des fonds en tant que membre fondateur de The Conversation FR.

Muséum National d’Histoire Naturelle apporte un financement en tant que membre adhérent de The Conversation FR.

Voir les partenaires de The Conversation France

CC BY NDNous croyons à la libre circulation de l’information
Coprophanaeus lancifer, un grand bousier disperseur de graines en Amazonie. Hannah Griffiths, Author provided (no reuse)

L’Amazonie compte pour environ 50 % de toutes les forêts tropicales existantes sur la planète ; elle abrite plus de 400 espèces de mammifères, 1700 espèces d’oiseaux et un nombre indéterminé d’espèces d’insectes qui se comptent par millions.

Elle est aussi vitale pour maintenir la vie sur Terre, les forêts amazoniennes atténuant le changement climatique en captant autour de 560 millions de tonnes de carbone par an et en aidant l’agriculture par la stimulation des précipitations à des échelles locales et continentales.

Des espaces indispensables et menacés

La forêt amazonienne et son immense biodiversité disparaissent à un rythme alarmant, lié à la production et l’exportation croissantes du bétail au Brésil. Les forêts qui subsistent encore sont sous la menace permanente d’activités anthropiques destructrices, telles que l’exploitation forestière, les incendies et les perturbations climatiques (sécheresses et inondations extrêmes).

À ce jour, les études menées sur les questions climatiques et la biodiversité dans les forêts tropicales sont principalement fondées sur des investigations de court terme, qui se concentrent sur les réactions des plantes et du carbone. Il en résulte que nous sommes pour la plupart conscients de l’importance des arbres des forêts dans le cadre de la régulation climatique. Nos recherches en Amazonie ont ainsi révélé que la mortalité des arbres et la perte de carbone restaient élevées plusieurs années après les incendies de forêt provoqués par la sécheresse.

Néanmoins, pour comprendre pleinement la résilience des forêts tropicales, nous avons aussi besoin d’études sur le long terme, qui tiennent compte de l’impact des perturbations climatiques sur la faune et qui évaluent leur rôle dans la récupération des forêts après perturbations.

Une résilience sous conditions

Les animaux jouent un rôle clé pour comprendre la résilience des forêts tropicales.

Les oiseaux, par exemple, sont des disperseurs de graines, leur disparition pouvant entraîner une réduction de la taille des graines des palmiers tropicaux, rendant la reprise de la végétation improbable ou impossible.

De même, les grands animaux frugivores, notamment les singes hurleurs et les singes-araignées, ingèrent et disséminent eux aussi des graines, de sorte que si leur abondance vient à diminuer, cela peut affecter les voies de régénération des forêts.

Les singes hurleurs jouent un rôle essentiel dans la dispersion des graines. Alexander C Lees, Author provided (no reuse)

Même s’il est désormais bien connu que ce sont les petites bestioles qui dirigent le monde, notre compréhension du rôle des invertébrés n’en est qu’à ses débuts. Dans les forêts tropicales, il a été démontré que les termites améliorent la résistance à la sécheresse, tandis que les bousiers peuvent aider les forêts tropicales à se régénérer.

Compter la faune

Bien que l’on sache que la faune et ses fonctions sont primordiales pour comprendre les mécanismes de récupération des forêts, il n’est pas évident de la comptabiliser.

Malgré la diversité des arbres et la difficulté à les identifier, leur suivi est relativement simple : ils ne bougent pas, peuvent être mesurés d’une année sur l’autre, leurs caractéristiques structurelles et chimiques peuvent être échantillonnées et évaluées, et leurs réponses physiologiques évaluées sur le terrain. Bien sûr, tout cela exige un travail complexe, mais notre compréhension de la sensibilité au climat de la végétation des forêts tropicales a sans aucun doute été facilitée par le fait qu’elle soit immobile.

Les animaux, de leur côté, sont bien plus difficiles à suivre. Un seul hectare de forêt peut abriter jusqu’à 160 espèces d’oiseaux, et 100 hectares – une surface huit fois plus petite que le Bois de Boulogne à Paris – peuvent en contenir jusqu’à 245.

Écoutez ce chœur d’oiseaux. Combien d’espèces distinguez-vous ? Un spécialiste pourrait en nommer 12 espèces dans ce simple extrait de 32 secondes… mais rares sont ceux qui dans le monde ont cette capacité.https://macaulaylibrary.org/asset/336869191/embed/640

S’il est déjà difficile de procéder à l’évaluation instantanée des espèces présentes, ne parlons pas de l’évaluation des changements au cours du temps ! Les espèces qui chantent à un moment donné varient au cours de l’année, d’un jour à l’autre, tout au long de la journée, et même en fonction des cycles lunaires.

Qu’en est-il des invertébrés ? La plupart des espèces n’ont pas encore été formellement classifiées par les taxonomistes, et leur identification repose sur quelques spécialistes ayant accès à des collections de référence complètes.

Leur abondance varie au cours de l’année, d’une année sur l’autre, en réponse aux variations climatiques, aux événements climatiques extrêmes, et en fonction d’autres facteurs, encore incompris.

Des pistes pour le suivi de la faune

Heureusement, il existe des solutions pour assurer le suivi de la faune forestière. Dans ce contexte, notre projet Bioclimate adopte à la fois des méthodes novatrices, et d’autres déjà bien éprouvées, pour évaluer comment petits et grands animaux peuvent aider les forêts tropicales à rebondir après des perturbations telles que l’exploitation forestière, les sécheresses ou les incendies.

Pour les insectes, nous pouvons nous appuyer sur certains groupes qui jouent un rôle d’indicateur de la santé des forêts. Les bousiers sont parfaits pour cela : nombre de leurs activités profitent aux forêts, ils sont faciles et bon marché à collecter ; ils peuvent témoigner des impacts des perturbations pour d’autres animaux dont ils utilisent les excréments pour se nourrir et faire leur nid.

En analysant l’ADN des excréments dont se nourrissent les bousiers, nous pouvons ainsi évaluer quels mammifères sont présents dans les forêts d’Amazonie. Cette connaissance est utile pour mieux comprendre comment les changements environnementaux affectent les relations entre ces insectes et les mammifères.

En ce qui concerne les oiseaux, il est possible de surveiller en permanence les populations grâce à l’utilisation d’enregistreurs audio autonomes, qui contribuent également à comprendre la façon dont ils occupent l’espace en différents endroits – de nombreux oiseaux forestiers sont rares et possèdent de vastes territoires, il est donc probable qu’on les rate lors de visites ponctuelles.

Amazon forest canopy
Pour comprendre l’Amazonie, il ne suffit pas de compter les arbres ! Paulo Brando, Author provided (no reuse)

Le fait d’avoir de nombreux enregistreurs audio fonctionnant en même temps sur de longues périodes rend possible un contrôle simultané d’un grand nombre de lieux et d’animaux. Afin de surmonter la difficulté des humains à écouter de multiples chants d’oiseaux ensemble, nous développons aussi des algorithmes de machine-learning qui facilitent l’identification des vocalisations de certaines espèces.

Vers une connaissance plus précises des interactions

Pour assurer l’avenir de l’Amazonie, il est essentiel d’évoluer vers une recherche axée sur des réponses permettant l’analyse précise de la manière dont les nombreux insectes, oiseaux et autres animaux qui vivent dans ces lieux contribuent à la santé de la forêt.

L’objectif de nos travaux est ainsi d’intégrer à la fois des ensembles de données récoltées sur le long terme et ces nouvelles données expérimentales, afin de faire progresser notre compréhension de la relation entre biodiversité et climat dans les forêts tropicales.

Grâce à ces connaissances, nous souhaitons fournir une meilleure image de la manière dont l’Amazonie réagit aux activités humaines et de la façon dont nous pourrions mieux la préserver.

Courbure de l’espace-temps et trous noirs : découverte de douze nouveaux mirages gravitationnels

24 jeudi Juin 2021

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

  1. Ludovic DelchambreChercheur au Groupe d’astrophysique des hautes énergies de l’Unité de Recherches STAR, Université de Liège
  2. Jean SurdejProfesseur visiteur à l’Université de Poznan (Pologne), Professeur honoraire et directeur honoraire de Recherche F.R.S.-FNRS, Département d’astrophysique, géophysique et océanographie, Université de Liège
Université de Liège
AUF (Agence Universitaire de la Francophonie)
CC BY NDNous croyons à la libre circulation de l’information
Reproduisez nos articles gratuitement, sur papier ou en ligne, en utilisant notre licence Creative Commons.

Images des 12 lentilles gravitationnelles découvertes par les scientifiques du projet GraL. GraL, CC BY

Saint-Exupéry écrivait : « Les étoiles sont belles à cause d’une fleur que l’on ne voit pas ». Il n’imaginait alors certainement pas à quel point cette prose s’appliquerait à la récente découverte de douze nouveaux mirages gravitationnels – des « trèfles cosmiques à quatre feuilles » – par une équipe internationale d’environ 20 chercheurs, pour la plupart Belges et Français.

Ces « mirages cosmiques » sont en fait constitués des images multiples d’un seul et même objet d’arrière-plan : un trou noir supermassif engloutissant gaz et matière à un rythme effréné, équivalant à plusieurs dizaines de fois la masse de la terre par minute. Le cri d’agonie de ce gaz est une gigantesque production d’énergie et de lumière, faisant de ces ogres cosmiques appelés « quasars » des objets parmi les plus lumineux de l’Univers. Cette émission de lumière est due à l’échauffement du gaz lors de sa chute vers le trou noir, d’ordinaire difficile à détecter.

La lumière des quasars en question met une dizaine de milliards d’années à nous parvenir. Nous sommes les témoins contemporains de ce repas cosmique qui s’est déroulé lorsque l’Univers était âgé de deux à trois milliards d’années seulement, à une époque où ces trous noirs étaient encore entourés d’une quantité importante de gaz permettant de maintenir le processus d’accrétion actif. Ces nouvelles lentilles gravitationnelles ont une utilité toute particulière en cosmologie. En effet, elles permettent d’étudier la distribution de matière noire dans les galaxies déflectrices et, parmi d’autres méthodes, d’estimer le taux d’expansion de l’Univers, qui est encore à l’heure actuelle toujours sujet à de vifs débats et études.

Comment la lumière des quasars est démultipliée

Durant son long périple à travers le cosmos, il arrive que cette lumière rencontre une galaxie, c’est-à-dire un amas composé de centaines de milliards d’étoiles. Pour un alignement presque parfait entre le quasar, la galaxie et l’observateur, la galaxie joue alors le rôle de « lentille gravitationnelle » : elle amplifie la lumière du quasar d’arrière-plan et peut, dans certaines conditions, produire des images multiples et déformées de ce quasar.

Au premier abord, il peut être surprenant d’imaginer que cette galaxie agisse sur la lumière sans interaction directe avec elle, comme cela serait le cas pour une lentille optique classique via ses propriétés de réfraction. Une analogie commune à cette apparente contradiction est celle des mirages atmosphériques où après une chaude journée d’été, l’air au ras du sol est plus chaud que l’air situé un peu plus haut. Ce gradient de température produit alors une déviation des rayons lumineux, qui se traduit par l’observation de ce qui est probablement le plus connu des mirages : celle d’une étendue d’eau sur un paysage plat, le bleu du ciel se miroitant alors au travers de cette lentille atmosphérique.

Quelques exemples de mirages atmosphériques photographiés le long de la panaméricaine près de San Pedro de Atacama (nord du Chili) au mois d’août 2018. Les deux premières photos montrent des véhicules distants (autos, camions) dont les images sont déformées et parfois dédoublées par effet de lentille atmosphérique. La photo de droite montre très clairement le dédoublement des phares de la voiture proche. Jean Surdej, Fourni par l’auteur

Dans le cas des lentilles cosmiques, un autre type d’interaction est à l’œuvre. En effet, la relativité générale, élaborée par Albert Einstein au début du XXe siècle, nous apprend que la présence d’une masse déforme l’espace-temps en son voisinage, donnant de ce fait une explication formelle à l’origine des « forces gravitationnelles » qui rebutaient jusqu’alors les physiciens. Cette courbure locale de l’espace-temps affectant tout aussi bien les objets massifs que les objets dépourvus de masse, elle fait tout autant tomber les pommes sur terre qu’elle permet de dévier les rayons lumineux passant à proximité d’étoiles, de galaxies et même d’amas de galaxies. Cette courbure joue alors le rôle du gradient de température des mirages atmosphériques pour le cas des lentilles cosmiques, d’où leur nom de « lentille gravitationnelle ».

Lentilles gravitationnelles. À gauche, expérience de laboratoire avec une lentille optique. Au centre, le mirage gravitationnel réel RXJ1131 ; à droite, un anneau d’Einstein obtenu pour un alignement parfait entre l’observateur, la lentille et l’objet imagé (ici, une source de lumière compacte). Jean Surdej, Fourni par l’auteur

Les effets de telles lentilles peuvent être simulés de manière très réaliste au moyen d’une lentille en forme de pied d’un verre à vin : on peut produire de multiples images de la source d’arrière-plan (ici, pour une source ponctuelle) dans une simple expérience de laboratoire, représentée à gauche sur l’image. Certaines de ces images sont déformées et agrandies, de manière assez similaire à ce qui est observé pour le cas réel du mirage gravitationnel RXJ1131 (au centre). Enfin, dans le cas d’un alignement parfait entre la source, le déflecteur et l’observateur, tel qu’illustré par l’expérience de laboratoire à droite, un anneau de lumière peut être produit, anneau également observé parmi les lentilles gravitationnelles connues, où il prend le nom d’« anneau d’Einstein ».https://www.youtube.com/embed/BIZvkYnbeaM?wmode=transparent&start=0Expérience de la lentille gravitationnelle, par Jean Surdej.

Comment les astrophysiciens utilisent les lentilles gravitationnelles

Ces lentilles gravitationnelles ne sont pas qu’une curiosité observationnelle. Elles consacrent le génie humain dans la faculté qu’il a à comprendre et à modéliser le monde qui l’entoure.

Dans un article précurseur de 1964, Sjur Refsdal montra que le taux d’expansion de l’univers, la fameuse constante de Hubble-Lemaître, peut être mesuré grâce à l’observation des décalages vers le rouge (l’élongation de la longueur d’onde de la lumière, équivalent à un rougissement, est due à l’expansion de l’Univers) de la galaxie déflectrice et du quasar d’arrière-plan, ainsi qu’à la mesure du décalage temporel entre les moments d’arrivée d’un même signal observé dans les différentes images du mirage gravitationnel. En effet, les quasars alternant des périodes de jeûne et d’abondance, ces derniers peuvent présenter une luminosité intrinsèque variable. Les rayons lumineux issus du quasar suivent ensuite des chemins optiques différents, donc de longueurs différentes, et tout soubresaut de luminosité du quasar sera perçu de manière différée dans le temps dans chacune des images du mirage.

Dans le même article, Sjur Refsdal pose les premières briques de la détermination de la masse des galaxies déflectrices à partir de la position et de l’amplification associées à chacune des images du quasar. Par comparaison entre la masse de matière visible dans les galaxies et celle estimée sur base de la méthode des lentilles gravitationnelles, les scientifiques peuvent détecter la présence et étudier la distribution de matière noire au sein des galaxies déflectrices.


À lire aussi : Bonnes feuilles : « Le côté obscur de l’univers »


Les mirages gravitationnels à quatre images sont les plus utiles pour la recherche astronomique, car ils fournissent aux scientifiques des contraintes supplémentaires afin d’ajuster au mieux leurs modèles de distribution de masse. Mais ils sont encore aujourd’hui extrêmement rares, avec seulement une cinquantaine de « trèfles cosmiques » répertoriés.

Les scientifiques du projet GraL (« Gaia gravitational lenses ») ont récemment utilisé les données du satellite Gaia, qui cartographie l’entièreté de la voûte céleste révélant ainsi plus de deux milliards d’objets, combinées à des techniques d’intelligence artificielle afin de détecter des candidats lentilles. Sur base de plusieurs millions de simulations de trèfles cosmiques, semblables à ceux illustrés précédemment au moyen d’une lentille en forme de pied de verre à vin, ces scientifiques ont appris à des algorithmes informatiques à reconnaître ces trèfles. Ils se basent sur la position relative des images et sur l’amplification de leur flux apparent, afin de les distinguer d’agglomérats d’étoiles, qui, dans ce cas, constituent une source de bruit pour nos algorithmes de détection. Ces résultats ont été acceptés pour publication dans la revue The Astrophysical Journal début 2021.

Les recherchent continuent avec les nouvelles éditions des catalogues Gaia. Nous espérons trouver de nouveaux trèfles cosmiques, qui tant par leur utilité, leur rareté que leur beauté, constituent de véritables joyaux cosmiques.

L’homme providentiel, une figure de la Renaissance italienne

23 mercredi Juin 2021

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

  1. Luca CortinovisDoctorant, Université de Lille

Luca Cortinovis ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

Université de Lille
Université Lille Nord-Europe (ULNE)
Le général de Gaulle, fondateur et leader du Rassemblement pour le Peuple français (RPF) tient une conférence de presse à Paris le 12 novembre 1947. INTERNATIONAL NEWS PHOTOS (INP) / AFP

Lorsque le 15 mars 2021, Jean‑Luc Mélenchon déclare dans le 7/9 de France Inter qu’il ne s’est jamais « cru être un homme providentiel », on a le droit de s’interroger.

Si son affirmation s’ancre de fait dans la rhétorique classique d’une gauche républicaine se défiant de toute figure potentiellement antidémocratique, elle n’en reste pas moins surprenante lorsque l’on sait que le leader des Insoumis est l’un des principaux freins à l’union de la gauche en vue de l’élection présidentielle de 2022, refusant de se ranger derrière les autres partis de gauche.

En France, le contexte politique, avec un pouvoir incarné par la figure du « monarque républicain », est favorable au recours fréquent au mythe de l’homme providentiel. L’image imposante du Général de Gaulle, archétype moderne du sauveur français, est dans toutes les têtes. Il est donc presque naturel pour l’homme politique de s’imaginer devenir « le héros de la chose publique », le refuge vers lequel les électeurs vont se tourner.

Emmanuel Macron sut parfaitement jouer cette partition en 2016 quand il se déclara candidat à la présidentielle. Il allait être le candidat transcendant les sensibilités partisanes pour remettre la France au cœur du concert des grandes nations. Le symbole plut suffisamment pour lui permettre de l’emporter.

Aujourd’hui, les aspirants héros sont pléthore : Jean‑Luc Mélenchon chez LFI, Marine Le Pen au Rassemblement national (RN), Éric Zemmour pour une frange réactionnaire ne trouvant plus sa place dans la politique partisane. Mais croire que cette figure politique est une invention du XXIe – ou même du XXe – serait une erreur. Il faut sortir de notre époque et remonter les siècles pour s’en rendre compte.

L’Italie de la Renaissance : une rupture idéologique

« La Renaissance italienne recélait en son sein toutes les forces positives auxquelles est due la civilisation moderne […]. Ce fut l’âge d’or de ce millénaire, en dépit de toutes ses tâches et de tous ses vices. »

C’est ainsi que Nietzsche résume cette période dans son Humain, trop humain en 1878. Il est indéniable que la Renaissance – qui s’étale du XIVe au XVIe siècle – est le terreau sur lequel notre société contemporaine s’est développée.

L’histoire de ces siècles se confond avec l’émergence d’un mouvement philosophique, culturel et artistique : l’humanisme. Tirant son nom des studia humanitatis – à savoir l’ensemble des matières scolaires qui devaient théoriquement permettre de former des individus accomplis –, l’humanisme va prôner une nouvelle façon d’entrevoir le monde et la place de l’homme en son sein.

En rupture avec les raisonnements du Moyen Âge, notamment dans l’appréhension des textes antiques, ces hommes ont la volonté de replacer la pensée des Anciens – Aristote, Platon, Cicéron, etc. – dans leur contexte originel. À leurs yeux, il faut fonder sa pensée sur ses observations, s’interroger et être critique sur tout, ne pas prendre pour certaines des affirmations qui se veulent absolues. Au bout du compte, ils tentent de chasser l’ombre pesante qui a depuis trop longtemps, selon eux, imposé aux hommes leur conduite. Se dégageant ainsi des préceptes qui ont modelé les comportements sociaux et politiques jusque-là en Europe, « l’humanisme » va permettre « un regain de confiance en l’homme et ses possibilités ». Le modèle médiéval étant en train de vaciller, les humanistes veulent permettre à un ensemble de valeurs séculaires de resurgir, en enlevant « le voile qui enveloppait leurs esprits ». De là, une Renaissance.

Pétrarque peint par Andrea del Castagno, Galerie des Offices, Florence. Wikimedia

Ceux qui vivent cette époque de grands changements sont emportés par cet élan qui va déferler de l’Italie vers toute l’Europe. L’homme d’action s’imagine être le nouveau César, le nouvel Alexandre. Confortés dans l’idée que l’immortalité peut être acquise de leurs vivants – Pétrarque, le plus éminent humaniste du XIVe siècle, énonçait bien qu’il n’y avait rien « de plus haut que la vertu et la gloire » –, les plus ambitieux vont chercher à marquer leur temps.

Entre recherche du statu quo et défense du territoire

Il faut dire que la situation politique italienne lors de la Renaissance est très instable. Loin du pays unifié que l’on connaît, la péninsule est alors composée d’une myriade d’États indépendants – plus ou moins gros – et tout sauf prêts à perdre leurs souverainetés. Tous les systèmes de gouvernement se côtoient sur un territoire assez restreint : monarchie à Milan, république aristocratique à Venise, théocratie à Rome… On est loin du voisin français où la plupart des grands seigneurs obéissent déjà à un seul et unique roi.

Situation politique italienne en 1494, avant les guerres d’Italie. Flanker/Fab5669/Wikimedia

Les Italiens du XIVe siècle (Milanais, Toscans, Siciliens, etc.) ont tout de même conscience qu’ils sont les dépositaires d’une tradition nationale. Ils descendent des Romains, ceux qui ont dominé le monde pendant des siècles. Ils en sont extrêmement fiers et n’oublient jamais de le rappeler, se sentant supérieurs aux peuples se trouvant de l’autre côté des Alpes – on le voit notamment dans leurs correspondances. Malgré tout, l’appartenance régionale demeure la norme.

Portrait de Nicolas Machiavel par Santi di Tito. Wikimedia

« L’Italie prévaut sur le monde entier, mais ma région prime sur l’Italie », c’est ainsi qu’on pourrait résumer le sentiment du temps. Pour voir l’idée d’un homme unissant l’Italie entière derrière lui devenir séduisante, il faudra attendre la fin du XVIe siècle avec les guerres d’Italie. Lors de ces dernières, les puissances étrangères ne cesseront de tenter de s’emparer des terres et des richesses de la botte. Les Italiens vont ainsi réaliser que leurs divisions font leur faiblesse. Cette prise de conscience sera notamment reprise par Machiavel dans son célèbre Prince, dans lequel il exhortera l’Italie à se trouver un sauveur pouvant « la délivrer des Barbares ».

L’homme providentiel apparaît généralement en situation de crise, afin de lutter contre une rupture de l’équilibre. L’Italie d’alors, si complexe, est dans un état d’instabilité permanente. C’est donc presque logique, dans ce contexte, que le recours à cette figure tutélaire devienne très courant.

Une panoplie de modèles du « Prince »

L’exemple le plus évident, c’est celui du prince guerrier. Francesco Sforza (1401-1466), duc de Milan, en est le prototype le plus éclatant. Arrivé au pouvoir à la suite de son mariage avec l’héritière de la famille régnante d’alors – les Visconti –, c’est lui qui va sauver le duché d’une faillite absolue à la suite de la disparition du dernier Visconti.

Francesco Sforza peint par Bonifacio Bembo aux alentours de 1460.

Il fédère les différents courants politiques embrasant la Lombardie, tout en freinant les ambitions indépendantistes et les prétentions de voisins appâtés par l’odeur du sang. S’inscrivant dans une continuité déclarée avec la lignée éteinte, il est à la fois un génie politique, un brillant général et un mécène. Pour les hommes de son temps, il est l’exemple vertueux par excellence.

L’Italie de la Renaissance fut aussi témoin de l’apparition d’une nouvelle classe dirigeante : les marchands. Ces derniers prirent de plus en plus part à la chose publique non seulement grâce à leur argent – et au clientélisme qui en était inhérent –, mais également via leur relation étroite avec les milieux intellectuels. Cela leur donna un tel pouvoir d’influence qu’ils purent s’assurer, au fil du temps, une mainmise absolue sur les affaires de l’État. La dynastie la plus célèbre de ces princes-marchands est celle des Médicis à Florence.

L’Adoration des Mages (1475) de Sandro Botticelli met en avant la famille de Médicis. Les personnages bibliques prennent leurs apparences : Cosme est agenouillé devant la Vierge Marie et Laurent se trouve à l’extrême gauche du tableau, l’épée entre les jambes.

Les membres les plus remarquables de cette famille furent certainement Cosme (1389-1464) et son petit-fils Laurent, dit le Magnifique (1449-1492), qui assurèrent à l’Italie tout entière de vivre dans une quasi-quiétude. L’un et l’autre jouèrent un rôle de conciliateur, apaisant les tensions entre les États, garant du statu quo territorial en Italie. En ce sens, ils représentèrent une autre forme d’homme providentiel, usant de la diplomatie comme d’une arme. Moins héroïques peut-être, mais tout aussi efficaces.

Autre visage : le religieux inspiré. Savonarole (1452-1498) est un personnage haut en couleur, peut-être mieux connu du grand public.

Statue de Savonarole se trouvant à Ferrare, sa ville natale.

Frère de l’ordre des Dominicains, il marqua son temps par ses prêches contre la Curie romaine, le pape Alexandre VI Borgia – popularisé notamment ces dernières années par la série Borgia sur Canal+ – et plus généralement contre la corruption des mœurs. Orateur charismatique, il prôna une vie plus saine, loin des vices auxquels s’adonnaient les hautes sphères de la société, responsables selon lui des malheurs qui s’abattaient sur l’Italie. Ce faisant, il sut subjuguer la ville de Florence qui le suivit pendant près de quatre années en lui permettant de chasser les Médicis qui gouvernaient la cité depuis près de soixante-dix ans. Vu comme « l’envoyé de la Providence » – au sens strict du terme –, les Florentins vinrent à se lasser de lui lorsqu’ils se rendirent compte que son autoritarisme ascétique n’était pas aussi profitable qu’ils l’auraient imaginé. C’est le bûcher qui vint mettre fin au parcours du « prophète désarmé ».

L’incarnation aujourd’hui en France

Il y a évidemment d’autres exemples (entre le pape-poète, l’amiral-général ou le fils de tavernier devenu sénateur de Rome), mais ces trois-là exposent bien le pluralisme de la Renaissance lorsqu’on en vient à évoquer ses grands hommes.

Il est possible de faire en cela un parallèle avec l’incarnation de cette figure aujourd’hui en France. Si nous en dressons une liste en tenant compte de la réalité politique du moment, on s’aperçoit rapidement qu’elle est assez restreinte. D’un côté, le tribun, ami – autoproclamé – du peuple, souvent professionnel de la politique, parfois antisystème.

De l’autre le technocrate, surdiplômé, consensuel, fréquemment vu comme un pompier de service quand la crise – économique – vient toquer à la porte. Enfin, le général, chimère française (Bonaparte, De Gaulle, Boulanger), symbole d’autorité tentant une frange de la population qui doute de ses élites.

Les différences notables entre ces deux époques viennent très certainement d’un monde politique contemporain uniformisé, le fonctionnement de la chose publique s’internationalisant et se répétant à l’identique dans – presque – chaque pays. Les différences entre chacun des modèles d’homme providentiel sont palpables, mais la finalité demeure la même : ils sont censés être un recours extraordinaire à un problème d’apparence insoluble. L’histoire nous a souvent montré que la réalité de leur action fut souvent bien différente de l’espoir qu’ils avaient suscité. Comme Marx le disait, « les hommes font l’histoire, mais ne savent pas l’histoire qu’ils font ».

« Friends » : les raisons d’une popularité au long cours

22 mardi Juin 2021

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

  1. Jessica Thrasher ChenotDocteure en études anglophones, Université Le Havre Normandie

Déclaration d’intérêts

Jessica Thrasher Chenot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

Partenaires

Université Le Havre Normandie
CC BY NDNous croyons à la libre circulation de l’information
Sorti fin mai 2021, cet épisode-retrouvailles joue sur la nostalgie d’une époque révolue. AFP

La sortie de l’épisode spécial de Friends qui réunit les six acteurs de la sitcom iconique (en France sur Salto depuis le 27 mai et sur TF1 le 24 juin 2021) a suscité l’excitation des fans tout en occasionnant une reprise de certaines polémiques qui ont entouré la série depuis son arrivée sur le petit écran états-unien, polémiques qui ont pris de l’ampleur dans les années suivant sa diffusion originale.https://www.youtube.com/embed/HRXVQ77ehRQ?wmode=transparent&start=0

Accusée d’homophobie, de transphobie, de grossophobie, et de misogynie, et critiquée pour son manque de diversité ethnique et racial, Friends, diffusée sur la grande chaine américaine NBC entre 1994 et 2004, dépasse désormais le simple statut de série télé populaire pour atteindre véritablement le niveau de phénomène culturel, et ce à l’échelle mondiale.

Comment expliquer l’engouement qu’entretient cette série avec ses fans, sa capacité à attirer de nouveaux spectateurs parmi des générations qui n’ont pas forcément suivi la série lors de sa première diffusion, ainsi que sa popularité durable, voire croissante, dans un contexte culturel où les spectateurs sont de plus en plus sensibles et exigeants quant à la représentation et à l’inclusion des populations marginalisées – femmes, personnes de couleur, LGTBQ+ – dans la culture populaire ?

Une sitcom disponible partout, tout le temps

Les réponses s’avèrent multiples et complexes et varient sans doute d’un contexte culturel et géographique à un autre. En font partie sans nul doute plusieurs raisons commerciales et industrielles : Friends est l’une des rares situation comedies à jouir d’une position aussi dominante sur les écrans grâce à sa diffusion quasi continue sur diverses chaînes depuis son arrêt en 2004.

Aussi, l’émergence de nouvelles formes de visionnage et l’accès à volonté à l’intégralité de la série rendus possible par la montée en puissance de la plate-forme streaming Netflix. Enfin, et plus généralement, l’ubiquité croissante des écrans (ordinateur portable, tablette, smartphone) dans la vie quotidienne qui va de pair avec un processus de légitimation culturelle de l’objet « série télé », encore dédaigné il n’y pas si longtemps (bien que l’appellation de « quality TV » demeure encore largement réservée aux séries dramatiques telles que The Sopranos, Mad Men, ou Game of Thrones).

Mais ces réponses ne sont que partielles. Après tout, suivant la logique commerciale qui régit l’industrie télévisuelle, nulle chaine ou plate-forme payerait des sommes aussi colossales pour acquérir les droits de diffuser une série si elle n’était pas assurée d’attirer des spectateurs.

Des qualités indéniables

Si les spectateurs sont continuellement au rendez-vous pour Friends c’est grâce, là encore, à plusieurs raisons complexes et interconnectées : de jeunes acteurs hautement télégéniques et charismatiques, une écriture soignée et sophistiquée, des innovations narratologiques et génériques, un humour et un timing de comique efficaces, des personnages caricaturaux, bien définis et attachants, un univers fictionnel étoffé et rassurant, des personnages secondaires mémorables, un ancrage émotionnel fort, pour n’en citer que quelques-unes. Tous ces éléments ont contribué et continuent à contribuer au succès de la série et ce dernier épisode mise avec une très grande efficacité sur l’aspect émotionnel et la nostalgie qui en découle.

Ainsi, la visite des six acteurs aux plateaux de tournage spécialement reconstitués pour l’évènement, le rappel des épisodes phares (« Celui qui gagne les paris »), les relectures par les six acteurs de dialogues originaux transposés sur les scènes originales, les bêtisiers, les visites des guest stars très appréciées par les fans, tous ses éléments ont servi la cause de la nostalgie pendant ces retrouvailles-spectacle, pendant près de deux heures.

La recherche du consensus

Mais il se peut que la véritable nostalgie autour de Friends, et une des raisons fondamentales qui explique son succès phénoménal et persistant en dépit de son nouveau statut de série problématique, se situe ailleurs, se trouve, en fait, au niveau générique. Friends, en dépit de quelques arcs narratifs dramatiques, reste avant tout une sitcom grand public qui a été conçue et produite à la toute fin de l’ère des Networks (années 1950-1990) aux États-Unis. Ce moment, très différent du paysage télévisuel actuel, est caractérisé par une offre de contenu réduite et un modèle commercial basé sur le financement des publicitaires. Une grande chaîne comme NBC doit s’assurer que son contenu sera « vendable » aux publicitaires, qu’il réponde aux goûts du plus grand nombre de spectateurs. La sitcom, le genre le plus populaire de cette période, est ainsi le genre qui, historiquement et grâce à son déploiement de l’humour, cherche systématiquement le consensus culturel.

En effet, la sitcom américaine est un genre qui négocie sans cesse les tensions sociétales de son époque et de son pays. C’est un espace au sein de la culture populaire qui présente et interroge les points de vue variés, parfois diamétralement opposés ; qui questionne les normes sociétales d’une époque et qui propose éventuellement des possibilités dissidentes. On peut trouver dans une sitcom comme Friends, dont le récit continue pendant des années, toutes sortes de messages idéologiques, car ce processus dialectique, cette exploration fine et détaillée des questions de société, ne prend jamais fin lors de la vie d’une sitcom réussie. Elle est, en fait, une source d’inspiration. Si Friends semble donc souvent terminer ce travail culturel par une validation ou un renforcement des hégémonies en vigueur, cela reflète avant tout les limites de son cadre commercial et industriel : une sitcom qui pousse trop loin les limites du consensus risque l’annulation, ou pire encore, de ne jamais voir le jour.

Il n’est donc pas étonnant de voir qu’à certains égards Friends a très mal vieilli. Mais ce vieillissement inconfortable reflète en fait le profond engagement et occupation de Friends vis-à-vis des changements sociétaux rapides et profonds qui bouleversèrent les États-Unis à la fin du XXe siècle (visibilité et acceptation accrues des personnes LGTBQ+, remise en question des normes genrées et de la composition familiale, besoin de mieux intégrer les personnes de couleur dans la culture populaire). Toujours à la recherche du compromis culturel Friends, comme d’autres sitcoms grand public de son époque, a pu proposer du contenu qui fait grincer les dents des spectateurs contemporains.

Le reflet d’un débat sociétal

Il faut donc comprendre ce contenu problématique comme faisant partie d’un processus de discussion et de négociation qui reflète l’état du débat sociétal de l’époque, comme un engagement civique. Une sitcom de cette époque télévisuelle n’a pas pour vocation d’être progressiste (bien que Friends l’ait été à bien des égards) mais à chercher l’adhésion du plus grand nombre de spectateurs en leur proposant un modèle, un univers acceptable à la majorité, un compromis culturel et sociétal – en cela le genre est éminemment politique. Que le compromis qu’ait trouvé Friends il y deux décennies déçoive certaines personnes aujourd’hui montre justement que c’est ce même consensus – les termes du compromis – qui a évolué, non pas en dépit de Friends mais peut-être justement, en partie, grâce à la série et au travail culturel qu’elle a entamé pendant une décennie.

Il n’est pas anodin de constater que les années glorieuses d’un genre aussi investi dans la négociation amiable et humoristique des tensions sociétales soient suivies par un genre dont le mode opératoire est, d’une certaine manière, situé à l’opposé de la sitcom : la télé-réalité. En rien ancrée dans le réel, ces émissions de compétition acharnée et d’individualisme exacerbé semblent, au contraire, encourager le conflit, la dissidence et la polarisation aiguë (on n’oubliera pas que l’un des présidents américains les plus clivants a affûté sa réputation grâce à sa propre émission de télé-réalité).

Une série refuge

Si Friends reste populaire, si le public demeure au rendez-vous, c’est qu’il y ait bien un effet de nostalgie à l’œuvre. Mais cette nostalgie s’étend bien au-delà du simple univers Friends, bien au-delà d’une affinité pour les personnages, pour les acteurs ou pour un moment historique révolu. La nostalgie pour Friends, et la raison pour laquelle tant de personnes continuent à l’apprécier en dépit de son décalage avec nos sensibilités et normes actuelles, est, en réalité une nostalgie pour un procédé culturel qui ne prédomine plus sur le petit écran : une recherche de consensus et de compromis.

Dans cette nouvelle écologie télévisuelle fragmentée, la sitcom en tant qu’objet culturel ne peut plus occuper sa place d’avant, ne peut plus assumer son rôle de négociatrice culturelle. Aussi, il semblerait que les goûts du public ne tendent plus forcément vers le consensus mais plutôt vers la confrontation, la revendication et l’individualisme. Vouloir se réfugier dans un épisode de Friends, série doudou (certes un peu moisie et galvaudée), n’est finalement pas si difficile à comprendre.

Systèmes à base de graphène : où en est-on du difficile passage à l’échelle industrielle ?

21 lundi Juin 2021

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

  1. Serena GallantiAssistant Professor – Energy storage, ECE Paris
  2. Filippo FerdeghiniEnseignant-chercheur en nanoscience, ECE Paris
  3. François MullerEnseignant-Chercheur en nanosciences et nanotechnologies, ECE Paris
INSEEC U.
CC BY NDNous croyons à la libre circulation de l’information
Reproduisez nos articles gratuitement, sur papier ou en ligne, en utilisant notre licence Creative Commons.

Republier cet article

  • r

Lorsqu’en 2004, Konstantin Novoselov et Andre Geim de l’Université de Manchester ont annoncé dans le journal Science avoir isolé une feuille unique de graphène – un cristal bidimensionnel de carbone ayant une structure en nid d’abeille, l’onde de choc dans le monde scientifique a été immense.

La technique utilisée par Konstantin Novoselov et Andre Geim est extrêmement simple : ils ont utilisé du scotch pour isoler pas à pas des couches de graphite, comme celles que l’on trouve dans les traces de simples crayons à papier, pour obtenir au final une couche unique, du graphène. Ce coup de génie leur a valu le prix Nobel de Physique en 2010.

Des propriétés qui sortent de l’ordinaire

La structure du graphène lui confère une série de propriétés extraordinaires même à température ambiante. Regardons-les d’un peu plus près. En étant purement bidimensionnel et d’épaisseur d’un atome, le graphène est un matériau extrêmement léger : une surface équivalente à un champ de foot pourrait être recouverte par une couche de graphène pour un poids total inférieur à un gramme. En étant de l’épaisseur d’un atome de carbone, une feuille de graphène assure la transmission de l’amplitude d’un rayon de lumière blanche à plus de 95 %, ce qui le place bien au-dessus du verre classique, qui n’en transmet que 80 %.

Sa structure lui confère une conductivité thermique extraordinaire, bien supérieure à celle du cuivre et même au-delà de celle du diamant lorsque le graphène est « suspendu », c’est-à-dire qu’il n’y a pas de « substrat », de surface dessous pour le soutenir.


À lire aussi : Le graphène ou la révolution programmée de l’électronique : c’est pour bientôt ?


L’enthousiasme du monde académique pour le graphène a été immédiat et de nombreuses applications ont vu le jour rapidement notamment dans le domaine de l’électronique.

Du laboratoire au grand public

De par ses propriétés extraordinaires, le graphène est déjà inclus ou est en passe de l’être dans le renforcement des matériaux en remplacement des nanotubes de carbones, le traitement des surfaces de verre pour les vitres intelligentes, les lunettes et pour les écrans tactiles, en passant par la filtration de l’eau grâce à sa structure en nid d’abeille atomique, les batteries électriques et l’électronique flexible pour des systèmes enroulables et pliables extrêmement fins.

Dans le domaine de la santé, le graphène participe à des pansements intelligents et à des traitements contre le cancer malgré une potentielle toxicité selon les cas.

Toutefois, pour le moment il est essentiellement utilisé comme composant secondaire ou d’appoint.

Un dispositif électronique à base de graphène en laboratoire, vu en microscopie optique. Matteo Bruna, Department of Engineering, University Of Cambridge/Flickr, CC BY-NC-ND

C’est comme substituant du silicium que l’utilisation du graphène pur présente de nombreuses promesses pour réaliser un véritable bond technologique. Dès 2011, IBM a présenté le premier circuit intégré ayant un transistor exclusivement en graphène.

Cependant, aujourd’hui encore la majorité des produits développés s’arrêtent à la phase du prototypage et une utilisation dans des systèmes commerciaux du graphène reste encore problématique.

Le difficile passage à l’échelle industrielle

En effet, plusieurs facteurs empêchent une vraie industrialisation à large échelle. Le coût d’obtention de plaquettes de graphène (de taille micronique sur une épaisseur atomique) reste encore trop élevé, autour de 100 à 700 euros par kilogramme. La largeur de cette fourchette de prix est influencée par plusieurs facteurs, tels que la qualité du graphène souhaitée, la taille des plaquettes et la technique de production. Par exemple, une feuille de 1 centimètre carré de graphène pur coûtera bien plus cher à faire qu’une multitude de plaquettes représentant la même surface au total.

La mise en place et l’optimisation de procédés industriels adéquats demandent des investissements considérables. Plusieurs méthodes ont été développées afin d’aboutir à la production de feuillets de graphène, par exemple l’exfoliation mécanique en phase liquide, le dépôt chimique en phase vapeur, l’oxydation de graphite en milieu acide et récemment la méthode du chauffage flash de produits carbonés comme les déchets alimentaires, les plastiques. Des entreprises commencent aussi à développer des approches nouvelles pour produire du graphène à grande échelle. Ces techniques sont efficaces, mais leur mise en place et leur optimisation requièrent des moyens encore considérables.

Niche du marché malgré les milliards investis

Ainsi, les produits à base de graphène constituent, pour le moment, une niche du marché qui ne réussit pas vraiment à décoller. En 2019, la taille du marché du graphène a été estimée à « seulement » 79 millions de dollars, alors que celle du marché des nanotubes de carbone par exemple a été estimée à 2,6 milliards de dollars. D’ici 2027, la croissance du marché du graphène devrait être de 38 %, mais dans le même temps celui des nanotubes de carbone devrait atteindre 5,8 milliards de dollars. L’industrie du graphène est toujours perçue par les potentiels investisseurs comme un marché encore immature à cause d’un manque de standardisation et de fiabilité sur les propriétés du produit vendu. Cette vision par les bailleurs de fonds du marché du graphène reste le principal frein d’expansion et de développement de ce marché spécifique.

Encre de graphène, à base de graphite en poudre dans de l’alcool. Les encres électroniques comme celles-ci permettent d’imprimer des circuits électroniques avec des imprimantes jet d’encre. James Macleod, Department of Engineering, University Of Cambridge/Flickr, CC BY-NC-ND

Néanmoins, diverses industries et de grands groupes comme Samsung ont commencé depuis 2014-2015 à investir dans des programmes internes de plusieurs milliards d’Euros afin de développer de nouveaux produits à base de graphène, ou du moins utilisant certaines des propriétés remarquables de celui-ci. L’Union européenne a alloué un programme de financement décennal d’un milliard d’Euros depuis 2013 pour le développement du secteur de la R&D autour du Graphene. En 2020, celle-ci a complété ce programme par un autre programme de financement de quatre ans de 20 millions d’euros avec l’objectif le développement et l’introduction dans le marché de nouveaux composants électroniques à base de graphène.

Des initiatives similaires ont été mises en place dans le monde. En 2015, la Corée du Sud a alloué un investissement quinquennal de 108 millions de dollars pour encourager la commercialisation du graphène. En Chine, le gouvernement a identifié l’industrialisation du graphène comme une des priorités dans son plan de développement pour la période 2016-2020. En 2013, le « Graphene Council » a été fondé aux États-Unis. Cette association a pour but de servir de réseau pour la communauté mondiale du graphène. Elle propose par exemple des services de certification pour les différents producteurs de graphène pour créer des standards de production et de qualité qui puissent être reconnus par de potentiels investisseurs.

Les systèmes « tout graphène » ne sont pas encore prêts pour passer des applications en laboratoire vers l’industrie. Cependant, les investissements et les progrès sont réels. Si nos ordinateurs ont un jour des fréquences de calcul de plusieurs térahertz sans surchauffer, ou que nos véhicules électriques alimentent nos logis en électricité, il y a de fortes chances pour que le graphène ait quelque chose à voir là-dedans.

← Articles Précédents
juin 2021
L M M J V S D
 123456
78910111213
14151617181920
21222324252627
282930  
« Mai   Juil »

Stats du Site

  • 102 895 hits

Liens

  • Associations-patrimoines
  • La Fédération d'environnement Durable
  • Moelle Osseuse
  • Visite de Mirmande
juin 2021
L M M J V S D
 123456
78910111213
14151617181920
21222324252627
282930  
« Mai   Juil »

Commentaires récents

Bernard Tritz dans L’ONU peut-elle contribuer à m…
Bernard Tritz dans Inégalités en maternelle : que…
Bernard Tritz dans Vercingétorix contre César : l…
Bernard Tritz dans La défense de Taïwan à l’épreu…
Belinda Cruz dans Donald Trump positif à la Covi…

Propulsé par WordPress.com.

  • Suivre Abonné∙e
    • Mirmande PatrimoineS Blogue
    • Rejoignez 176 autres abonnés
    • Vous disposez déjà dʼun compte WordPress ? Connectez-vous maintenant.
    • Mirmande PatrimoineS Blogue
    • Personnaliser
    • Suivre Abonné∙e
    • S’inscrire
    • Connexion
    • Signaler ce contenu
    • Voir le site dans le Lecteur
    • Gérer les abonnements
    • Réduire cette barre