• Actualités régionales
    • Communes limitrophes
    • Régionales
  • Adhésion
  • André Lhote
  • Au-delà du 14 juillet, des interrogations tenaces sur l’usage des armées
  • Auteurs morts en 17, (déjà…)
  • BD « Sciences en bulles » : À la recherche des exoplanètes
  • Bonnes feuilles : Le château d’If, symbole de l’évasion littéraire
  • Comment la lecture enrichit l’éducation des enfants
  • Corruption, contrebande : le drame de Beyrouth et la question de la sécurité dans les zones portuaires
  • Des crises économiques à la crise de sens, le besoin d’une prospérité partagée
  • Evènements
  • Lecture : comment choisir un album qui peut vraiment plaire aux enfants
  • L’économie fantôme de l’opéra
  • L’Europe s’en sortirait-elle mieux sans l’Allemagne ?
  • Maladie de Lyme : attention au sur-diagnostic !
  • Mirmande
    • Pages d’histoire
    • AVAP et PLU
    • Fonds de dotation et patrimoine
  • NutriScore : quand l’étiquetage des aliments devient prescriptif
  • Penser l’après : Le respect, vertu cardinale du monde post-crise ?
  • Podcast : le repos, une invention humaine ?
  • Prévoir les changements climatiques à 10 ans, le nouveau défi des climatologues
  • Qui sommes-nous?
  • Réforme de la taxe d’habitation… et si la compensation financière n’était pas le seul enjeu ?
  • Revues de presse et Chroniques
  • S’INSCRIRE AU BLOGUE
  • Scène de crime : quand les insectes mènent l’enquête
  • The conversation – Changement climatique : entre adaptation et atténuation, il ne faut pas choisir
  • Une traduction citoyenne pour (enfin) lire le dernier rapport du GIEC sur le climat

Mirmande PatrimoineS Blogue

~ La protection des patrimoines de Mirmande.com site

Mirmande PatrimoineS Blogue

Archives Mensuelles: juillet 2021

Syrie : une stabilisation en trompe-l’œil

31 samedi Juil 2021

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

  1. Thomas PierretChargé de recherches à l’Institut de Recherches et d’Études sur les Mondes Arabes et Musulmans (IREMAM), Aix-Marseille Université (AMU)

Partenaires

Aix-Marseille Université
CC BY NDNous croyons à la libre circulation de l’information
Deux habitants marchent sur les décombres d'une maison, après un bombardement des troupes du régime, à Serja dans la province d'Idlib, le 17 juillet dernier.
Pour les habitants de la province d’Idlib, le guerre est tout sauf terminée : les bombardements du régime ont repris depuis plusieurs mois, engendrant de nombreuses victimes civiles, comme ici, à Serja, le 17 juillet dernier. Abdulaziz Ketaz/AFP

Le 26 mai dernier, le président syrien Bachar Al-Assad était réélu pour un quatrième septennat. Remporté avec 95 % des voix face à deux figurants, le scrutin fut avant tout l’occasion d’intensifier le culte de la figure présidentielle dans un contexte ambivalent. Alors que la précédente élection s’était tenue en 2014, soit à la veille des défaites militaires qui allaient provoquer l’intervention russo-iranienne l’année suivante, celle de 2021 survient alors que le régime est redevenu maître des deux tiers du territoire national.https://platform.twitter.com/embed/Tweet.html?dnt=false&embedId=twitter-widget-0&features=eyJ0ZndfZXhwZXJpbWVudHNfY29va2llX2V4cGlyYXRpb24iOnsiYnVja2V0IjoxMjA5NjAwLCJ2ZXJzaW9uIjpudWxsfSwidGZ3X2hvcml6b25fdHdlZXRfZW1iZWRfOTU1NSI6eyJidWNrZXQiOiJodGUiLCJ2ZXJzaW9uIjpudWxsfSwidGZ3X3NwYWNlX2NhcmQiOnsiYnVja2V0Ijoib2ZmIiwidmVyc2lvbiI6bnVsbH19&frame=false&hideCard=false&hideThread=false&id=1417149083047931908&lang=en&origin=https%3A%2F%2Ftheconversation.com%2Fsyrie-une-stabilisation-en-trompe-loeil-164675&sessionId=c622efff507e864bff59d402cd8ae041af932ce7&siteScreenName=FR_Conversation&theme=light&widgetsVersion=e9dfb5f%3A1627539779275&width=550px

La relative position de force de Damas ne doit toutefois pas occulter le fait que le pouvoir est économiquement exsangue par l’effet combiné des destructions de guerre, du contrôle des principales ressources pétrolières, situées dans l’Est, par les Forces démocratiques syriennes, et des sanctions occidentales : en mars 2021, tandis que s’aggravaient les multiples pénuries, la livre syrienne tombait temporairement à 1 % de sa valeur d’avant-guerre.

La traduction politique la plus spectaculaire de cette crise fut l’accroissement des tensions au sein du clan dirigeant, illustré par les messages vidéos qu’a diffusés en 2020 le magnat de l’économie nationale et cousin du président Rami Makhluf, protestant contre la saisie de ses actifs. Cette dernière mesure était elle-même liée, semble-t-il, à une lutte d’influence entre Makhluf et des hommes d’affaires associés à la première dame Asma al-Akhras.

Carte de l’état du conflit en juillet 2021
La situation militaire en Syrie en juillet 2021 : en rose, les zones contrôlées par les loyalistes, en jaune, celles maîtrisées par les forces kurdes des FDS. La région d’Idlib est partagée entre zones soumises à des organisations d’opposition, en vert clair, et celles sous l’autorité des islamistes du Gouvernement Syrien de Salut, en blanc. La bande verte au Nord est sous contrôle de rebelles syriens alliés aux forces turques. La poche turquoise au sud-est correspond au territoire des « commandos de la Révolution », groupe rebelle soutenu par l’armée États-Unienne. Enfin, les territoires en violet et orange font l’objet de trêves entre le régime et respectivement des groupes rebelles et les FDS. Ermanarich/Wikimedia, CC BY

La mainmise du régime sur la société reste fragile

Largement contenu par la main de fer des autorités, le mécontentement populaire provoqué par les conditions économiques s’est toutefois exprimé, notamment durant la présidentielle, par des manifestations dans des localités du Sud. Celles-ci demeurent aux mains d’anciens rebelles dits « réconciliés » en vertu d’accords négociés par la Russie en 2018, dans les provinces de Deraa et Quneitra, ou de milices locales d’autodéfense, s’agissant de la région druze de Suweida.

Rien n’indique que ces modestes épisodes de protestation soient les prémices d’un mouvement qui, à l’échelle nationale, parviendrait à surmonter à la fois la polarisation confessionnelle renforcée par le conflit, et la peur d’une nouvelle réponse impitoyable de la part du régime. En revanche, les actes d’opposition armée au régime ont d’ores et déjà repris un caractère endémique dans deux régions du pays. Dans la Badiya (désert), les attaques de l’organisation de l’État islamique (EI) ont fait cinq cents victimes en 2020, soit deux fois plus que l’année précédente, avant de refluer, sans disparaître, suite à un sursaut militaire loyaliste.

Dans les provinces méridionales de Deraa et Quneitra, des affrontements violents ont opposé d’anciens rebelles aux forces du régime qui tentaient d’investir leurs fiefs à la recherche d’auteurs supposés d’attaques armées. En juin 2021, notamment, les hommes de Damas ont assiégé les quartiers de Deraa tenus par les anciens rebelles pour les contraindre à remettre leurs armes légères.

Dans ce contexte, il est extrêmement difficile d’attribuer la responsabilité des assassinats quotidiens et autres opérations de faible envergure qui secouent actuellement le sud du pays. Tandis que des combattants loyalistes et leurs collaborateurs locaux ont été assassinés par des vestiges de l’Armée syrienne libre et des cellules de l’EI, d’ex-commandants rebelles « réconciliés » semblent avoir payé de leur vie le fait d’entraver la volonté de Damas de révoquer les accords de 2018 pour rétablir un contrôle direct sur la région.

Les loyalistes divisés face à une guerre inachevée

D’autres morts violentes, encore, paraissent liées aux rivalités entre les différentes forces loyalistes qui se disputent l’allégeance des anciens rebelles, dont les services de renseignements militaires du régime, des groupes pro-iraniens comme le Hezbollah libanais et la 4e Division blindée, ou encore le 5e Corps d’armée inféodé à la Russie. Ces rivalités se manifestent aussi sur la rive occidentale de l’Euphrate, où la Russie a coopté des unités de groupes paramilitaires comme les Forces de Défense nationale ou la Brigade al-Quds. Téhéran, lui, recrute ses affidés locaux par le biais de ses Pasdaran (Corps des gardiens de la révolution islamique).

La prolifération des paramilitaires nourrit aussi la violence dans la province à majorité druze de Suweida. Face au déclin des financements alloués par le régime, certains groupes locaux se sont lancés dans le rançonnement de sunnites de la province voisine de Deraa, ranimant de ce fait un vieux conflit foncier entre les deux communautés : en 2020, des affrontements entre miliciens druzes et combattants prorusses du 5e Corps ont fait des dizaines de morts.https://www.youtube.com/embed/gaKwjvxukvg?wmode=transparent&start=0

L’autre grande limite de la « victoire » du régime est bien sûr son incapacité à reprendre le tiers restant du pays. Au nord-ouest, les rebelles sont protégés par l’armée turque, tandis que l’est de l’Euphrate est tenu par les Forces démocratiques syriennes (FDS) commandées par des militants kurdes et soutenues par les forces américaines. En juillet 2021, aucune modification significative des lignes de front n’était survenue depuis le cessez-le-feu conclu le 5 mars 2020 par la Russie et la Turquie. Cette dernière, inquiète d’un nouvel afflux de réfugiés sur son territoire, venait alors de lancer une opération militaire d’envergure contre les forces du régime de Damas qui s’approchaient dangereusement de la ville d’Idlib tenue par les rebelles.

À l’extérieur comme à l’intérieur des territoires du régime, chaos et violence

Comme les territoires contrôlés par le régime, ceux qu’administrent ses rivaux connaissent également leur lot de crise économique, de contestation et de violence. S’agissant des territoires gouvernés par l’Administration autonome du Nord et de l’Est de la Syrie, pendant civil des FDS, des manifestations violemment réprimées en juin dernier dans la ville de Manbij sont venues souligner le ressentiment d’une partie des populations arabes envers un leadership kurde auquel elles reprochent notamment son régime de conscription.

Sur le plan militaire, les FDS combattent sur trois fronts. Dans le nord des provinces d’Alep et de Raqqa, des accrochages les opposent régulièrement à l’armée turque et aux factions rebelles unifiées par Ankara au sein de l’Armée nationale syrienne (ANS). Les relations avec le régime se sont aussi considérablement tendues après l’échec de négociations organisées début 2020 en vue d’un rapprochement politique. Les tensions ont culminé en avril dernier lorsque les FDS ont arraché à Damas le contrôle de la quasi-totalité de la ville de Qamishli après en avoir expulsé des paramilitaires des Forces de Défense nationale recrutés parmi les tribus arabes locales. Enfin, les FDS font, elles aussi, face à l’insurrection de basse intensité que mène l’EI dans la province arabophone de Deir ez-Zor.

Les trois enclaves directement contrôlées par l’armée turque le long de la frontière nord (Afrin, A’zaz al-Bab et Tell Abiyad Ras al-’Ayn) sont fréquemment le théâtre d’attentats à la bombe et d’attaques armées perpétrés à la fois par des combattants kurdes des YPG (colonne vertébrale des FDS, liés au Parti des Travailleurs du Kurdistan (PKK) opérant en Turquie) et par des cellules de l’EI.

La violence dans la région est aussi le produit de combats fratricides qui opposent régulièrement entre elles les factions rebelles inféodées à la Turquie. Principalement motivés par des considérations économiques telles que le contrôle de la contrebande, ces affrontements font émerger des lignes de fracture régionales (entre des factions locales et d’autres originaires de Deir ez-Zor ou de Damas) ou ethniques (entre Turkmènes et Arabes).

Idlib, futur épicentre de l’implosion qui vient ?

À Idlib, enfin, les islamistes de Hay’a Tahrir al-Sham (HTS) et leur façade civile, le Gouvernement syrien de salut, ont renforcé leur mainmise sur la province en réprimant à la fois la société civile et les factions jihadistes radicales. Celles-ci, à l’instar des pro-al-Qaïda de Hurras al-Din, dénoncent les compromis idéologiques d’HTS et en particulier sa coopération avec l’armée turque. En réponse à cette répression ont émergé de nouvelles formations jihadistes obscures qui ont posé des engins explosifs improvisés au passage de véhicules russes et turcs patrouillant dans la province.https://www.youtube.com/embed/0-vbHHl8RpY?wmode=transparent&start=0

Les menaces extérieures pesant sur Idlib sont toutefois d’une tout autre ampleur. La reprise des bombardements loyalistes durant le printemps 2021 pèse sur la vie des habitants, de même que la menace russe d’un veto contre la prolongation par le Conseil de Sécurité de l’ONU de l’aide humanitaire transfrontalière vers la province rebelle. À ce mécanisme, Moscou oppose sa demande de corridors humanitaires partant des territoires contrôlés par le régime, première étape vers le rétablissement graduel de la souveraineté de Damas sur Idlib.

Un compromis sur la poursuite de l’aide transfrontalière pour une durée de douze mois fut arraché de justesse en juillet 2021 mais la question du veto russe se posera à nouveau dans un an. Un tel veto compromettrait très gravement la sécurité alimentaire des trois millions d’habitants de la province d’Idlib. Par là même, elle exposerait cette dernière à un risque d’implosion économique qui pourrait, à son tour, mettre un point final au (très) relatif statu quo militaire qui prévaut en Syrie depuis seize mois.

Avoir été malade de la Covid-19 ne protège pas aussi bien qu’un vaccin, surtout face au variant Delta

30 vendredi Juil 2021

Posted by mirmandepatrimoines in Uncategorized

≈ 2 Commentaires

  1. Jennifer T. GrierClinical Assistant Professor of Immunology, University of South Carolina

Déclaration d’intérêts

Jennifer T. Grier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

Partenaires

University of South Carolina
CC BY NDNous croyons à la libre circulation de l’information

En tant qu’immunologiste étudiant les réponses immunitaires aux infections respiratoires, j’ai suivi l’émergence des nouveaux variants du coronavirus non sans une certaine appréhension, avec à l’esprit la question de savoir si la vaccination ou une infection antérieure pouvait offrir une protection suffisante contre ces souches, et notamment contre le variant Delta hautement transmissible, qui s’est rapidement diffusé dans plus de 70 pays.

Il existe deux façons de développer une immunité, autrement dit une capacité à résister à une nouvelle infection : après avoir été infecté par le virus, ou par la vaccination. Cependant, toutes les immunités ne se valent pas… Immunité induite par vaccin et immunité naturelle se distinguent en termes d’intensité de réponse et de durée de protection acquise. De plus, après une infection, tout le monde ne bénéficie pas du même niveau d’immunité, alors que les effets des vaccins sont très constants.

Cette différence parait encore plus marquée lorsqu’on considère les nouveaux variants. Début juillet, deux études ont en effet montré que les vaccins contre la Covid-19, quoique légèrement moins efficaces que contre les anciennes souches virales, semblaient toujours fournir une excellente réponse immunitaire face aux nouveaux variants. En regardant comment nos anticorps se liaient à ces derniers, les chercheurs ont constaté que les personnes infectées antérieurement pouvaient être vulnérables à ces souches émergentes, alors que les individus vaccinés avaient plus de chance d’être protégés.

Les vaccins constituent donc une voie à la fois sûre et fiable vers l’immunité, tant contre les anciennes souches de coronavirus que contre les nouvelles, parmi lesquelles le variant Delta.

L’immunité après une infection est imprévisible

Pourquoi une telle différence entre immunité naturelle et immunité induite par les vaccins ? Rappelons déjà que la protection que nous confère notre système immunitaire découle de sa capacité à se souvenir d’une infection passée et de l’agent pathogène qui l’a causée. S’il devait être confronté à nouveau au même envahisseur, notre corps saurait comment se défendre en faisant appel à cette mémoire immunologique. Parmi les acteurs majeurs de notre protection figurent les anticorps (des protéines capables de se lier par exemple à un virus) et les lymphocytes T (des cellules immunitaires impliquées dans l’élimination des cellules infectées et des virus déjà neutralisés par les anticorps).

Des essaims d’anticorps reconnaissent des virus ayant déjà infecté notre corps
Notre système immunitaire génère des anticorps (Y) capables de reconnaître tout virus auquel il a déjà été confronté. ktsdesign/Shutterstock

Après une infection par le SARS-CoV-2, anticorps et lymphocytes T fournissent une protection à la réinfection. 84 % à 91 % des personnes ayant développé des anticorps contre la souche originelle de coronavirus étaient peu susceptibles d’être ré-infectés dans les six mois, même si ladite première infection avait été légère. Quant aux individus contaminés mais n’ayant développé aucun symptôme (on parle d’infections « asymptomatiques »), s’ils tendent à avoir moins d’anticorps, ils développent néanmoins également une immunité.

Chez certaines personnes, l’immunité naturelle peut donc être forte et de longue durée. Mais ce n’est pas toujours le cas. En effet, près de 9 % des personnes infectées par le SARS-CoV-2 ne généreront pas un niveau d’anticorps détectable, et les lymphocytes T de près de 7 % des anciens malades sont incapables de reconnaître le virus 30 jours après l’infection.

Laisser filer l’inflation ou freiner la reprise, le dilemme des banquiers centraux

29 jeudi Juil 2021

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

  1. Éric MengusProfesseur associé en économie et sciences de la décision, HEC Paris Business School
HEC Paris Business School
CC BY NDNous croyons à la libre circulation de l’information
Cette image a un attribut alt vide ; son nom de fichier est file-20210721-23-1fdezyg.jpg
Aux États-Unis, l’inflation a augmenté de plus 5 % sur un an. Scott Olson / Getty Images via AFP

Aux États-Unis, l’indice des prix à la consommation a augmenté de 0,9 % en juin après avoir progressé de 0,5 % en mai, et la variation annuelle est supérieure à 5 %. Dans la zone euro, cette hausse est beaucoup moins prononcée, du moins pour l’instant. En France, par exemple, les prix à la consommation ont augmenté de 1,5 % en juin par rapport à l’année précédente, alors qu’en variation sur un an, ces prix n’avaient augmenté que de 0,2 % en juin de l’année dernière.

Ce retour de l’inflation peut s’expliquer notamment par un mécanisme économique très simple : la demande augmente et l’offre se réduit, donc les prix augmentent.https://datawrapper.dwcdn.net/1eLl1/1/

D’une part, la pandémie a conduit de nombreux ménages à reporter leur consommation. Pour certains d’entre eux, ils ont accumulé de l’épargne. Lorsque les mesures de distanciation sociales sont levées, ces ménages peuvent à nouveau consommer. Cela correspond à une hausse de la demande.

D’autre part, l’offre de biens et de services subit encore des effets de la pandémie. En bref, toutes les chaînes d’approvisionnement et de production ne sont pas forcément rétablies.

Une tendance durable ?

Ces facteurs de demande et d’offre sont considérés comme transitoires : une fois la pandémie terminée, l’offre va se remettre en place et l’épargne accumulée sera dépensée. Ainsi, l’inflation qui en résulte ne devrait pas persister, du moins en théorie. D’une certaine manière, c’est même un signe que l’économie se remet sur les rails et la hausse de la demande va permettre à l’offre de se remettre en place.

Toutefois, il existe un risque que l’inflation reste durablement élevée, ce qui peut constituer un problème pour la reprise. Une telle inflation plus durable pourrait avoir des conséquences pour tous les prix dans l’économie : jusqu’à présent, les hausses de prix aux États-Unis concernent seulement certains secteurs comme l’énergie – et tout spécialement les prix liés au prix du pétrole et du gaz – ou des biens durables comme les voitures, mais nettement moins les services.https://www.youtube.com/embed/_9CQxnVc3-0?wmode=transparent&start=0Inflation : quels risques pour la relance ? (Académie des Sciences et Techniques Comptables et Financières, juillet 2021).

Si une telle inflation plus persistante venait à se réaliser, les banques centrales n’auront pas d’autre choix que de réagir pour les contenir. En effet, la Réserve fédérale américaine (Fed) comme la Banque centrale européenne (BCE) ont un objectif de stabilité des prix. Dans le cas de la Fed, depuis août 2020, l’inflation doit avoisiner les 2 % en moyenne. Dans le cas de la BCE, depuis sa récente revue stratégique, l’inflation doit être proche de 2 %. Un dérapage persistant des prix ne serait donc plus en accord avec le mandat de ces banques centrales.

Une question de crédibilité

Pour éviter un tel risque, les banques centrales devront limiter leur soutien à l’économie, ou bien en restreignant les programmes quantitatifs qu’elles ont mis en place depuis plusieurs années, ou bien en remontant si nécessaire leurs taux directeurs, aujourd’hui au plus bas.https://datawrapper.dwcdn.net/D55dr/1/

Paradoxalement, un éventuel retour de l’inflation est en partie lié à un risque de manque de crédibilité des banques centrales pour la combattre : si celles-ci préfèrent systématiquement ne pas ralentir l’activité économique pour combattre l’inflation, alors les marchés financiers voire, si le phénomène s’empire, les entreprises et les ménages vont penser que l’inflation risque effectivement de revenir. L’anticipation d’inflation future pousserait alors aux hausses de prix dès aujourd’hui, alimentant la spirale inflationniste.

Aujourd’hui, au-delà du risque pour la reprise, une raison particulière peut conduire les banques centrales à ne pas souhaiter resserrer la vis monétaire : en relevant les taux ou en limitant les achats de titres, les banques centrales peuvent également faire augmenter le coût de la dette des États. Une augmentation trop élevée des taux pourrait rendre insoutenable la dette de certains États et provoquer un défaut souverain.

Quelle que soit sa source, tout manque de crédibilité finirait par se traduire par les anticipations d’inflation à long terme. Dans les mois et années à venir, ce sera la variable clé à vérifier : si ces anticipations commençaient à s’écarter de l’objectif des banques centrales, ces dernières n’auraient d’autre choix que d’intervenir en ralentissant éventuellement la reprise.

Cette crédibilité à resserrer la vis monétaire si besoin, c’est visiblement ce qui a été testé aux États-Unis en juin dernier. La Fed a laissé ses taux inchangés, mais a annoncé que deux resserrements des taux sont désormais envisagés d’ici à fin 2023, alors que la date de 2024 était précédemment envisagée.

Avec cette communication autour d’une accélération du calendrier, les marchés financiers ont, semble-t-il, perçu que la Fed était crédible pour relever ses taux en cas de retour persistant de l’inflation. En retour, les anticipations d’inflation à plus long terme ont amorcé un léger recul aux États-Unis, laissant espérer que les marchés s’attendent effectivement à ce que la Fed intervienne si nécessaire en cas de hausse de l’inflation.

Anatomie martienne : après seulement deux ans de surveillance sismique, la structure interne de la planète rouge révélée

28 mercredi Juil 2021

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

  1. Philippe LognonnéProfesseur en Géophysique et Planétologie, Institut de Physique du Globe de Paris (IPGP), Université de Paris
Université de Paris
CC BY NDNous croyons à la libre circulation de l’information

Avant la mission Insight de la NASA opérée par le JPL, la structure interne de Mars était encore mal connue, étudiée grâce aux images des satellites en orbite martienne et à l’analyse des météorites martiennes. Depuis début 2019 et le succès du déploiement du premier sismomètre martien, l’expérience SEIS, les scientifiques ont collecté et analysé les données sismiques d’une année martienne, soit presque deux années terrestres, qui nous donnent des indications directes sur la structure de Mars, et donc sur sa formation et son histoire.

À ce jour, presque 700 évènements ont été répertoriés dans les données transmises par le CNES et IPGP à l’équipe internationale du Mars Quake Service animée par l’ETHZ. Dans ce catalogue, on trouve une soixantaine de séismes martiens, dont une dizaine de séismes suffisamment distincts pour l’on puisse, pour la première fois, déterminer un modèle de la structure interne de Mars, qui fait cette semaine la couverture du journal scientifique Science, avec trois articles cosignés par la collaboration InSight, sur la croûte, le manteau, et le noyau.

Détecter un murmure sous le brouhaha du vent martien

Sur Terre, les séismes sont forts à cause de la tectonique des plaques, et les sismomètres installés dans des caves ou sous terre et sont déployés par centaines. Sur Mars, dès que le soleil se lève, un bruit sismique important est généré par l’atmosphère et par sa turbulence et les séismes sont beaucoup plus faibles : c’est comme si vous cherchiez à entendre une conversation murmurée au milieu d’une salle de restaurant agitée.

Mais contrairement à la Terre, où même loin des côtes, le bruit sismique reste dominé par des ondes générées par la houle des océans, le bruit sismique observé par InSight est régional, voire local. Il chute donc dès le coucher du soleil et plus particulièrement pendant la première partie de la nuit, quand le vent est si faible que le capteur météorologique d’InSight n’arrive plus à le mesurer. Ces quelques heures ont permis de détecter des petits séismes, d’une magnitude inférieure à 3,7 et ce jusqu’à plusieurs milliers de kilomètres du capteur InSight. Certains de ces séismes ont un « rapport signal sur bruit » suffisamment bon (entre 10 et 100) pour l’on puisse en extraire des informations.

Image d’artiste de la propagation dans la croute et conversion sismiques à la base de la discontinuité à 10 km. Incrusté : Séismes du Sol 173, un des plus gros séismes martien, avec indication de l’onde P et S. IPGP/Nicolas Sarter, Fourni par l’auteur

Avant de présenter ce modèle, rappelons que pour déterminer tout à la fois un modèle de structure, le temps (d’arrivée) du séisme et sa distance, il faut habituellement disposer de plus d’une station. Or, sur Mars, seule la station InSight est à disposition des scientifiques. Il a donc fallu rechercher, identifier et valider dans les enregistrements sismiques la signature d’ondes ayant interagi différemment avec les structures internes de Mars. Ces nouvelles mesures, couplées avec des modélisations minéralogiques et thermiques de la structure interne, ont permis de s’affranchir de la contrainte de station unique. C’est une méthode qui ouvre une nouvelle ère de la sismologie planétaire.

Mars rejoint le club très sélect des corps célestes dont nous connaissons la structure

Après plus de deux ans de surveillance sismique martienne, le premier modèle de la structure interne de Mars est obtenu, et ce jusqu’au noyau. Mars rejoint ainsi la Terre et la Lune dans le club des planètes et satellites telluriques dont la structure profonde est explorée par la sismologie.

Et pour la première fois, il est possible non seulement de comparer la structure interne de la Terre avec celle d’une autre planète tellurique, mais aussi l’état de leur moteur thermique interne : l’épaisseur de la croûte nous renseigne en effet sur la quantité d’éléments radioactifs qui s’y trouve, l’épaisseur de la lithosphère thermique donne la profondeur de la zone éventuellement convective du manteau et l’existence ou non de phases profondes peut avoir des conséquences majeures sur la vigueur de la convection.


À lire aussi : « Retour sur… » : Si vous alliez sur Mars, comment choisiriez-vous votre destination ?


Avec ce premier modèle de structure interne et de profil thermique actuel, ce sont donc toutes les théories de formation et d’évolution thermique de Mars qui doivent être maintenant ajustées, avec à la clef une meilleure compréhension de l’évolution de la planète, puis de la perte d’« habitabilité » de Mars durant les 500 millions d’années qui suivirent sa formation.

Observer l’enveloppe superficielle : la croûte de Mars

Avant la mission InSight, les modèles ne reposaient que sur des mesures recueillies par les satellites en orbites ou l’analyse des météorites martiennes. L’épaisseur de la croûte, avec les seules mesures de gravité et de topographie, était estimée entre 30 et 100 kilomètres. Les valeurs du moment d’inertie et de la densité de la planète suggéraient un noyau avec un rayon entre 1400 kilomètres et 2000 kilomètres. Les détails de la structure interne de la planète comme les profondeurs des frontières entre croûte, manteau et noyau, et plus encore les stratifications éventuelles de la croûte ou du manteau étaient donc inconnus.

Aujourd’hui, c’est l’analyse des signaux sismiques recueillis par InSight qui nous permet de comprendre la structure interne de la planète. Avant d’atteindre la station Insight, à chaque « discontinuité crustale », les ondes sismiques vont être en partie converties en un autre type d’onde, en partie transmises, et en partie réfléchies. Une onde S peut ainsi être convertie en une onde P, dont la plus grande vitesse de propagation lui assurera une arrivée plus rapide à la surface. L’inverse est vrai pour une conversion P en S, qui elle arrivera après l’onde transmise.

La mise en évidence de ces « conversions » a permis d’identifier plusieurs discontinuités dans la croûte : une première, observée à environ 10 kilomètres de profondeur, marque la séparation entre une structure très altérée qui résulte d’une très ancienne circulation de fluide, et une croûte peu altérée. Une seconde discontinuité vers 20 kilomètres puis une troisième moins marquée, vers 35 kilomètres, indiquent la stratification de la croûte sous le sismomètre InSight. La croûte martienne sous InSight fait donc entre 20 et 35 kilomètres d’épaisseur.

Comprendre la structure et les propriétés du « manteau martien »

Dans le manteau, nous avons analysé les différences de temps de parcours entre les ondes générées directement par le séisme (de types P et S) et celles générées lors de la réflexion de ces ondes directes sur la surface (une seule réflexion donne les ondes « PP » et « SS » tandis que deux réflexions génèrent les ondes dites « PPP » et « SSS »). Ces différences permettent avec une seule station de déterminer la structure du manteau supérieur, et notamment la variation des vitesses sismiques avec la profondeur.

Vue d’artiste des principales ondes sismiques P et S et des ondes transmises, réfléchies et converties. IPGP/David Ducros/Philippe Lognonné, Fourni par l’auteur

Or, ces variations de vitesse sont liées à la température, à la pression et à la minéralogie du manteau. En croisant ces informations avec les contraintes minéralogiques liées à nos observations des météorites martiennes basaltiques, dont le réservoir pourrait être le manteau superficiel, il est possible de relier directement les vitesses sismiques mesurées à la température du manteau.


À lire aussi : Écouter battre le cœur de Mars pour comprendre sa formation et sa structure


Les résultats suggèrent alors que la température du manteau de Mars croit linéairement avec la profondeur jusqu’à atteindre un peu plus de 1500 °Celsius entre 500 et 600 kilomètres de profondeur. Cette croissance de la température caractérise un manteau où la chaleur interne se diffuse sans qu’une lente convection de ce dernier puisse mieux équilibrer ces différences de température. Sur Terre, cette zone où il n’y a pas de convection appelée « lithosphère thermique » varie entre 10 et 100 kilomètres d’épaisseur.

Où est le noyau de la planète rouge ?

Pour trouver le noyau, nous avons déterminé la profondeur de la base du manteau grâce aux ondes S réfléchies par sa surface. Malgré les faibles amplitudes des signaux associés à ces ondes réfléchies (appelées « ScS »), un excès d’énergie est observé pour les modèles de noyaux avec un rayon entre 1790 kilomètres et 1870 kilomètres, ce qui nous donne une fourchette de taille pour le noyau martien.

Une telle taille impliquerait la présence d’éléments chimiques légers dans le noyau externe liquide. Ce type de taille exclue l’existence à la base du manteau d’une couche de « bridgmanite », ce silicate de fer et de magnésium de structure pérovskite qui constitue l’essentiel du manteau terrestre entre 660 et 2700 kilomètres de profondeur. Si elle avait existé sur Mars, une telle couche aurait « boosté » la convection et donc le volcanisme, en particulier pendant les 500 premiers millions d’années.

Le temps passe-t-il pour l’intelligence artificielle ?

27 mardi Juil 2021

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

  1. Nazim FatèsChargé de recherches, Inria
Inria
CC BY NDNous croyons à la libre circulation de l’information

Les systèmes d’intelligence artificielle sont des systèmes informatiques qui sont le plus souvent dotés de la possibilité d’évoluer, de s’adapter et de s’automodifier. Leurs concepteurs cherchent à les rendre aussi autonomes que possible et ils en viennent souvent à se demander dans quelle mesure de tels systèmes pourraient acquérir la notion du temps.

Le problème central est celui de l’interprétation des données que l’on fournit à une machine pour qu’elle apprenne : les données de l’expérience ont besoin du temps pour être interprétées et, réciproquement, le temps a besoin de l’expérience pour prendre sa consistance et permettre l’interprétation des données. Il y a donc une intrication. On peut bien sûr apprendre à une machine toute sorte de choses, comme distinguer des tumeurs bénignes de tumeurs malignes sur des photos médicales, mais comment un robot pourrait-il se construire une notion de « temps », avec toute la richesse que ce mot représente ? Par exemple, dans le contexte d’une interaction avec des êtres humains, comment faire en sorte qu’un robot sache de lui-même s’il n’est pas trop rapide ou trop lent ? Comment parviendrait-il à se rendre compte que quelque chose a brusquement changé dans le comportement de son interlocuteur ?

Le temps des robots est le temps des microprocesseurs

À ce jour, l’ensemble des systèmes informatiques fonctionne sur les bases algorithmiques posées par Alan Turing en 1936. Alan Turing partit de l’hypothèse que toute méthode systématique de résolution d’un problème, c’est-à-dire tout algorithme, peut être traduite dans un langage qui s’adresse à une machine élémentaire réalisant des opérations de lecture-écriture sur un ruban infini.

Les systèmes informatiques dont nous disposons n’opèrent pas exactement sur ce type de machine, mais on admet généralement un principe d’équivalence : tout ce qui peut être réalisé par une machine donnée peut également être réalisé par cette machine de Turing, dite « universelle ».

Un chip de microprocesseur. Laura Ockel/Unsplash, CC BY

Ce point est particulièrement important pour comprendre les évolutions temporelles des systèmes d’intelligence artificielle. En effet, ceux-ci utilisent des calculs « parallèles » : au lieu de faire une opération après l’autre, ces systèmes peuvent, comme dans un cerveau, faire interagir des milliers de composants simultanément. On parle souvent à propos de telles architectures de « connexionnisme » : il ne s’agit pas seulement comme dans le cas du parallélisme classique de faire interagir plusieurs systèmes en même temps, mais de parvenir à coordonner une myriade d’unités de calcul, et ce sans unité centrale.

Dans ce contexte, le principe d’équivalence énoncé par Turing tient encore : une architecture en réseau peut accélérer les calculs, mais ne peut jamais permettre de faire ce qui est hors de portée pour une machine séquentielle. En ce qui concerne le temps d’exécution des algorithmes, cela signifie que si j’ai une machine avec des millions de neurones formels qui changent d’état en parallèle, j’aurais probablement la possibilité d’effectuer des algorithmes de manière plus rapide, mais le temps intrinsèque de la machine sera toujours donné par le temps des horloges des microprocesseurs qui cadencent cette machine. Il existe plusieurs dispositifs de calcul non classiques, tels que les ordinateurs quantiques ou les puces dites neuromorphiques : certes, leur programmation oblige à penser de façon différente et sont la source de nombreuses promesses pour repousser les frontières du calcul, cependant ils n’échappent nullement au principe d’équivalence de Turing et aux limites que cette équivalence impose.

Un système d’intelligence artificielle reste donc conditionné dans son rapport au temps par sa structure algorithmique discrète, laquelle décrit l’évolution des systèmes pas à pas. Le temps informatique est donc toujours mesuré comme un nombre d’étapes, que celles-ci soient parallèles ou séquentielles.

Quelles sont les conséquences de telles limitations ?

Il y a une inhomogénéité fondamentale entre le temps des êtres humains et celui des machines. Il faut garder à l’esprit que n’importe quel ordinateur, téléphone, ou même n’importe quelle puce qui se trouve dans une machine à laver effectue des milliards d’opérations par seconde. En d’autres termes, l’échelle avec laquelle les cadences des microprocesseurs sont mesurées est le gigahertz. Si l’on pouvait se placer du point de vue des robots, nous verrions les êtres humains comme des lourdauds qui pensent et se meuvent à une vitesse phénoménalement lente. On peut faire une analogie avec la manière dont les plantes évoluent pour nous. Les robots seraient donc amenés à se brider considérablement pour « s’abaisser » à notre rythme !

D’ailleurs, ces problèmes ont été perçus dès le début de la réflexion sur la question de l’intelligence artificielle. Alan Turing, par exemple, dans son article de 1950, demande à ce que la machine qui remplace un être humain jouant au jeu de l’imitation marque un temps d’arrêt artificiel avant de donner le résultat d’une multiplication, sans quoi elle serait immédiatement démasquée. De tels délais sont aujourd’hui utilisés pour rendre les conversations des « assistants vocaux » plus naturels.

La science-fiction a aussi souvent exploité le filon de l’incommensurabilité du temps humain et du temps des machines. Par exemple, dans le film Her de Spike Jonze (2013), le protagoniste est séduit par son système d’exploitation et finit par tomber amoureux d’« elle ». Néanmoins, au plus fort de leur liaison (platonique), elle lui avoue que, pendant la durée de leur conversation intime, elle a pu lire plusieurs milliers de livres et converser avec plusieurs centaines d’autres personnes.

Le roman d’Antoine Bello Ada met en scène une créature virtuelle chargée d’écrire des romans à l’eau de rose et un inspecteur qui cherche à la retrouver après qu’elle s’échappe de l’atelier de ses créateurs. Ada sait jouer avec les sentiments de l’inspecteur et elle a la fâcheuse tendance à effectuer des recherches sur des éléments de sa vie en même temps qu’ils discutent. Quant à sa collègue, Jessica, celle-ci est programmée pour écrire des biographies personnalisées avec la faculté de traiter des dizaines de milliers de clients en parallèle… L’imaginaire de l’intelligence artificielle nous rappelle que les créatures artificielles manquent cruellement d’un ici et d’un maintenant pour pouvoir être considérées pleinement comme autre chose que des objets.

L’horloge atomique d’Hewlett-Packard, qui définissait le temps sur le fuseau horaire japonais. halfrain/Flickr, CC BY-NC

Les chercheurs qui essaient de donner aux machines la possibilité d’interpréter le langage humain font aussi face à des défis colossaux. Saisir la temporalité reste ce qu’il y a de plus difficile. Une simple phrase comme « Maintenant, ça suffit ! », qu’un enfant comprend immédiatement, reste une énigme pour des systèmes informatiques, car que signifie ce « maintenant » ? Certainement pas la même chose que dans « Maintenant, il est temps de passer à table ». Chacun comprend que seule une expérience de la vie permet de saisir les nuances de la langue et que tout ne se ramène pas à des « faits » que l’on peut encoder dans des systèmes informatiques. En particulier, notre propre perception du temps qui passe s’inscrit dans une rythmicité journalière, qui s’inscrit dans une rythmicité plus longue (le mois, l’année, etc.), qui elle-même s’inscrit dans le chemin d’une vie, chemin qui prend son sens dans son inscription dans une histoire plus longue, voire dans un rapport à un temps non mesurable comme le montrent les mythes de toutes les civilisations.

Le véritable danger de l’intelligence artificielle, en voulant sans cesse tout accélérer, ne serait-il pas d’occulter cette dimension fondamentale de l’être humain à savoir, non pas seulement que les choses prennent du temps, mais aussi que la maturation de toute bonne chose demande un temps incompressible ? Les blés ont besoin de temps pour mûrir et le pain a besoin d’un temps pour cuire. Si un jour les robots comprennent cela, on pourra dire qu’ils seront devenus alors véritablement… « humains ».

Les records de chaleur signifient qu’il faut changer le discours sur l’urgence climatique

26 lundi Juil 2021

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

  1. Kamyar RazaviPhD candidate in the School of Communication, Simon Fraser University

Déclaration d’intérêts

En plus d’être un candidat au doctorat à SFU, Kamyar Razavi est également producteur de nouvelles nationales pour Global News.

Partenaires

Simon Fraser University
CC BY NDNous croyons à la libre circulation de l’information

Nouvelle normalité. Record battu. Sans précédent.

Ces derniers jours, alors que l’Ouest canadien et les États-Unis cuisaient sous une canicule sous le signe des changements climatiques, les superlatifs se multipliaient pour décrire un phénomène inouï : dans la communauté britanno-colombienne de Lytton, le thermomètre a atteint un niveau ahurissant de 49,5 °C, le 29 juin, battant tous les records de chaleur trois jours de suite.

On peut comprendre que pareil chiffre effraie ou choque. Mais quelqu’un pouvait-il réellement s’en étonner ? Non. Depuis plus de 40 ans, les scientifiques nous préviennent : les changements climatiques entraîneront des canicules de plus en plus longues et intenses. Parler de « normales » et de « nouveaux records » n’a plus beaucoup de sens.

Mais si l’on veut faire face à la crise climatique, il ne sert à rien d’appuyer sur l’idée que l’humanité « aurait dû savoir », « aurait dû agir plus tôt » ou que nous devrions « avoir honte de notre inaction ». Au strict plan de la communication, ça ne marche pas.

Parlons climat

Quelle serait la meilleure approche pour communiquer sur le changement climatique ?

D’abord, en parler davantage. Le réchauffement planétaire est la plus grande urgence à laquelle la planète ait jamais été confrontée, mais on ne le saurait pas à en juger par le contenu des médias.

En 2020, les reportages sur le changement climatique ne représentaient que 0,4 % des informations diffusées à la télé et à la radio américaines. Soit presque moitié moins qu’en 2019 à 0,7 %. En 2021, même au milieu d’une canicule sans précédent frappant tout l’axe des Rocheuses de la Californie au Yukon, on y faisait rarement référence.

Un « modèle du déficit » en déficit

Ironiquement, le plus grand angle mort tient à la manière dont on informe le public.

L’approche conventionnelle repose le « modèle du déficit d’information ». Selon ce principe, le public agira sur le changement climatique si on leur donne des faits.

Cette approche fondée sur l’information façonne toute la communication, aussi bien les campagnes de lutte contre l’alcool au volant que les changements climatiques.

Sauf que le lien entre ce que les gens savent et leurs actions n’est pas toujours linéaires. Fournir davantage de faits à une personne politiquement motivée au climatoscepticisme n’aura aucun effet.

L’information, quoique cruciale, ne suffit pas devant un sujet difficile à appréhender. Pour un individu pris isolément, le problème du changement climatique peut paraître immense, effrayant et insoluble. Si l’on veut que l’individu s’engage et, par extension, induise une action politique, la crise climatique doit prendre une dimension personnelle, immédiate, compréhensible et résoluble.

Estimation du pourcentage d’adultes qui pensent que la Terre se réchauffe. Le programme de communication sur le changement climatique de Yale n’est pas responsable des analyses ou des interprétations des données présentées ici._. Cartes des opinions climatiques canadiennes 2018, YPCCC

Les diagrammes, les graphiques et même les photos d’ours polaires n’y changeront rien. Au Canada, 83 % de la population convient que la Terre se réchauffe. Mais 47 % pensent que cela ne leur causera aucun préjudice personnel.

Pour toucher les gens, il faut alimenter la conversation avec des histoires de personnes qui s’attaquent au problème et, ce faisant, améliorent leur qualité de vie là où ils vivent. Ces exemples transforment une matière jugée abstraite et effrayante en un sujet tangible et quotidien – et « réglable ».

Ça ne sert à rien de parler un climatosceptique en ressassant les mêmes données et les mêmes faits qu’on expose depuis des années, affirme la climatologue Katharine Hayhoe.

Des solutions qui comptent

Les spécialistes de la communication environnementale soulignent depuis longtemps que l’un des principaux obstacles à la mobilisation est une communication trop orientée sur la peur.

Le défi consiste plutôt à associer l’alarmisme et la capacité d’agir. La combinaison de la peur et de l’aptitude à agir induit ce qu’on appelle la « maîtrise du danger », c’est-à-dire des actions visant à atténuer le danger. C’est l’inverse de la « maîtrise de la crainte », qui tend plutôt au déni et à l’inaction.

Avec la Covid-19, la communication était fortement centrée sur l’aptitude de chacun à influer le cours des choses : lavage des mains, distanciation physique, masque. Dans le cas du changement climatique, les informations sur l’aptitude individuelle sont beaucoup moins évidentes.

On affirme souvent que les grands émetteurs, notamment les producteurs de combustibles fossiles, sont les premiers responsables et qu’il leur incombe de réparer les dégâts. D’après le quotidien The Guardian, seulement 100 entreprises seraient responsables de 71 % des émissions.

Oui, il est clair que le monde doit cesser de brûler des combustibles fossiles – pétrole, gaz et charbon. Mais pour y parvenir, les individus peuvent aussi afficher des exemples de comportement pro-environnemental.

Trois hommes font un égoportrait pendant une randonnée
On peut afficher des photos de comportements favorables à l’environnement, susceptibles d’inspirer ceux qui vous suivent. Shutterstock

Il peut s’agir d’un geste aussi simple que de publier sur les médias sociaux des photos de campagnes de nettoyage communautaires, de randonnée ou de messages sur l’utilisation des transports en commun, par exemple. Cette forme de communication – en contrepied d’un mode de vie à forte intensité de carbone – normalise l’urgence et l’importance de protéger la Terre, mais aussi la capacité individuelle d’agir.

Certains des communicateurs les plus efficaces sont les météorologues de la télévision, qui ont un auditoire fidèle. La plupart abordent la question en relation avec le vécu de leur public.

Il faut le voir pour le croire

La communication sur les risques s’appuie souvent sur une injonction morale – « faites ceci ou cela, sinon… »

Par exemple, dans un parc, une affiche intime de ne pas nourrir les canards parce que la nourriture humaine est mauvaise pour eux. Et les visiteurs continuent de nourrir les canards.

Or, une bonne communication devrait plutôt s’appuyer sur des normes sociales dites « tacites », qui invitent à se conformer au bon comportement d’autrui qui leur est bénéfique.

Au Royaume-Uni, en 2015, une campagne invitait les gens à « ramener leurs déchets à la maison, d’autres le font ». Avec un tel message, une personne sera moins susceptible de jeter ses détritus que si les panneaux indiquent « Garder votre parc propre. Ne jetez pas vos déchets. »

L’un des moyens les plus efficaces de communiquer l’urgence climatique consiste simplement l’histoire de personnes et de communautés agissantes.

On en trouve un excellent exemple dans la série « En avant, les Premières Nations », du webzine Canada’s National Observer. Ses reportages expliquent comment les communautés ouvrent la voie vers un avenir fondé sur les énergies renouvelables.

Certains grands médias d’information, comme Global News, où je travaille, y consacrent plus de temps et repensent leur couverture climatique. Récemment, un grand reportage rapportait la transition énergétique profonde en cours en Alberta.

des panneaux solaires sur une ferme
Certains médias consacrent plus de temps aux reportages sur des solutions climatiques, comme la transition vers les énergies renouvelables. Shutterstock

Ces reportages sur des transformations en cours envoient le message que l’action pour atténuer la crise climatique est possible, normale, valorisante et souhaitable. Ces exemples concrets, qui montrent la voie, dynamisent et mobilisent ceux qui sont prêts à l’action.

Ils déplacent aussi la conversation, qui vise habituellement les sceptiques et les négationnistes, vers des valeurs et des habitudes favorables chez les gens de plus en plus sensibilisés et inquiets devant l’urgence climatique.

Au lieu d’alimenter le récit de la peur, les histoires de solutions climatiques renforcent le sentiment du public quant à sa capacité d’agir. Elles l’y éveillent en se fondant sur le principe de toute bonne communication : joindre les gens là où ils en sont à travers une histoire mobilisatrice.

C’est le principe de narration 101 pour rallier le public au lieu de le repousser comme le font encore trop de comptes-rendus sur le climat.

Pourquoi les athlètes françaises remportent-elles moins de médailles que les hommes ?

25 dimanche Juil 2021

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

  1. Hélène JoncherayChercheuse en sociologie du sport de haute performance (INSEP), Université de Paris
  2. Christine Hanonréférente scientifique fédération française athlétisme, Institut national du sport de l’expertise et de la performance (INSEP)
  3. Sylvaine DeryckeMaîtresse de conférences en sociologie et anthropologie du sport, Université de Bretagne occidentale
Université de Paris

Université de Paris apporte un financement en tant que membre adhérent de The Conversation FR.

Voir les partenaires de The Conversation France

CC BY NDNous croyons à la libre circulation de l’information
Reproduisez nos articles gratuitement, sur papier ou en ligne, en utilisant notre licence Creative Commons.

Republier cet article

Les JO de Tokyo, dont l’ouverture est imminente, vont accueillir presque 49 % d’athlètes femmes, toutes nationalités confondues, un record. Et la parité devrait être tout à fait atteinte aux prochains jeux, en 2024, à Paris. Enfin, la parité… dans la participation. Celle relative aux performances est encore largement hors de portée, du moins en France. Ainsi, tous sports confondus et proportionnellement au nombre de sélections, les Françaises ont remporté 1,7 fois moins de médailles que les Français sur les trois dernières éditions des Jeux olympiques d’été (Pékin 2008, Londres 2012 et Rio 2016).

Or la France est la seule nation parmi les neuf meilleures – Chine, États-Unis, Grande-Bretagne, Russie, Allemagne, Corée, Italie, Australie – à présenter une telle sous-représentation de médaillées. Le constat est particulièrement évident en athlétisme : sur ces mêmes trois événements, les hommes ont remporté cinq fois plus de médailles que les femmes !

Différence de médailles entre les hommes et les femmes : un score négatif indique moins de médailles pour les femmes. Fourni par l’auteur

Ces chiffres sont issus de recherches menées par des sociologues, dans le cadre d’un partenariat avec l’Insep (Institut national du sport, de l’expertise et de la performance) et sous l’égide de la Fédération française d’athlétisme. La FFA avait en effet identifié cette différence de résultats entre ses sportifs et ses sportives et avait donc un double objectif : d’une part, vérifier que ce constat de terrain était bien statistiquement établi. Et d’autre part, si tel était le cas, comprendre quels éléments pouvaient expliquer cette différence.

Une enquête de haut niveau

Comme le révèlent les chiffres cités précédemment, les conclusions de l’analyse statistique sont sans appel. La première partie du contrat étant honorée, restait à savoir d’où venaient ces différences de performances. Pour répondre à cette question, ce ne sont pas les spécificités entre les hommes et les femmes qui ont été étudiées, mais plutôt les paramètres qui permettent de performer et, parmi eux, ceux contribuant au décalage dans les performances des sportifs et des sportives.

Différence de médailles entre les hommes et les femmes en athlétisme. Fourni par l’auteur

Trente athlètes français de haut niveau (15 hommes et 15 femmes) et 22 acteurs gravitant autour d’eux (entraîneurs, cadres fédéraux, acteurs du secteur privé…) ont été interviewés. Cet échantillon est assez exceptionnel puisque les meilleurs athlètes français (ceux qui ont rapporté le plus de médailles aux Jeux olympiques, Championnats du monde et Championnats d’Europe) y sont représentés, ainsi qu’un large panel d’acteurs qui coconstruisent avec eux l’athlétisme en France. Il en est ressorti plusieurs observations majeures dont trois particulièrement importantes.

Premier défi : capitaliser sur la performance

D’abord, rappelons qu’en athlétisme, il est difficile pour un athlète, quel que soit son genre, de transformer les performances sportives en performances économiques. Remporter une médaille ne suffit en effet pas à assurer la pérennité d’une carrière.

Stabiliser ses revenus demande des compétences sur la gestion du statut d’entrepreneur libéral, ce qui manque parfois dans l’apprentissage du métier de sportif de haut niveau. Ainsi, sur les 30 athlètes interrogés, 16 seulement bénéficient d’une stabilité économique dans le temps, leur permettant de se consacrer pleinement à leur carrière avec sérénité. Parmi eux, cinq hommes sont de multiples médaillés et/ou suffisamment médiatisés pour bénéficier de sponsors assurant des revenus stables. 11 autres (sept femmes et quatre hommes) cumulent des aides fédérales à des partenariats privés, et s’appuient également si nécessaire sur les revenus de leur conjoint. Les 14 athlètes restants sont quant à eux dans une situation plus précaire.

Or l’enquête révèle que lorsqu’il s’agit de capitaliser sur ses performances, la question du physique est beaucoup plus importante chez les femmes que chez les hommes. Cela peut poser problème, surtout lorsque les sportives ne correspondent pas aux standards de beauté normatifs. Il y a ainsi un paradoxe entre l’exigence de la performance, qui impose aux femmes d’accepter des transformations corporelles ou des changements de « féminité », et l’obtention de contrats de partenaires privés, qui dépend fortement de l’image de « féminité traditionnelle ».

Deuxième défi : gérer son image en ligne

Cette difficulté peut se cumuler avec une deuxième observation majeure : gérer son image sur les réseaux sociaux n’est pas chose aisée. Sportifs et sportives ne sont pas toujours préparés à cette activité, pourtant devenue presque incontournable. D’autant que le montant des contrats avec les partenaires privés peut dépendre en partie du nombre de « followers » de l’athlète.

Hommes comme femmes manquent de compétences et de formation dans ce domaine, mais en plus, les secondes ont tendance à être surexposées sur les réseaux sociaux. Ce qui peut être à double tranchant. Pour celles qui ne correspondent pas aux standards de la « féminité traditionnelle », cette nouvelle médiatisation peut devenir une source de pression supplémentaire. En revanche, pour les sportives qui savent construire leur image et adapter leur communication aux attentes de la société, les réseaux sociaux peuvent être une opportunité pour capter certains contrats financiers, par exemple, dans le domaine du bien-être, de la santé, du fitness, etc. En résumé ? Si globalement ce « marché athlétique » n’est pas à l’avantage des femmes, il ne faut cependant pas nier la capacité « d’empowerment » de certaines d’entre elles lorsqu’elles en ont l’opportunité.

Troisième défi : la parentalité

Enfin, l’étude fait émerger un troisième constat majeur : le rapport des sportifs et des sportives à la parentalité est différent. Parmi les 30 sportifs interrogés, six sont pères et cinq sont mères. Les pères font tous partie des meilleurs athlètes et quatre d’entre eux estiment que la paternité n’est pas incompatible avec le sport de haut niveau, voire, au contraire, peut représenter une force supplémentaire. Elle est aussi, parfois, source de pression, puisque ces sportifs apportent la majeure partie des revenus de leur foyer, alors que la grande majorité des mères s’appuie sur les revenus de leur conjoint ou de parents. Pour les deux meilleures athlètes parmi les mères, la maternité est aussi envisagée positivement, à condition d’être programmée et qu’elles aient l’assurance d’un soutien de la part de leurs partenaires privés.

En revanche pour sept sportives, dont deux mères, la maternité est incompatible avec la carrière sportive de haute performance et est ainsi envisagée en fin de carrière. L’étude démontre donc que des sportives sont prêtes à faire le deuil de la maternité au nom de la performance.

Or un tel sacrifice est-il indispensable ? Le handball féminin s’est doté d’une convention collective pour assurer le salaire des joueuses professionnelles pendant un an lors d’une grossesse. Et la Fédération internationale de football cherche à créer un congé maternité pour les footballeuses professionnelles. De son côté, d’après nos informations, la FFA compte s’appuyer sur cette enquête pour mettre en place plusieurs mesures visant également à faire évoluer les pratiques et les représentations des femmes dans le sport.

Et du côté des solutions ?

La première étape va consister à intégrer, dans l’ensemble des formations de la Fédération, des modules spécifiques reprenant les résultats de cette étude. L’objectif est de susciter des réflexions complémentaires chez les entraîneurs sur la façon de prendre en compte toutes les spécificités d’un individu, y compris son genre. Avec un équilibre à trouver : ne pas renforcer les stéréotypes, mais ne pas nier les spécificités. Un an de travail va ainsi être consacré à finaliser la transmission du rapport et à organiser les modules de formation.

Mais il ne s’agira pas de s’arrêter là. La FFA réfléchit aussi à déployer un système de mentorat pour permettre à des femmes leaders d’accompagner leurs consœurs sportives, ou encore à renforcer et systématiser des formations spécifiques aux réseaux sociaux pour les athlètes. Elle va également proposer des mesures incitatives pour encourager les femmes à passer des diplômes d’entraîneur, en particulier de haut niveau : en effet plus le niveau de certification monte, moins les femmes à s’y présenter sont nombreuses.

L’athlétisme, bien que sport mixte, reste encadré très principalement par des hommes, et il faudra là encore comprendre pourquoi. Cette recherche a ainsi fait émerger de nouvelles questions, dont il semble important de continuer à chercher les réponses. Avec l’objectif que l’équilibre ne se retrouve plus seulement dans la participation des sportifs et sportives français… mais aussi dans le nombre de médailles remportées.

Salvador : le pari à haut risque du président sur le bitcoin

24 samedi Juil 2021

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

  1. Jean-Michel ServetHonorary professor, Graduate Institute – Institut de hautes études internationales et du développement (IHEID)
Graduate Institute - Institut de hautes études internationales et du développement (IHEID)
CC BY NDNous croyons à la libre circulation de l’information

Le gouvernement de Nayib Bukele offre l’équivalent de 30 dollars en bitcoin à celles et ceux qui ouvrent un compte via le portefeuille électronique dédié Chivo. Marvin Recinos / AFP

Lors du Bitcoin 2021, principale conférence annuelle consacrée aux cryptoactifs réunie les 4 et 5 juin 2021 à Wynwood, un quartier branché de Miami, Nayib Bukele, président du Salvador depuis 2019, a créé la surprise en annonçant dans une vidéoconférence que son pays allait adopter le bitcoin comme monnaie légale. Une décision immédiatement actée par une loi approuvée le 9 juin par 64 parlementaires sur 82. Le 7 septembre, le Salvador sera ainsi le premier pays à s’engager dans cette voie.

Statista, CC BY

Cette annonce a effectivement de quoi surprendre. Tout d’abord, ce qui se passe au Salvador s’inscrit à rebours des décisions d’autres États, et non des moindres, qui non seulement limitent fortement mais interdisent même parfois l’usage du bitcoin en tant que moyen de paiement (comme la Bolivie, le Maroc, l’Algérie, l’Égypte, le Népal et le Bangladesh, l’Indonésie, la Turquie et le Vietnam) ou dans les transactions bancaires (comme la Chine, le Cambodge, le Canada, l’Équateur, le Nigeria, l’Arabie saoudite et la Jordanie).

Ensuite, bien souvent, les pays dont un pourcentage significatif de la population adopte le bitcoin comme moyen de paiement sont soumis à une forte inflation (tels le Liban, le Nigeria ou le Venezuela). Ce n’est en rien la situation du Salvador, où la hausse des prix, en rythme annuel, après avoir été négative au second semestre 2020, a été depuis cantonnée au-dessous de 3 %.

En outre, pour ce qui est de l’usage, on peut douter que le Salvador, où l’exclusion bancaire frappe 70 % des habitants et où plus de 30 % de la population vit sous le seuil de pauvreté, soit seul capable de créer les conditions techniques d’un usage généralisé du bitcoin et son acceptation sociale.

La population peu convaincue

Pour favoriser l’usage de la principale cryptomonnaie, le gouvernement a décidé que celui ou celle qui s’enregistrera sur l’app Chivo (un portefeuille électronique) permettant de payer en bitcoin et d’en recevoir, verra son compte crédité l’équivalent de 30 dollars… en bitcoin.

On peut remarquer que ceux et celles qui ouvriront ce compte pourront immédiatement demander sa conversion… en dollars. Peut-être doit-on douter de l’efficacité de la mesure en termes de changement des habitudes de paiement ; mais non de son coût pour les finances publiques… à moins que l’initiative doive être comprise comme une mesure de relance économique par la demande… une sorte de revenu universel via le bitcoin !

D’ailleurs, l’annonce du président n’a pas convaincu : selon la Chambre de Commerce du Salvador, 92 % de plus de 1 600 enquêtés ont déclaré leur hostilité à l’acceptation du bitcoin et 93,5 % ont déclaré qu’ils ne voulaient pas être payés en bitcoin, devise qui se distingue par sa forte volatilité.

Selon une étude menée par le Francisco Citizens Research Center (CEC) à l’Université de Gavidia, 53,5 % des Salvadoriens pensent en outre que les mesures visant à établir le bitcoin comme monnaie légale ne sont « pas du tout correctes » et pour 24 % elles sont juste « un peu correctes ».

Au Salvador, 30 % de la population vit sous le seuil de pauvreté. Marvin Recinos/AFP

Pourquoi le pays se lance-t-il dès lors dans l’inconnu en adoptant la cryptomonnaie comme devise officielle ? L’un des principaux arguments du gouvernement salvadorien est que la mesure vise à réduire le coût des transferts des migrants. En 2019, ils représentaient 20,9 % du PIB dans le principal pays du Sud en matière de transferts des migrants. Ces transferts bénéficient à un million de familles qui reçoivent en moyenne 195 dollars par mois.

Il y a 20 ans, le pays avait d’ailleurs abandonné sa monnaie nationale au profit du dollar américain (comme l’Équateur) en raison de l’importance des remesas, les fonds envoyés par les migrants salvadoriens installés principalement aux États-Unis (en particulier à Washington, Los Angeles, Houston et New York).

Or, ce coût pourrait au contraire doubler voire tripler par rapport aux méthodes traditionnelles d’envoi. Cela tient à ce que l’usage interne du dollar fait qu’à la commission d’envoi (en moyenne 2,85 %, soit la plus basse d’Amérique latine et des Caraïbes et l’une des plus basses au monde) ne s’ajoute aucune commission de change en monnaie nationale vu l’usage interne du dollar. Et la commission de change du dollar en bitcoin est à minima de 5 %.

L’ombre de la mara salvatrucha

Selon le gouvernement, l’adoption du bitcoin doit également doper l’économie du pays alors que les dépenses publiques pour l’éducation ont diminué de 4,6 % à 3,6 % du PIB depuis 2010… et que les dépenses pour la santé sont tombées de 8,24 % du PIB à 7,1 %.

Encore faut-il pour cela que les infrastructures soient à la hauteur des exigences technologiques pour le fonctionnement d’une cryptomonnaie. Seulement 45 % de la population salvadorienne a aujourd’hui accès à Internet et il n’existe dans tout le pays que deux bornes pour changer les bitcoins en dollars ou acquérir des bitcoins contre dollar.

Le bilan de l’utilisation du bitcoin comme moyen local de paiement dans la zone balnéaire d’El Zonte, en 2019, reste mitigé. Stanley Estrada/AFP

En 2019, El Zonte, une station balnéaire connue sous le nom de Bitcoin beach, avait adopté le bitcoin comme moyen local de paiement. Mais le succès n’a pas été à la hauteur des espérances des promoteurs, notamment en raison d’un accès à Internet très défectueux.

Le gouvernement a toutefois annoncé engager une dépense d’un million de dollars pour l’installation de 1 500 bornes afin de faire face à la demande de change en bitcoins. On peut donc considérer avant tout dans l’immédiat l’annonce de Nayib Bukele, 39 ans, comme un coup de pub pour apparaître branché. Mais il est aussi possible de le soupçonner, comme Washington, d’avoir scellé un pacte avec les gangs locaux.

Le 1er juillet, les États-Unis, qui accusent cinq proches de Nayib Bukele de corruption, ont ainsi mis en garde le pays contre les risques du bitcoin, s’appuyant notamment sur l’exemple de la cyberattaque et demande de rançon dont venait d’être victime la compagnie pétrolière Colonial Pipeline quelques semaines plus tôt.

Le Salvador présente en effet un taux de criminalité parmi les plus élevés au monde, hors conflits armés : 81,2 meurtres pour 100 000 habitants en 2016. Un sombre record, mais un chiffre en baisse continue depuis. Le président du Salvador est en effet soupçonné de négocier secrètement avec le principal gang, la mara salvatrucha, qui se livre localement au racket et au trafic de drogue tout en ayant de nombreuses ramifications internationales, pour faire baisser le nombre d’homicides.

Le président Nayib Bukele est soupçonné de négocier secrètement avec le puissant gang de la mara salvatrucha. Marvin Recinos/AFP

C’est ce qui expliquerait l’appui politique dont le président a pu bénéficier lors des dernières élections législatives de février 2021 et sa large popularité actuelle dans le pays.

Début juillet, Alicia Bárcena, secrétaire exécutive de la CEPALC, la Commission régionale des Nations unies pour l’Amérique latine et les Caraïbes, a mis en garde le gouvernement du Salvador contre les risques macroéconomiques, financiers et juridiques, mais aussi de blanchiment d’argent que pouvait constituer l’adoption du bitcoin comme monnaie légale. La commission régionale de l’ONU a en particulier souligné qu’aucune analyse technique n’avait été réalisée pour évaluer l’impact de cette adoption du bitcoin.

Quant à la Banque mondiale, elle a refusé d’apporter l’aide demandée par le pays afin de mettre en place la généralisation de son usage. En réponse à la dénonciation du caractère énergivore du bitcoin, le président a annoncé l’utilisation d’électricité « propre » pour miner le bitcoin dans le pays grâce à la géothermie des volcans. Le pays pourra en effet sans doute rapidement bénéficier du bannissement du bitcoin de Chine, pays qui réalisait jusqu’à ce printemps 65 % du minage de la cryptomonnaie.

Climat : pourquoi agir sur les gaz à effet de serre de courte durée peut faire la différence

23 vendredi Juil 2021

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

Climat : pourquoi agir sur les gaz à effet de serre de courte durée peut faire la différence

  1. Katsumasa TanakaSenior researcher, Université Paris-Saclay
  2. Johannes MorfeldtPostdoctoral Researcher, Chalmers University of Technology
  3. Olivier BoucherDirecteur de recherche au CNRS, Sorbonne Université

Katsumasa Tanaka is a senior researcher at the Laboratory of Climate Sciences (LSCE), Gif-sur-Yvette, and the National Institute for Environmental Studies (NIES), Tsukuba, Japan. This work was supported by a government grant managed by the Agence Nationale de la Recherche under the Investissements d’Avenir program with the reference ANR-19-MPGA-0008 and by the Environmental Restoration and Conservation Agency (Japan) under the Environmental Research and Technology Development Fund program (JPMEERF202002).

Johannes Morfeldt is a researcher in the Physical Resource Theory section at Chalmers University of Technology, Gothenburg, Sweden, and has previously worked for the Swedish government. The views expressed in this article are those of the authors and do not reflect the official position of the Swedish government.

Olivier Boucher is deputy director of the Institut Pierre-Simon Laplace (IPSL) and head of its Climate Modelling Centre. He has received funding from the French Ministry of Ecological Transition, the French Ministry of Research and the French National Research Agency. He is occasionally a consultant for public organizations and private companies.

Université Paris-Saclay
Sorbonne Université
CC BY NDNous croyons à la libre circulation de l’information
Le dioxyde de carbone, émis notamment par la combustion des énergies fossiles, a une longue durée de vie dans l’atmosphère. Effective stock photos/Shutterstock

Pour contenir les effets délétères du dérèglement climatique, l’Accord de Paris signé en 2015 stipule que nous devons globalement limiter le réchauffement bien en dessous des 2 °C ; et nous efforcer d’atteindre, au maximum, une augmentation de 1,5 °C par rapport aux niveaux préindustriels (première moitié du XIXe siècle).

Cela nécessite de réduire les émissions de dioxyde de carbone, actuellement de l’ordre de 40 000 millions de tonnes par an jusqu’à atteindre la neutralité carbone (ou autrement dit des « émissions net zéro ») ; mais aussi de réduire autant que possible les émissions des autres gaz à effet de serre dont le méthane.

Cette transition nécessite des investissements colossaux. Le GIEC estime que les investissements supplémentaires dans le secteur de l’énergie se montent en moyenne à environ 800 milliards dollars par an jusqu’en 2050 si on veut limiter le réchauffement à 1,5 °C.

Cependant la fourchette est large, entre 150 et 1700 milliards de dollars selon les modèles. La question se pose donc de comment atteindre cet objectif au meilleur coût ?

Nous avons tenté de répondre à cette question dans une étude parue en mai 2021 dans la revue Science Advances.

Nos travaux ont montré que nous pouvons limiter un peu ce coût si nous changeons la façon dont nous évaluons les différents gaz à effet de serre qui s’accumulent dans l’atmosphère et contribuent au réchauffement.

Des gaz de plus ou moins longue durée

Tous les gaz à effet de serre (GES) n’affectent en effet pas la température globale de la même manière.

Les gaz dits de longue durée s’accumulent dans l’atmosphère sur une période étendue ; ceux de courte durée disparaissent relativement vite de l’atmosphère après leur émission.

Le dioxyde de carbone, qui est émis principalement par la combustion des énergies fossiles dans les secteurs de l’énergie et du transport, est de longue durée de vie. Le méthane, qui est émis par l’agriculture mais aussi par le secteur de l’énergie, est de courte durée de vie.

Autrement dit, les émissions de dioxyde de carbone provoquent une augmentation de la température pendant des siècles ; celles du méthane affectent la température pour quelques dizaines d’années seulement. Nous devons donc évaluer les GES sur des échelles de temps différentes.

Un impact sur les coûts de réduction

Le coût financier des actions climatiques – que l’on mesure en tonnes de réduction d’émissions – dépend du type d’action mis en œuvre et de la date d’entrée en vigueur.

Prenons l’image suivante : pour limiter son empreinte environnementale, un citoyen peut être incité à isoler sa maison – grâce à un ensemble de technologies ayant fait leurs preuves – ou à acquérir une voiture électrique – une solution moins mature et encore relativement coûteuse. Il sera logiquement moins coûteux de choisir la première option et de remettre la seconde à plus tard. Les nouvelles technologies deviennent en effet de moins en moins chères et de plus en plus efficaces à mesure qu’elles évoluent dans le temps.

Il nous faut ainsi identifier ce qu’il faut faire et quand il est pertinent de le faire pour agir efficacement.

Cette démarche s’applique aux gaz à effet de serre : les valeurs respectives du dioxyde de carbone et du méthane devraient être modulées en fonction de l’échelle de temps et des différents scénarios de réchauffement climatique auxquels nous sommes confrontés.

Si les émissions de dioxyde de carbone doivent sans conteste être drastiquement réduites, notre étude montre que, à un moment donné, il peut être utile de se concentrer plus ou moins sur la réduction des gaz à effet de serre de plus courte durée de vie.

Les potentiels de réchauffement

La métrique utilisée aujourd’hui pour comparer les effets des différents gaz à effet de serre s’appelle le « potentiel de réchauffement planétaire ».

Ce potentiel aide à mesurer la façon dont l’équilibre énergétique de la Terre se trouve modifié par les émissions de chaque gaz à effet de serre et cela sur une échelle de temps donnée.

En fonction de l’horizon temporel choisi, les gaz à effet de serre de courte ou longue durée de vie seront plus ou moins déterminants.

Depuis l’adoption du règlement de Paris en 2018 à la COP24 de Katowice (Pologne), cette métrique est devenue commune à tous les pays et s’applique sur un horizon de 100 ans, comme stipulé dans le cinquième rapport d’évaluation du GIEC.

Cette méthode est non seulement utilisée pour les statistiques d’émissions mais également dans l’élaboration des scénarios futurs, dans les plans nationaux de réduction des émissions et pour mettre en place des politiques climatiques, comme la Directive européenne sur les énergies renouvelables.

Le fait que cette méthode soit commune à tous les pays constitue un grand pas en avant pour faciliter les comparaisons des émissions et les actions.

François Hollande, Ban Ki-moon, Laurent Fabius, Segolene Royal and Harlem Desir waiting Heads of state during the arrival at the Paris COP21
Atteindre les objectifs de l’Accord de Paris pourrait être moins coûteux si nous abordions l’action dans le temps des gaz à effet de serre plus précisément. Frederic Legrand/Shutterstock

Adapter l’horizon temporel

On vient de le voir, l’horizon temporel du potentiel de réchauffement de la planète est de 100 ans ; ce choix de 100 ans a été critiqué car il ne permet pas de traduire sans équivoque les objectifs de l’Accord de Paris en politiques climatiques.

Dans notre étude, nous avons toutefois constaté qu’il n’était pas nécessaire de modifier fondamentalement ce concept de quantification des gaz à effet de serre : il suffit juste d’adapter l’horizon temporel utilisé pour calculer ce potentiel, sans chercher à le maintenir à 100 ans.

Les scénarios de dépassement

Nos conclusions sont particulièrement pertinentes pour un « scénario de dépassement ». Dans un tel scénario, nous nous plaçons dans l’hypothèse où ne parviendrions pas à maintenir l’augmentation de la température mondiale en dessous de 1,5 °C (ou 2 °C) ; nous dépasserions l’objectif pendant une certaine période avant de ramener l’augmentation à un niveau inférieur.

Or, dans ce scénario, les réductions des émissions de méthane pourraient jouer un rôle important, et cela tout particulièrement au moment où il faudra réduire les températures. Rappelons en effet qu’une molécule de méthane a un effet « réchauffant » beaucoup plus intense qu’une molécule de dioxyde de carbone.

Notre graphique ci-dessous montre cinq trajectoires pour la température moyenne mondiale (voir le premier panneau). Le dépassement moyen de 1,5 °C et la stabilisation à 2 °C peuvent être considérés comme conformes aux objectifs de l’Accord de Paris ; les autres scénarios de dépassement montrent les cas où ces objectifs ne sont pas atteints.

Nous avons couvert un large éventail de scénarios futurs, y compris un scénario avec un pic de réchauffement jusqu’à environ 3 °C, correspondant aux conséquences des politiques climatiques actuelles.

La figure montre quel calendrier d’action permettrait de suivre chaque scénario au coût le plus bas (voir le second panneau).

A graph showing strategies for global warming potential in various overshoot scenarios
Tanaka Katsumasa, CC BY-NC-ND

Adapter la valeur de réchauffement

Nous constatons ici un passage progressif d’un horizon de 100 ans à un horizon de 20 ans, à mesure que nous approchons de l’année du dépassement.

Dans un tel scénario, nous pourrions agir spécifiquement sur le méthane pour faire redescendre le niveau de température une fois l’objectif dépassé. Pour cela, il faut attribuer à ce GES une valeur de réchauffement plus élevée pendant cette période : une tonne de méthane vaut 28 tonnes de dioxyde de carbone pour une période de 100 ans, mais 84 tonnes pour une période de 20 ans.

En attribuant au méthane une valeur plus élevée de réchauffement pendant un temps déterminé, nous pourrions émettre moins pendant la période de dépassement et faire baisser plus rapidement les températures. Cela inciterait aussi à plus de réduction des émissions de dioxyde de carbone au début de la période.

Nos travaux montrent que l’horizon des 100 ans fonctionne assez bien dans tous les scénarios que nous avons analysés pour les prochaines décennies. Changer d’horizon temporel n’est donc pas une question urgente. Mais se laisser la possibilité de le faire est un garde-fou important pour nous permettre de revenir sur la bonne voie à un coût relativement faible si nous entrons dans un scénario de dépassement.

Une démarche évolutive

À la lumière de nos résultats, nous suggérons donc d’évaluer les coûts de l’utilisation de différents horizons temporels pour les potentiels de réchauffement planétaire, au fur et à mesure de l’évolution de notre trajectoire de température.

Si nous faisons ces ajustements temporels en temps voulu, nous économiserons sur les coûts et cela nous permettra une plus grande efficacité pour gérer les effets du changement climatique grâce aux indispensables mesures d’atténuation.

Derrière Pegasus ou le mode d’emploi d’un logiciel espion

22 jeudi Juil 2021

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

  1. Thierry BerthierMaitre de conférences en mathématiques, cybersécurité et cyberdéfense, chaire de cyberdéfense Saint-Cyr, Université de Limoges
Région Nouvelle-Aquitaine
CC BY NDNous croyons à la libre circulation de l’information

Un consortium de médias, dont Le Monde et la cellule investigation de Radio France, coordonné par l’organisation Forbidden Stories, a eu accès à plus de 50 000 numéros de téléphone potentiellement ciblés et espionnés par une dizaine d’états, via le logiciel israélien Pegasus.

L’affaire fait grand bruit car on y retrouve, pêle-mêle, des journalistes, des chefs d’entreprise, des opposants politiques et autres figures de la vie publique.

Retour sur la technique derrière ce logiciel. Quand est né Pegasus ? Comment l’utilise-t-on ? Pourquoi a-t-il pris une telle ampleur ?

Comment fonctionne Pegasus

Le logiciel Pegasus est développé par l’entreprise israélienne NSO Group. C’est un logiciel espion (spyware) visant les smartphones dont l’objectif est de siphonner l’ensemble de ses données : coordonnées GPS, contenus des messages, écoute des appels, bref tout ce qui passe par votre téléphone est vu, lu et entendu par le logiciel et transmis à son utilisateur (l’attaquant). Ce logiciel espion évolue depuis plusieurs années et s’adapte aux évolutions de niveaux de sécurité des téléphones.

Dans ses précédentes versions, l’attaquant envoyait un message contenant un lien, qui, lorsque l’utilisateur cliquait dessus, déclenchait l’installation de Pegasus. Cette technique, un peu grossière, peut fonctionner avec des personnes peu habituées ou non formées à la cybersécurité. Mais qui, avec des cibles de haut niveau (publiques ou privées) est beaucoup plus hasardeuse. Ainsi NSO a développé une nouvelle version qui est capable d’installer le « mouchard » sans clic, ce que l’on appelle une attaque « zero click ».

Comment installer un logiciel à l’insu du propriétaire du téléphone ? La méthode la plus efficace, version film d’espionnage, est tout simplement de se saisir du téléphone, lors d’un moment d’inattention et de l’intégrer dans la machine.

Il existe également une méthode plus subtile, et plus technologique : utiliser une faille de sécurité de l’appareil pour prendre le contrôle du téléphone pendant un court laps de temps pour y installer le spyware à distance.

L’exploitation des failles de sécurité

Pour prendre le contrôle d’un smartphone à distance, il est indispensable d’exploiter une faille de sécurité. Cette dernière peut provenir du matériel (hardware), par exemple une puce électronique, ou logiciel (software) en passant par les systèmes d’exploitation iOS ou Android. Les clients de NSO, en général des états, n’ont pas à chercher les failles eux-mêmes, ils n’ont besoin que du numéro de téléphone de la cible et Pegasus s’occupe du piratage et de l’exfiltration des données. Pour chaque cible visée, le client paye une licence à NSO de quelques dizaines de milliers d’euros.

On va généralement cibler des failles « zero day » (jour 0), on les appelle comme cela car elles n’ont jamais été publiées ni exploitées. La plupart des logiciels vendus dans le commerce peuvent avoir des failles. D’ailleurs, leurs éditeurs organisent régulièrement des concours ouverts aux hackers pour les débusquer. Si une personne découvre une faille, elle peut la vendre sur des « marchés zero day ». Cela ressemble à une bourse internationale dans laquelle les produits sont des failles. En général, elles sont achetées par les éditeurs eux-mêmes qui ont intérêt à les corriger le plus rapidement possible. Une faille sur un système d’exploitation iOS peut se négocier à plusieurs millions de dollars. Ces marchés sont légaux. Le but est d’éviter qu’un hacker, ayant trouvé une faille aille la vendre à un groupe cybercriminel.

Schéma de l’attaque du téléphone du journaliste Tamer Almisshal par Pegasus. Traduit du rapport « The Great iPwn », CC BY

Un exemple concret a été reporté par The Citizen Lab (le laboratoire d’Amnesty International et de l’université de Toronto qui a travaillé sur le récent scandale) fin 2020. Le journaliste d’investigation travaillant pour Al Jazeera, Tamer Almisshal suspectait que son téléphone ait été piraté. Pour le prouver, le laboratoire a enregistré toutes ses métadonnées pour suivre à quoi il se connectait. Ils ont en effet trouvé des connexions très suspectes : son téléphone a visité plusieurs fois un site connu comme étant un mode d’installation de Pegasus.

Cette visite aurait été provoquée par les pirates en exploitant une faille du système de messagerie de l’iPhone (faille depuis corrigée), le journaliste n’a cliqué sur aucun lien suspect, c’est une attaque « zero click ». Il a aussi été démontré que des données ont été exfiltrées. La société NSO a nié toute participation.

Un tunnel d’exfiltration de données

Une fois que Pegasus est installé, il doit renvoyer les données vers le commanditaire. Comment s’y prend-il ? il va créer un tunnel. Si le « pirate » est physiquement proche de sa cible, il lui est possible de récupérer les données via des techniques « radiofréquence ». Le téléphone va émettre des informations, par exemple via wifi qui seront captées à l’aide d’une antenne.

Les failles de sécurité touchant les cartes SIM peuvent être exploitées par un attaquant pour prendre le contrôle du téléphone ou pour installer un logiciel espion. Par exemple, la faille SIMjacker concerne plus d’un milliard de téléphones. Elle permet à partir d’un simple SMS de prendre le contrôle total d’un smartphone et de collecter des données. Concrètement, l’attaquant envoie un SMS contenant un code spécifique qui ordonne à la carte SIM de prendre les commandes du téléphone et d’exécuter certaines commandes provoquant l’exfiltration de données.

Il est également possible d’utiliser les liaisons classiques 3G ou 4G. Même si le téléphone se trouve dans des zones où le débit est limité, la bande passante sera plus lente, et donc le transfert plus long, mais il sera quand même possible d’exfiltrer des données.

On pourrait se dire que des transferts massifs de données pourraient être détectés par l’utilisateur, en observant ses flux de données. C’est là où Pegasus est très performant, car il peut agir sans être détecté. Les données qu’il envoie à partir du téléphone sont chiffrées, on ne peut donc pas savoir ce qui a été envoyé. De plus il va mélanger ces envois au milieu de vos propres transferts de données, par exemple, vous effectuez un paiement en ligne, vous allez envoyer des données chiffrées à votre banque ou à votre vendeur, et à ce moment-là le logiciel en profite pour envoyer des informations à l’attaquant.

Il est donc très difficile de savoir, réellement, ce qui a été envoyé, une fois que l’on a été victime de l’attaque. D’autant plus qu’une fois que la mission a été remplie Pegasus peut s’autodétruire et ne laisser aucune trace, selon son éditeur.

Cette dernière information est contredite par Amnesty International qui dit avoir détecté des traces du logiciel sur plusieurs téléphones analysés dans les journaux d’évènements qui enregistrent une partie de l’activité du système.

D’une manière générale, la rétro-analyse du fonctionnement d’un tel logiciel espion demeure toujours très complexe à réaliser. De la même façon, l’analyse fine de l’attaque demande d’importants moyens techniques, analytiques incluant de l’expertise humaine de très haut niveau et du temps.

Il convient de rester prudent sur les déclarations des uns et des autres attribuant l’origine d’une attaque ou affirmant qu’un téléphone a été compromis en particulier par un logiciel par nature furtif.

← Articles Précédents
juillet 2021
L M M J V S D
 1234
567891011
12131415161718
19202122232425
262728293031  
« Juin   Août »

Stats du Site

  • 102 556 hits

Liens

  • Associations-patrimoines
  • La Fédération d'environnement Durable
  • Moelle Osseuse
  • Visite de Mirmande
juillet 2021
L M M J V S D
 1234
567891011
12131415161718
19202122232425
262728293031  
« Juin   Août »

Commentaires récents

Belinda Cruz dans Donald Trump positif à la Covi…
ewan Pacific rim dans Elizabeth II, une reine modern…
protodiacre dans Mikhaïl Gorbatchev, figure emb…
protodiacre dans Mikhaïl Gorbatchev, figure emb…
ewan Pacific rim dans Martinique : comment les…

Propulsé par WordPress.com.

  • Suivre Abonné∙e
    • Mirmande PatrimoineS Blogue
    • Rejoignez 172 autres abonnés
    • Vous disposez déjà dʼun compte WordPress ? Connectez-vous maintenant.
    • Mirmande PatrimoineS Blogue
    • Personnaliser
    • Suivre Abonné∙e
    • S’inscrire
    • Connexion
    • Signaler ce contenu
    • Voir le site dans le Lecteur
    • Gérer les abonnements
    • Réduire cette barre