Vaccination, passe sanitaire : comment se construit la légitimité ?

  1. Anne-Sophie Volz-TolletMaitre de conférences Sciences de Gestion / Laboratoire IRG, Université Paris-Est Créteil Val de Marne (UPEC)
Université Paris-Est Créteil Val de Marne
CC BY NDNous croyons à la libre circulation de l’information
Pancartes de protestation devant un restaurant à Rennes, le 13 mai 2021. Damien MEYER / AFP

La légitimité n’a jamais été mise en débat comme elle l’est en ces temps de pandémie. Depuis un an et demi, la légitimité des actions des uns et des autres (gouvernement, scientifiques, mais aussi entreprises ou institutions) est au centre des débats au vu de la restriction temporaire des libertés individuelles que la crise sanitaire a prescrite et continue d’imposer.

Le dernier exemple polémique en date est l’instauration du passe sanitaire. Pour que ce nouvel outil soit pleinement opérationnel et utilisé par le plus grand nombre, il est indispensable qu’il soit très largement accepté.

Si les sondages récents démontrent un consentement collectif de la population autour de son déploiement, l’acceptation individuelle du passe sanitaire semble rencontrer des obstacles largement évoqués (notamment la liberté de mouvement, le traçage des données, le manque de recul face à un vaccin récent, et la liberté de chacun de pouvoir choisir ses soins médicaux). La question de la légitimité est donc posée et renvoie à un concept largement débattu au fil du temps mais aussi complexe qu’instable.

Qu’est-ce que la légitimité ?

Les définitions, nombreuses, de la légitimité insistent sur l’idée d’une acceptation collective de l’action. Le sens de cette action doit être partagé et faire consensus afin de permettre son déploiement. Mais pour que cette adhésion au niveau collectif se produise, il faut qu’il y ait agrégation des jugements positifs au niveau individuel. Et c’est là, généralement, que le bât blesse. Comment accepter une décision collective que l’on désapprouve au niveau individuel ou tout du moins qui nous échappe et que l’on ne maîtrise pas ?

L’acceptabilité sociale d’une mesure ou d’une action est conditionnée à la compréhension des événements et doit se traduire par une forme concrète et visible d’adhésion. Cette adhésion collective est sous-tendue par un processus de partage de sens : plus étendu le nombre d’éléments culturels partagés, plus élevée sera la validité perçue de l’action aux yeux du plus grand nombre. Les normes symboliques communes qui relient les individus les uns aux autres doivent être accentuées et valorisées pour créer un terreau fertile de construction sociale collective.

Cette quête de sens doit être soutenue par la pédagogie, la communication, et l’endossement de la structure qui amorce l’action (État, collectivités, institutions, entreprises…). Les grands projets d’infrastructure à fort impact environnemental comme les projets éoliens terrestres ou les mégacomplexes commerciaux tels Europacity nécessitent par exemple l’approbation des citoyens du bassin territorial d’implantation au risque de ne pas voir le jour.

Mesurer le niveau de « favorabilité » personnelle

Mais la légitimité d’une mesure, surtout si elle touche les individus dans leur vie privée, va au-delà de son acceptabilité collective, c’est-à-dire de sa capacité à faire consensus. Si l’on veut véritablement ancrer durablement un sujet, le niveau de « favorabilité » personnelle, soit le degré de réceptivité individuelle à la thématique, est essentiel. La manière dont les individus accueillent (favorablement ou défavorablement) l’introduction d’une nouvelle thématique ou d’une nouvelle mesure est non seulement conditionnée par des motivations extrinsèques telles l’attente d’une récompense ou la mise en conformité pour éviter une sanction, mais dépend également de motivations autonomes propres à chaque individu. Les motivations autonomes sont des forces internes pouvant être déclenchées par plusieurs stimuli : par exemple la conviction personnelle d’agir selon ses valeurs (je tri les déchets pour le bien-être de la planète) ou le plaisir que l’on retire en agissant de telle ou telle manière (je fais du vélo parce que cela me maintient en forme). Ces deux types de motivations sont des forces qui agissent sur l’individu et le poussent à opérer un choix.

La légitimité d’une action ne se limite ainsi pas à sa base légale et à l’acceptation collective d’une règle contraignante mais doit prendre en compte les motivations individuelles et les convictions de chacun. Dans les entreprises, les dispositifs introduisant la question environnementale, tels que les plans de mobilité qui proposent aux salariés des moyens de déplacements à moindre empreinte carbone comme le vélo ou le covoiturage, sont de bons exemples de cette nécessaire intrication du collectif et de l’individuel.

Aller au-delà de l’injonction légale

Ces dispositifs, certes de plus en plus souvent imposés par une disposition légale (dans notre exemple par la Loi relative à la transition énergétique pour la croissance verte de 2015), nécessitent néanmoins un double niveau d’approbation pour entrer pleinement en fonctionnement.

Introduit par les responsables RH ou RSE dans les entreprises, le sujet de la mobilité durable semble produire un consensus généralisé apparent d’œuvrer favorablement pour la planète. Néanmoins, et ce n’est pas le moindre des paradoxes, ces dispositifs rencontrent des résistances au niveau individuel freinant leur déploiement dans les entreprises. Comme je le montre dans ma thèse, ces freins peuvent être de plusieurs natures : perceptions d’être entravé dans son choix personnel de déplacement, sensations d’insécurité (dans les transports en commun), parcours de vie quotidienne nécessitant l’utilisation d’un moyen de transport individuel polluant, etc.

Ces attitudes, qui doivent être entendues, modèrent voire empêchent la transformation des comportements. La légitimité globale du dispositif s’en trouve donc éprouvée et son ancrage fragilisé.

Lever les blocages individuels

La prise en compte de composantes socio-psychologiques se révèle absolument primordiale afin de saisir pourquoi des décisions paraissant faire consensus au niveau collectif peuvent être réprouvées au niveau individuel et engendrer ainsi un conflit de légitimité.

Pour lever les blocages individuels face à la vaccination en Allemagne, les autorités du pays (par la voix de la chancelière Angela Merkel) comptent sur les individus eux-mêmes pour devenir des ambassadeurs, discuter ensemble des doutes et convaincre leur entourage à partir de leur propre expérience personnelle et de leur vécu.

Pour comprendre mais surtout lever les résistances face à l’introduction de certaines mesures contraignantes, l’identification de déterminants et ressorts individuels s’avère donc être une étape sinon obligée tout du moins recommandée. Une action légitime doit ainsi marcher sur ses deux jambes, individuelle et collective, et essayer de tisser des liens entre ces deux niveaux. Leur opposition s’avère stérile car c’est dans la dialectique, c’est-à-dire dans l’inséparabilité d’éléments d’apparence contradictoire, que se construit la légitimité. Pour convaincre de l’utilité du passe sanitaire ou de la nécessité de la vaccination, il ne faut donc pas seulement demander l’engagement de tous ou expliquer les bienfaits des mesures prises, mais renouer et consolider les liens entre le collectif et l’individu. Cela suppose une attention particulière envers l’expression de résistances et un effort constant de dialogue.

Débat : Fallait-il vraiment confier la Ligue 1 à Amazon ?

  1. Julien PillotEnseignant-Chercheur en Economie (Inseec) / Pr. associé (U. Paris Saclay) / Chercheur associé (CNRS), INSEEC Grande École
INSEEC Business School
INSEEC U.
CC BY NDNous croyons à la libre circulation de l’information

L’attribution à Amazon de l’essentiel des droits TV du Championnat de France de football, et les multiples réactions médiatiques, judiciaires et même politiques qui s’en sont suivies, nous rappelle à quel point la vie des droits TV du football français n’a jamais été un long fleuve tranquille.

Dernier événement en date, le tribunal de commerce de Nanterre autorisait Canal+ a suspendre son contrat de sous-licence, conclu avec BeIN Sports pour la diffusion de deux matchs par journée de Ligue 1, tant que la chaîne qatarie n’assigne pas la Ligue de football professionnel (LFP) en justice ainsi que lui demande l’autre chaîne cryptée. Canal+ demande en effet une renégociation du montant des droits après que Amazon a obtenu la diffusion des huit autres matchs pour une somme inférieure. Alors que les premiers versements doivent intervenir, la LFP pourrait aussi assigner BeIN en justice pour non-paiement.

On se régalerait d’ailleurs volontiers de cette délicieuse série à rebondissements offerte par l’ensemble des protagonistes, si les conséquences éventuelles à moyen terme pour les finances de nos clubs n’étaient pas aussi funestes (et ce n’est pas Jean‑Marc Mickeler, le président de la Direction nationale du contrôle de gestion, gendarme financier du football professionnel, qui prétendra le contraire).

Le fiasco de Mediapro a, en effet, été le pilote d’une série qui, si elle ne brille pas toujours par la cohérence économique de ses protagonistes, a le mérite de réserver son lot hebdomadaire de péripéties et coups de théâtre.

Le scénario à suspense qui nous est servi aura au moins eu une vertu : braquer les projecteurs sur l’économie du football. Une économie dont on sait désormais qu’elle souffre des failles structurelles qui ont conduit à la formation d’une bulle qui menace aujourd’hui d’éclater.

Trois enseignements, deux impensés

Concernant le cas spécifique des droits TV, l’analyse de la crise actuelle nous aura appris trois choses importantes :

  • L’inflation des droits TV a été largement soutenue par des mécanismes d’enchères et des processus de mise en concurrence, parfois artificielle, entre diffuseurs ;
  • Par manque de diversification de leurs revenus, nos clubs sont devenus ultra-dépendants des droits TV ;
  • Les droits TV sont un investissement d’autant plus difficile à rentabiliser pour les diffuseurs que des mécanismes de contournement (streaming et IPTV) sont facilement accessibles, et que la facture liée au morcellement du championnat entre plusieurs diffuseurs s’avère salée pour le consommateur.

Essentiels à la compréhension, ces éléments ne sont pas pour autant suffisants. Ils occultent en effet deux dimensions cruciales, deux impensés du processus d’attribution des droits TV sans lesquels il est difficile de se prononcer sur la pertinence du choix opéré par la LFP de confier à Amazon le soin de diffuser l’essentiel du championnat.

Des revenus plus solides

Dans ce grand jeu de stratégie que constitue la préparation d’un appel d’offres et la mise en concurrence des diffuseurs, la LFP a fait le choix de remettre en jeu les seuls lots jadis obtenus par Mediapro, là où les autres diffuseurs espéraient une remise à plat intégrale.

Ces lots ont donc été remportés par Amazon pour quelque 250 millions d’euros annuels (quand l’accord initial avec Mediapro prévoyait le versement de 780 millions d’euros annuels). Amazon s’engage également à verser 9 millions annuels pour la diffusion de 8 matchs de Ligue 2 par journée de championnat.

Comme le montre le tableau ci-dessous, Amazon propose des revenus plus solides que l’offre concurrente proposée par Canal+ et BeIN Sports. Celle-ci prévoyait certes le versement de 673 millions, mais dont 78 millions étaient conditionnés au nombre d’abonnements enregistrés sur la période.https://datawrapper.dwcdn.net/Exjyr/1/

C’est mieux, mais uniquement sur le plan quantitatif. C’est ici que l’on identifie un premier impensé : où est passée la dimension qualitative de l’appel d’offres ?

Près de 20 euros l’abonnement

Les procédures d’appel d’offres prévoient la constitution d’un dossier technique à travers lequel les attributaires potentiels décrivent les moyens qu’ils entendent déployer pour réaliser leur mission. En l’espèce, cette proposition qualitative doit préciser au moins deux points cruciaux pour saisir la pleine capacité des acteurs à promouvoir le produit que l’on s’apprête à leur confier : les moyens de production et de promotion du contenu.

Sur le premier de ces deux aspects, le choix d’Amazon ne semble pas particulièrement risqué dans la mesure où la compagnie de Jeff Bezos a déjà fait ses preuves en matière de diffusion d’événements sportifs. De plus, Amazon s’est engagé à verser 25 millions d’euros par saison pour couvrir les coûts de production.

Le second aspect est nettement plus préoccupant. Car, là où le tandem Canal+ – BeIN Sports présentait de solides garanties en matière de visibilité de la compétition du fait de leur base d’abonnés, Amazon part d’une feuille blanche. La LFP ne semble ainsi pas avoir tiré de leçon du fiasco de MediaPro qui avait péniblement conquis 600 000 abonnés. Difficile de valoriser la « ligue des talents » quand elle n’est vue que d’une poignée de téléspectateurs.

Facture alourdie pour le consommateur

Et difficile d’attirer des abonnés à l’ère de l’IPTV et du streaming sans une offre compétitive sur le plan tarifaire. Le précédent Mediapro, qui proposait un abonnement à 25 euros, l’a démontré : les consommateurs ne sont pas enclins à débourser plus de quelques euros mensuels pour contempler les exploits des footballeurs de l’élite française.

Las, force est de constater que la LFP ne semble pas avoir pris de garanties suffisantes à ce niveau, sinon comment expliquer le tarif fort peu accessible proposé par Amazon pour son offre « Prime Ligue 1 » (12,99 euros mensuels auxquels s’ajoutent les 5,99 euros par mois de l’abonnement Prime, soit un total de 18,98 euros) ?https://datawrapper.dwcdn.net/8azlm/1/

De ce point de vue, l’offre couplée Canal+ – BeIN Sports à 41,90 euros par mois (hors réductions) présentait l’avantage d’un contenu nettement plus diversifié, mais surtout d’une offre concentrée en un seul point de contact et d’une facture globale allégée pour le consommateur qui voudrait voir l’intégralité de la compétition en toute légalité.

Délégation de service public

L’autre grand impensé de cet appel d’offres concerne sans aucun doute la poursuite de l’intérêt général. En tant qu’association loi 1901, LFP a pour objet la « gestion des activités du football professionnel » et la « défense des intérêts matériels et moraux du football professionnel ».

Elle a ainsi pour mission de « développer les ressources du football professionnel dans le but d’en assurer la promotion ». A priori, rien ne s’oppose donc à ce que la LFP privilégie une approche quantitative dans le processus d’attribution des droits TV : elle maximise la valeur du produit en conformité avec ses statuts.

Cependant, la LFP est une association créée par la Fédération Française de Football (FFF). Elle en dépend au titre d’une convention conclue entre les deux entités qui prévoit que la FFF a autorité sur la LFP. Autrement dit, les missions de la LFP sont confiées par la FFF et ne peuvent en aucune manière être contraires aux intérêts supérieurs de la FFF.

Or, en tant que fédération, la FFF assure une mission de service public qui consiste à développer et promouvoir le football, professionnel comme amateur, sur l’ensemble du territoire national. C’est donc bien au titre d’une délégation de service public (DSP) que la FFF donne pouvoir à la LFP de gérer les affaires du monde professionnel.

Le consommateur lésé, le contribuable aussi

Nous pourrions dès lors attendre de la LFP qu’elle agisse au nom de l’intérêt général, plutôt que dans le seul intérêt des clubs de football professionnel.

Nous avons déjà souligné que le consommateur ne semble pas avoir été particulièrement pris en considération lors de l’appel d’offres. Le contribuable non plus ! En effet, autant Canal Plus – entreprise française, soumise à l’impôt sur les sociétés et contribuant par le financement du cinéma français à la politique d’exception culturelle – participe à l’effort redistributif, autant la question reste pleinement ouverte concernant Amazon.

Le rapport impôt payé sur chiffre d’affaires pour Amazon en France atteignait l’an passé un ratio prélèvements directs/chiffre d’affaires de tout juste 3,3 %, ce qui place d’emblée le géant américain dans la catégorie des champions de l’optimisation fiscale.

La taxe mondiale prévoyant un plancher de 15 % sur les entreprises du numérique a, par ailleurs peu de chance d’infléchir le problème. En effet, celle-ci est conditionnée à un taux de profit de 10 %, qui restera longtemps hors d’atteinte pour Amazon dont la stratégie consiste à privilégier la croissance de parts de marché aux profits.

Au final, il semble que la LFP, en ayant porté son choix sur Amazon, a non seulement privilégié une multinationale qui, fort éloignée des considérations françaises, s’avèrera difficile à fiscaliser et à fidéliser dans la durée, mais a également pris le risque de se couper encore un peu plus de son public en occultant la question du coût d’accès pour le consommateur.

En 2009, dans le cadre d’un article qui figurait également en bonne place dans un rapport au Premier ministre d’alors (M. François Fillon), nous alertions sur un double risque « d’invisibilisation » et de dépréciation du produit phare de la LFP, découlant du morcellement des offres et de la démocratisation des moyens techniques de contournement. Les derniers rebondissements dans la saga des droits TV du foot français semblent désormais confirmer un peu plus ce scénario.

Syrie : une stabilisation en trompe-l’œil

  1. Thomas PierretChargé de recherches à l’Institut de Recherches et d’Études sur les Mondes Arabes et Musulmans (IREMAM), Aix-Marseille Université (AMU)

Partenaires

Aix-Marseille Université
CC BY NDNous croyons à la libre circulation de l’information
Deux habitants marchent sur les décombres d'une maison, après un bombardement des troupes du régime, à Serja dans la province d'Idlib, le 17 juillet dernier.
Pour les habitants de la province d’Idlib, le guerre est tout sauf terminée : les bombardements du régime ont repris depuis plusieurs mois, engendrant de nombreuses victimes civiles, comme ici, à Serja, le 17 juillet dernier. Abdulaziz Ketaz/AFP

Le 26 mai dernier, le président syrien Bachar Al-Assad était réélu pour un quatrième septennat. Remporté avec 95 % des voix face à deux figurants, le scrutin fut avant tout l’occasion d’intensifier le culte de la figure présidentielle dans un contexte ambivalent. Alors que la précédente élection s’était tenue en 2014, soit à la veille des défaites militaires qui allaient provoquer l’intervention russo-iranienne l’année suivante, celle de 2021 survient alors que le régime est redevenu maître des deux tiers du territoire national.https://platform.twitter.com/embed/Tweet.html?dnt=false&embedId=twitter-widget-0&features=eyJ0ZndfZXhwZXJpbWVudHNfY29va2llX2V4cGlyYXRpb24iOnsiYnVja2V0IjoxMjA5NjAwLCJ2ZXJzaW9uIjpudWxsfSwidGZ3X2hvcml6b25fdHdlZXRfZW1iZWRfOTU1NSI6eyJidWNrZXQiOiJodGUiLCJ2ZXJzaW9uIjpudWxsfSwidGZ3X3NwYWNlX2NhcmQiOnsiYnVja2V0Ijoib2ZmIiwidmVyc2lvbiI6bnVsbH19&frame=false&hideCard=false&hideThread=false&id=1417149083047931908&lang=en&origin=https%3A%2F%2Ftheconversation.com%2Fsyrie-une-stabilisation-en-trompe-loeil-164675&sessionId=c622efff507e864bff59d402cd8ae041af932ce7&siteScreenName=FR_Conversation&theme=light&widgetsVersion=e9dfb5f%3A1627539779275&width=550px

La relative position de force de Damas ne doit toutefois pas occulter le fait que le pouvoir est économiquement exsangue par l’effet combiné des destructions de guerre, du contrôle des principales ressources pétrolières, situées dans l’Est, par les Forces démocratiques syriennes, et des sanctions occidentales : en mars 2021, tandis que s’aggravaient les multiples pénuries, la livre syrienne tombait temporairement à 1 % de sa valeur d’avant-guerre.

La traduction politique la plus spectaculaire de cette crise fut l’accroissement des tensions au sein du clan dirigeant, illustré par les messages vidéos qu’a diffusés en 2020 le magnat de l’économie nationale et cousin du président Rami Makhluf, protestant contre la saisie de ses actifs. Cette dernière mesure était elle-même liée, semble-t-il, à une lutte d’influence entre Makhluf et des hommes d’affaires associés à la première dame Asma al-Akhras.

Carte de l’état du conflit en juillet 2021
La situation militaire en Syrie en juillet 2021 : en rose, les zones contrôlées par les loyalistes, en jaune, celles maîtrisées par les forces kurdes des FDS. La région d’Idlib est partagée entre zones soumises à des organisations d’opposition, en vert clair, et celles sous l’autorité des islamistes du Gouvernement Syrien de Salut, en blanc. La bande verte au Nord est sous contrôle de rebelles syriens alliés aux forces turques. La poche turquoise au sud-est correspond au territoire des « commandos de la Révolution », groupe rebelle soutenu par l’armée États-Unienne. Enfin, les territoires en violet et orange font l’objet de trêves entre le régime et respectivement des groupes rebelles et les FDS. Ermanarich/Wikimedia, CC BY

La mainmise du régime sur la société reste fragile

Largement contenu par la main de fer des autorités, le mécontentement populaire provoqué par les conditions économiques s’est toutefois exprimé, notamment durant la présidentielle, par des manifestations dans des localités du Sud. Celles-ci demeurent aux mains d’anciens rebelles dits « réconciliés » en vertu d’accords négociés par la Russie en 2018, dans les provinces de Deraa et Quneitra, ou de milices locales d’autodéfense, s’agissant de la région druze de Suweida.

Rien n’indique que ces modestes épisodes de protestation soient les prémices d’un mouvement qui, à l’échelle nationale, parviendrait à surmonter à la fois la polarisation confessionnelle renforcée par le conflit, et la peur d’une nouvelle réponse impitoyable de la part du régime. En revanche, les actes d’opposition armée au régime ont d’ores et déjà repris un caractère endémique dans deux régions du pays. Dans la Badiya (désert), les attaques de l’organisation de l’État islamique (EI) ont fait cinq cents victimes en 2020, soit deux fois plus que l’année précédente, avant de refluer, sans disparaître, suite à un sursaut militaire loyaliste.

Dans les provinces méridionales de Deraa et Quneitra, des affrontements violents ont opposé d’anciens rebelles aux forces du régime qui tentaient d’investir leurs fiefs à la recherche d’auteurs supposés d’attaques armées. En juin 2021, notamment, les hommes de Damas ont assiégé les quartiers de Deraa tenus par les anciens rebelles pour les contraindre à remettre leurs armes légères.

Dans ce contexte, il est extrêmement difficile d’attribuer la responsabilité des assassinats quotidiens et autres opérations de faible envergure qui secouent actuellement le sud du pays. Tandis que des combattants loyalistes et leurs collaborateurs locaux ont été assassinés par des vestiges de l’Armée syrienne libre et des cellules de l’EI, d’ex-commandants rebelles « réconciliés » semblent avoir payé de leur vie le fait d’entraver la volonté de Damas de révoquer les accords de 2018 pour rétablir un contrôle direct sur la région.

Les loyalistes divisés face à une guerre inachevée

D’autres morts violentes, encore, paraissent liées aux rivalités entre les différentes forces loyalistes qui se disputent l’allégeance des anciens rebelles, dont les services de renseignements militaires du régime, des groupes pro-iraniens comme le Hezbollah libanais et la 4e Division blindée, ou encore le 5e Corps d’armée inféodé à la Russie. Ces rivalités se manifestent aussi sur la rive occidentale de l’Euphrate, où la Russie a coopté des unités de groupes paramilitaires comme les Forces de Défense nationale ou la Brigade al-Quds. Téhéran, lui, recrute ses affidés locaux par le biais de ses Pasdaran (Corps des gardiens de la révolution islamique).

La prolifération des paramilitaires nourrit aussi la violence dans la province à majorité druze de Suweida. Face au déclin des financements alloués par le régime, certains groupes locaux se sont lancés dans le rançonnement de sunnites de la province voisine de Deraa, ranimant de ce fait un vieux conflit foncier entre les deux communautés : en 2020, des affrontements entre miliciens druzes et combattants prorusses du 5e Corps ont fait des dizaines de morts.https://www.youtube.com/embed/gaKwjvxukvg?wmode=transparent&start=0

L’autre grande limite de la « victoire » du régime est bien sûr son incapacité à reprendre le tiers restant du pays. Au nord-ouest, les rebelles sont protégés par l’armée turque, tandis que l’est de l’Euphrate est tenu par les Forces démocratiques syriennes (FDS) commandées par des militants kurdes et soutenues par les forces américaines. En juillet 2021, aucune modification significative des lignes de front n’était survenue depuis le cessez-le-feu conclu le 5 mars 2020 par la Russie et la Turquie. Cette dernière, inquiète d’un nouvel afflux de réfugiés sur son territoire, venait alors de lancer une opération militaire d’envergure contre les forces du régime de Damas qui s’approchaient dangereusement de la ville d’Idlib tenue par les rebelles.

À l’extérieur comme à l’intérieur des territoires du régime, chaos et violence

Comme les territoires contrôlés par le régime, ceux qu’administrent ses rivaux connaissent également leur lot de crise économique, de contestation et de violence. S’agissant des territoires gouvernés par l’Administration autonome du Nord et de l’Est de la Syrie, pendant civil des FDS, des manifestations violemment réprimées en juin dernier dans la ville de Manbij sont venues souligner le ressentiment d’une partie des populations arabes envers un leadership kurde auquel elles reprochent notamment son régime de conscription.

Sur le plan militaire, les FDS combattent sur trois fronts. Dans le nord des provinces d’Alep et de Raqqa, des accrochages les opposent régulièrement à l’armée turque et aux factions rebelles unifiées par Ankara au sein de l’Armée nationale syrienne (ANS). Les relations avec le régime se sont aussi considérablement tendues après l’échec de négociations organisées début 2020 en vue d’un rapprochement politique. Les tensions ont culminé en avril dernier lorsque les FDS ont arraché à Damas le contrôle de la quasi-totalité de la ville de Qamishli après en avoir expulsé des paramilitaires des Forces de Défense nationale recrutés parmi les tribus arabes locales. Enfin, les FDS font, elles aussi, face à l’insurrection de basse intensité que mène l’EI dans la province arabophone de Deir ez-Zor.

Les trois enclaves directement contrôlées par l’armée turque le long de la frontière nord (Afrin, A’zaz al-Bab et Tell Abiyad Ras al-’Ayn) sont fréquemment le théâtre d’attentats à la bombe et d’attaques armées perpétrés à la fois par des combattants kurdes des YPG (colonne vertébrale des FDS, liés au Parti des Travailleurs du Kurdistan (PKK) opérant en Turquie) et par des cellules de l’EI.

La violence dans la région est aussi le produit de combats fratricides qui opposent régulièrement entre elles les factions rebelles inféodées à la Turquie. Principalement motivés par des considérations économiques telles que le contrôle de la contrebande, ces affrontements font émerger des lignes de fracture régionales (entre des factions locales et d’autres originaires de Deir ez-Zor ou de Damas) ou ethniques (entre Turkmènes et Arabes).

Idlib, futur épicentre de l’implosion qui vient ?

À Idlib, enfin, les islamistes de Hay’a Tahrir al-Sham (HTS) et leur façade civile, le Gouvernement syrien de salut, ont renforcé leur mainmise sur la province en réprimant à la fois la société civile et les factions jihadistes radicales. Celles-ci, à l’instar des pro-al-Qaïda de Hurras al-Din, dénoncent les compromis idéologiques d’HTS et en particulier sa coopération avec l’armée turque. En réponse à cette répression ont émergé de nouvelles formations jihadistes obscures qui ont posé des engins explosifs improvisés au passage de véhicules russes et turcs patrouillant dans la province.https://www.youtube.com/embed/0-vbHHl8RpY?wmode=transparent&start=0

Les menaces extérieures pesant sur Idlib sont toutefois d’une tout autre ampleur. La reprise des bombardements loyalistes durant le printemps 2021 pèse sur la vie des habitants, de même que la menace russe d’un veto contre la prolongation par le Conseil de Sécurité de l’ONU de l’aide humanitaire transfrontalière vers la province rebelle. À ce mécanisme, Moscou oppose sa demande de corridors humanitaires partant des territoires contrôlés par le régime, première étape vers le rétablissement graduel de la souveraineté de Damas sur Idlib.

Un compromis sur la poursuite de l’aide transfrontalière pour une durée de douze mois fut arraché de justesse en juillet 2021 mais la question du veto russe se posera à nouveau dans un an. Un tel veto compromettrait très gravement la sécurité alimentaire des trois millions d’habitants de la province d’Idlib. Par là même, elle exposerait cette dernière à un risque d’implosion économique qui pourrait, à son tour, mettre un point final au (très) relatif statu quo militaire qui prévaut en Syrie depuis seize mois.

Avoir été malade de la Covid-19 ne protège pas aussi bien qu’un vaccin, surtout face au variant Delta

  1. Jennifer T. GrierClinical Assistant Professor of Immunology, University of South Carolina

Déclaration d’intérêts

Jennifer T. Grier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

Partenaires

University of South Carolina
CC BY NDNous croyons à la libre circulation de l’information

En tant qu’immunologiste étudiant les réponses immunitaires aux infections respiratoires, j’ai suivi l’émergence des nouveaux variants du coronavirus non sans une certaine appréhension, avec à l’esprit la question de savoir si la vaccination ou une infection antérieure pouvait offrir une protection suffisante contre ces souches, et notamment contre le variant Delta hautement transmissible, qui s’est rapidement diffusé dans plus de 70 pays.

Il existe deux façons de développer une immunité, autrement dit une capacité à résister à une nouvelle infection : après avoir été infecté par le virus, ou par la vaccination. Cependant, toutes les immunités ne se valent pas… Immunité induite par vaccin et immunité naturelle se distinguent en termes d’intensité de réponse et de durée de protection acquise. De plus, après une infection, tout le monde ne bénéficie pas du même niveau d’immunité, alors que les effets des vaccins sont très constants.

Cette différence parait encore plus marquée lorsqu’on considère les nouveaux variants. Début juillet, deux études ont en effet montré que les vaccins contre la Covid-19, quoique légèrement moins efficaces que contre les anciennes souches virales, semblaient toujours fournir une excellente réponse immunitaire face aux nouveaux variants. En regardant comment nos anticorps se liaient à ces derniers, les chercheurs ont constaté que les personnes infectées antérieurement pouvaient être vulnérables à ces souches émergentes, alors que les individus vaccinés avaient plus de chance d’être protégés.

Les vaccins constituent donc une voie à la fois sûre et fiable vers l’immunité, tant contre les anciennes souches de coronavirus que contre les nouvelles, parmi lesquelles le variant Delta.

L’immunité après une infection est imprévisible

Pourquoi une telle différence entre immunité naturelle et immunité induite par les vaccins ? Rappelons déjà que la protection que nous confère notre système immunitaire découle de sa capacité à se souvenir d’une infection passée et de l’agent pathogène qui l’a causée. S’il devait être confronté à nouveau au même envahisseur, notre corps saurait comment se défendre en faisant appel à cette mémoire immunologique. Parmi les acteurs majeurs de notre protection figurent les anticorps (des protéines capables de se lier par exemple à un virus) et les lymphocytes T (des cellules immunitaires impliquées dans l’élimination des cellules infectées et des virus déjà neutralisés par les anticorps).

Des essaims d’anticorps reconnaissent des virus ayant déjà infecté notre corps
Notre système immunitaire génère des anticorps (Y) capables de reconnaître tout virus auquel il a déjà été confronté. ktsdesign/Shutterstock

Après une infection par le SARS-CoV-2, anticorps et lymphocytes T fournissent une protection à la réinfection. 84 % à 91 % des personnes ayant développé des anticorps contre la souche originelle de coronavirus étaient peu susceptibles d’être ré-infectés dans les six mois, même si ladite première infection avait été légère. Quant aux individus contaminés mais n’ayant développé aucun symptôme (on parle d’infections « asymptomatiques »), s’ils tendent à avoir moins d’anticorps, ils développent néanmoins également une immunité.

Chez certaines personnes, l’immunité naturelle peut donc être forte et de longue durée. Mais ce n’est pas toujours le cas. En effet, près de 9 % des personnes infectées par le SARS-CoV-2 ne généreront pas un niveau d’anticorps détectable, et les lymphocytes T de près de 7 % des anciens malades sont incapables de reconnaître le virus 30 jours après l’infection.

Laisser filer l’inflation ou freiner la reprise, le dilemme des banquiers centraux

  1. Éric MengusProfesseur associé en économie et sciences de la décision, HEC Paris Business School
HEC Paris Business School
CC BY NDNous croyons à la libre circulation de l’information
Cette image a un attribut alt vide ; son nom de fichier est file-20210721-23-1fdezyg.jpg
Aux États-Unis, l’inflation a augmenté de plus 5 % sur un an. Scott Olson / Getty Images via AFP

Aux États-Unis, l’indice des prix à la consommation a augmenté de 0,9 % en juin après avoir progressé de 0,5 % en mai, et la variation annuelle est supérieure à 5 %. Dans la zone euro, cette hausse est beaucoup moins prononcée, du moins pour l’instant. En France, par exemple, les prix à la consommation ont augmenté de 1,5 % en juin par rapport à l’année précédente, alors qu’en variation sur un an, ces prix n’avaient augmenté que de 0,2 % en juin de l’année dernière.

Ce retour de l’inflation peut s’expliquer notamment par un mécanisme économique très simple : la demande augmente et l’offre se réduit, donc les prix augmentent.https://datawrapper.dwcdn.net/1eLl1/1/

D’une part, la pandémie a conduit de nombreux ménages à reporter leur consommation. Pour certains d’entre eux, ils ont accumulé de l’épargne. Lorsque les mesures de distanciation sociales sont levées, ces ménages peuvent à nouveau consommer. Cela correspond à une hausse de la demande.

D’autre part, l’offre de biens et de services subit encore des effets de la pandémie. En bref, toutes les chaînes d’approvisionnement et de production ne sont pas forcément rétablies.

Une tendance durable ?

Ces facteurs de demande et d’offre sont considérés comme transitoires : une fois la pandémie terminée, l’offre va se remettre en place et l’épargne accumulée sera dépensée. Ainsi, l’inflation qui en résulte ne devrait pas persister, du moins en théorie. D’une certaine manière, c’est même un signe que l’économie se remet sur les rails et la hausse de la demande va permettre à l’offre de se remettre en place.

Toutefois, il existe un risque que l’inflation reste durablement élevée, ce qui peut constituer un problème pour la reprise. Une telle inflation plus durable pourrait avoir des conséquences pour tous les prix dans l’économie : jusqu’à présent, les hausses de prix aux États-Unis concernent seulement certains secteurs comme l’énergie – et tout spécialement les prix liés au prix du pétrole et du gaz – ou des biens durables comme les voitures, mais nettement moins les services.https://www.youtube.com/embed/_9CQxnVc3-0?wmode=transparent&start=0Inflation : quels risques pour la relance ? (Académie des Sciences et Techniques Comptables et Financières, juillet 2021).

Si une telle inflation plus persistante venait à se réaliser, les banques centrales n’auront pas d’autre choix que de réagir pour les contenir. En effet, la Réserve fédérale américaine (Fed) comme la Banque centrale européenne (BCE) ont un objectif de stabilité des prix. Dans le cas de la Fed, depuis août 2020, l’inflation doit avoisiner les 2 % en moyenne. Dans le cas de la BCE, depuis sa récente revue stratégique, l’inflation doit être proche de 2 %. Un dérapage persistant des prix ne serait donc plus en accord avec le mandat de ces banques centrales.

Une question de crédibilité

Pour éviter un tel risque, les banques centrales devront limiter leur soutien à l’économie, ou bien en restreignant les programmes quantitatifs qu’elles ont mis en place depuis plusieurs années, ou bien en remontant si nécessaire leurs taux directeurs, aujourd’hui au plus bas.https://datawrapper.dwcdn.net/D55dr/1/

Paradoxalement, un éventuel retour de l’inflation est en partie lié à un risque de manque de crédibilité des banques centrales pour la combattre : si celles-ci préfèrent systématiquement ne pas ralentir l’activité économique pour combattre l’inflation, alors les marchés financiers voire, si le phénomène s’empire, les entreprises et les ménages vont penser que l’inflation risque effectivement de revenir. L’anticipation d’inflation future pousserait alors aux hausses de prix dès aujourd’hui, alimentant la spirale inflationniste.

Aujourd’hui, au-delà du risque pour la reprise, une raison particulière peut conduire les banques centrales à ne pas souhaiter resserrer la vis monétaire : en relevant les taux ou en limitant les achats de titres, les banques centrales peuvent également faire augmenter le coût de la dette des États. Une augmentation trop élevée des taux pourrait rendre insoutenable la dette de certains États et provoquer un défaut souverain.

Quelle que soit sa source, tout manque de crédibilité finirait par se traduire par les anticipations d’inflation à long terme. Dans les mois et années à venir, ce sera la variable clé à vérifier : si ces anticipations commençaient à s’écarter de l’objectif des banques centrales, ces dernières n’auraient d’autre choix que d’intervenir en ralentissant éventuellement la reprise.

Cette crédibilité à resserrer la vis monétaire si besoin, c’est visiblement ce qui a été testé aux États-Unis en juin dernier. La Fed a laissé ses taux inchangés, mais a annoncé que deux resserrements des taux sont désormais envisagés d’ici à fin 2023, alors que la date de 2024 était précédemment envisagée.

Avec cette communication autour d’une accélération du calendrier, les marchés financiers ont, semble-t-il, perçu que la Fed était crédible pour relever ses taux en cas de retour persistant de l’inflation. En retour, les anticipations d’inflation à plus long terme ont amorcé un léger recul aux États-Unis, laissant espérer que les marchés s’attendent effectivement à ce que la Fed intervienne si nécessaire en cas de hausse de l’inflation.

Anatomie martienne : après seulement deux ans de surveillance sismique, la structure interne de la planète rouge révélée

  1. Philippe LognonnéProfesseur en Géophysique et Planétologie, Institut de Physique du Globe de Paris (IPGP), Université de Paris
Université de Paris
CC BY NDNous croyons à la libre circulation de l’information

Avant la mission Insight de la NASA opérée par le JPL, la structure interne de Mars était encore mal connue, étudiée grâce aux images des satellites en orbite martienne et à l’analyse des météorites martiennes. Depuis début 2019 et le succès du déploiement du premier sismomètre martien, l’expérience SEIS, les scientifiques ont collecté et analysé les données sismiques d’une année martienne, soit presque deux années terrestres, qui nous donnent des indications directes sur la structure de Mars, et donc sur sa formation et son histoire.

À ce jour, presque 700 évènements ont été répertoriés dans les données transmises par le CNES et IPGP à l’équipe internationale du Mars Quake Service animée par l’ETHZ. Dans ce catalogue, on trouve une soixantaine de séismes martiens, dont une dizaine de séismes suffisamment distincts pour l’on puisse, pour la première fois, déterminer un modèle de la structure interne de Mars, qui fait cette semaine la couverture du journal scientifique Science, avec trois articles cosignés par la collaboration InSight, sur la croûte, le manteau, et le noyau.

Détecter un murmure sous le brouhaha du vent martien

Sur Terre, les séismes sont forts à cause de la tectonique des plaques, et les sismomètres installés dans des caves ou sous terre et sont déployés par centaines. Sur Mars, dès que le soleil se lève, un bruit sismique important est généré par l’atmosphère et par sa turbulence et les séismes sont beaucoup plus faibles : c’est comme si vous cherchiez à entendre une conversation murmurée au milieu d’une salle de restaurant agitée.

Mais contrairement à la Terre, où même loin des côtes, le bruit sismique reste dominé par des ondes générées par la houle des océans, le bruit sismique observé par InSight est régional, voire local. Il chute donc dès le coucher du soleil et plus particulièrement pendant la première partie de la nuit, quand le vent est si faible que le capteur météorologique d’InSight n’arrive plus à le mesurer. Ces quelques heures ont permis de détecter des petits séismes, d’une magnitude inférieure à 3,7 et ce jusqu’à plusieurs milliers de kilomètres du capteur InSight. Certains de ces séismes ont un « rapport signal sur bruit » suffisamment bon (entre 10 et 100) pour l’on puisse en extraire des informations.

Image d’artiste de la propagation dans la croute et conversion sismiques à la base de la discontinuité à 10 km. Incrusté : Séismes du Sol 173, un des plus gros séismes martien, avec indication de l’onde P et S. IPGP/Nicolas Sarter, Fourni par l’auteur

Avant de présenter ce modèle, rappelons que pour déterminer tout à la fois un modèle de structure, le temps (d’arrivée) du séisme et sa distance, il faut habituellement disposer de plus d’une station. Or, sur Mars, seule la station InSight est à disposition des scientifiques. Il a donc fallu rechercher, identifier et valider dans les enregistrements sismiques la signature d’ondes ayant interagi différemment avec les structures internes de Mars. Ces nouvelles mesures, couplées avec des modélisations minéralogiques et thermiques de la structure interne, ont permis de s’affranchir de la contrainte de station unique. C’est une méthode qui ouvre une nouvelle ère de la sismologie planétaire.

Mars rejoint le club très sélect des corps célestes dont nous connaissons la structure

Après plus de deux ans de surveillance sismique martienne, le premier modèle de la structure interne de Mars est obtenu, et ce jusqu’au noyau. Mars rejoint ainsi la Terre et la Lune dans le club des planètes et satellites telluriques dont la structure profonde est explorée par la sismologie.

Et pour la première fois, il est possible non seulement de comparer la structure interne de la Terre avec celle d’une autre planète tellurique, mais aussi l’état de leur moteur thermique interne : l’épaisseur de la croûte nous renseigne en effet sur la quantité d’éléments radioactifs qui s’y trouve, l’épaisseur de la lithosphère thermique donne la profondeur de la zone éventuellement convective du manteau et l’existence ou non de phases profondes peut avoir des conséquences majeures sur la vigueur de la convection.


À lire aussi : « Retour sur… » : Si vous alliez sur Mars, comment choisiriez-vous votre destination ?


Avec ce premier modèle de structure interne et de profil thermique actuel, ce sont donc toutes les théories de formation et d’évolution thermique de Mars qui doivent être maintenant ajustées, avec à la clef une meilleure compréhension de l’évolution de la planète, puis de la perte d’« habitabilité » de Mars durant les 500 millions d’années qui suivirent sa formation.

Observer l’enveloppe superficielle : la croûte de Mars

Avant la mission InSight, les modèles ne reposaient que sur des mesures recueillies par les satellites en orbites ou l’analyse des météorites martiennes. L’épaisseur de la croûte, avec les seules mesures de gravité et de topographie, était estimée entre 30 et 100 kilomètres. Les valeurs du moment d’inertie et de la densité de la planète suggéraient un noyau avec un rayon entre 1400 kilomètres et 2000 kilomètres. Les détails de la structure interne de la planète comme les profondeurs des frontières entre croûte, manteau et noyau, et plus encore les stratifications éventuelles de la croûte ou du manteau étaient donc inconnus.

Aujourd’hui, c’est l’analyse des signaux sismiques recueillis par InSight qui nous permet de comprendre la structure interne de la planète. Avant d’atteindre la station Insight, à chaque « discontinuité crustale », les ondes sismiques vont être en partie converties en un autre type d’onde, en partie transmises, et en partie réfléchies. Une onde S peut ainsi être convertie en une onde P, dont la plus grande vitesse de propagation lui assurera une arrivée plus rapide à la surface. L’inverse est vrai pour une conversion P en S, qui elle arrivera après l’onde transmise.

La mise en évidence de ces « conversions » a permis d’identifier plusieurs discontinuités dans la croûte : une première, observée à environ 10 kilomètres de profondeur, marque la séparation entre une structure très altérée qui résulte d’une très ancienne circulation de fluide, et une croûte peu altérée. Une seconde discontinuité vers 20 kilomètres puis une troisième moins marquée, vers 35 kilomètres, indiquent la stratification de la croûte sous le sismomètre InSight. La croûte martienne sous InSight fait donc entre 20 et 35 kilomètres d’épaisseur.

Comprendre la structure et les propriétés du « manteau martien »

Dans le manteau, nous avons analysé les différences de temps de parcours entre les ondes générées directement par le séisme (de types P et S) et celles générées lors de la réflexion de ces ondes directes sur la surface (une seule réflexion donne les ondes « PP » et « SS » tandis que deux réflexions génèrent les ondes dites « PPP » et « SSS »). Ces différences permettent avec une seule station de déterminer la structure du manteau supérieur, et notamment la variation des vitesses sismiques avec la profondeur.

Vue d’artiste des principales ondes sismiques P et S et des ondes transmises, réfléchies et converties. IPGP/David Ducros/Philippe Lognonné, Fourni par l’auteur

Or, ces variations de vitesse sont liées à la température, à la pression et à la minéralogie du manteau. En croisant ces informations avec les contraintes minéralogiques liées à nos observations des météorites martiennes basaltiques, dont le réservoir pourrait être le manteau superficiel, il est possible de relier directement les vitesses sismiques mesurées à la température du manteau.


À lire aussi : Écouter battre le cœur de Mars pour comprendre sa formation et sa structure


Les résultats suggèrent alors que la température du manteau de Mars croit linéairement avec la profondeur jusqu’à atteindre un peu plus de 1500 °Celsius entre 500 et 600 kilomètres de profondeur. Cette croissance de la température caractérise un manteau où la chaleur interne se diffuse sans qu’une lente convection de ce dernier puisse mieux équilibrer ces différences de température. Sur Terre, cette zone où il n’y a pas de convection appelée « lithosphère thermique » varie entre 10 et 100 kilomètres d’épaisseur.

Où est le noyau de la planète rouge ?

Pour trouver le noyau, nous avons déterminé la profondeur de la base du manteau grâce aux ondes S réfléchies par sa surface. Malgré les faibles amplitudes des signaux associés à ces ondes réfléchies (appelées « ScS »), un excès d’énergie est observé pour les modèles de noyaux avec un rayon entre 1790 kilomètres et 1870 kilomètres, ce qui nous donne une fourchette de taille pour le noyau martien.

Une telle taille impliquerait la présence d’éléments chimiques légers dans le noyau externe liquide. Ce type de taille exclue l’existence à la base du manteau d’une couche de « bridgmanite », ce silicate de fer et de magnésium de structure pérovskite qui constitue l’essentiel du manteau terrestre entre 660 et 2700 kilomètres de profondeur. Si elle avait existé sur Mars, une telle couche aurait « boosté » la convection et donc le volcanisme, en particulier pendant les 500 premiers millions d’années.

Le temps passe-t-il pour l’intelligence artificielle ?

  1. Nazim FatèsChargé de recherches, Inria
Inria
CC BY NDNous croyons à la libre circulation de l’information

Les systèmes d’intelligence artificielle sont des systèmes informatiques qui sont le plus souvent dotés de la possibilité d’évoluer, de s’adapter et de s’automodifier. Leurs concepteurs cherchent à les rendre aussi autonomes que possible et ils en viennent souvent à se demander dans quelle mesure de tels systèmes pourraient acquérir la notion du temps.

Le problème central est celui de l’interprétation des données que l’on fournit à une machine pour qu’elle apprenne : les données de l’expérience ont besoin du temps pour être interprétées et, réciproquement, le temps a besoin de l’expérience pour prendre sa consistance et permettre l’interprétation des données. Il y a donc une intrication. On peut bien sûr apprendre à une machine toute sorte de choses, comme distinguer des tumeurs bénignes de tumeurs malignes sur des photos médicales, mais comment un robot pourrait-il se construire une notion de « temps », avec toute la richesse que ce mot représente ? Par exemple, dans le contexte d’une interaction avec des êtres humains, comment faire en sorte qu’un robot sache de lui-même s’il n’est pas trop rapide ou trop lent ? Comment parviendrait-il à se rendre compte que quelque chose a brusquement changé dans le comportement de son interlocuteur ?

Le temps des robots est le temps des microprocesseurs

À ce jour, l’ensemble des systèmes informatiques fonctionne sur les bases algorithmiques posées par Alan Turing en 1936. Alan Turing partit de l’hypothèse que toute méthode systématique de résolution d’un problème, c’est-à-dire tout algorithme, peut être traduite dans un langage qui s’adresse à une machine élémentaire réalisant des opérations de lecture-écriture sur un ruban infini.

Les systèmes informatiques dont nous disposons n’opèrent pas exactement sur ce type de machine, mais on admet généralement un principe d’équivalence : tout ce qui peut être réalisé par une machine donnée peut également être réalisé par cette machine de Turing, dite « universelle ».

Un chip de microprocesseur. Laura Ockel/UnsplashCC BY

Ce point est particulièrement important pour comprendre les évolutions temporelles des systèmes d’intelligence artificielle. En effet, ceux-ci utilisent des calculs « parallèles » : au lieu de faire une opération après l’autre, ces systèmes peuvent, comme dans un cerveau, faire interagir des milliers de composants simultanément. On parle souvent à propos de telles architectures de « connexionnisme » : il ne s’agit pas seulement comme dans le cas du parallélisme classique de faire interagir plusieurs systèmes en même temps, mais de parvenir à coordonner une myriade d’unités de calcul, et ce sans unité centrale.

Dans ce contexte, le principe d’équivalence énoncé par Turing tient encore : une architecture en réseau peut accélérer les calculs, mais ne peut jamais permettre de faire ce qui est hors de portée pour une machine séquentielle. En ce qui concerne le temps d’exécution des algorithmes, cela signifie que si j’ai une machine avec des millions de neurones formels qui changent d’état en parallèle, j’aurais probablement la possibilité d’effectuer des algorithmes de manière plus rapide, mais le temps intrinsèque de la machine sera toujours donné par le temps des horloges des microprocesseurs qui cadencent cette machine. Il existe plusieurs dispositifs de calcul non classiques, tels que les ordinateurs quantiques ou les puces dites neuromorphiques : certes, leur programmation oblige à penser de façon différente et sont la source de nombreuses promesses pour repousser les frontières du calcul, cependant ils n’échappent nullement au principe d’équivalence de Turing et aux limites que cette équivalence impose.

Un système d’intelligence artificielle reste donc conditionné dans son rapport au temps par sa structure algorithmique discrète, laquelle décrit l’évolution des systèmes pas à pas. Le temps informatique est donc toujours mesuré comme un nombre d’étapes, que celles-ci soient parallèles ou séquentielles.

Quelles sont les conséquences de telles limitations ?

Il y a une inhomogénéité fondamentale entre le temps des êtres humains et celui des machines. Il faut garder à l’esprit que n’importe quel ordinateur, téléphone, ou même n’importe quelle puce qui se trouve dans une machine à laver effectue des milliards d’opérations par seconde. En d’autres termes, l’échelle avec laquelle les cadences des microprocesseurs sont mesurées est le gigahertz. Si l’on pouvait se placer du point de vue des robots, nous verrions les êtres humains comme des lourdauds qui pensent et se meuvent à une vitesse phénoménalement lente. On peut faire une analogie avec la manière dont les plantes évoluent pour nous. Les robots seraient donc amenés à se brider considérablement pour « s’abaisser » à notre rythme !

D’ailleurs, ces problèmes ont été perçus dès le début de la réflexion sur la question de l’intelligence artificielle. Alan Turing, par exemple, dans son article de 1950, demande à ce que la machine qui remplace un être humain jouant au jeu de l’imitation marque un temps d’arrêt artificiel avant de donner le résultat d’une multiplication, sans quoi elle serait immédiatement démasquée. De tels délais sont aujourd’hui utilisés pour rendre les conversations des « assistants vocaux » plus naturels.

La science-fiction a aussi souvent exploité le filon de l’incommensurabilité du temps humain et du temps des machines. Par exemple, dans le film Her de Spike Jonze (2013), le protagoniste est séduit par son système d’exploitation et finit par tomber amoureux d’« elle ». Néanmoins, au plus fort de leur liaison (platonique), elle lui avoue que, pendant la durée de leur conversation intime, elle a pu lire plusieurs milliers de livres et converser avec plusieurs centaines d’autres personnes.

Le roman d’Antoine Bello Ada met en scène une créature virtuelle chargée d’écrire des romans à l’eau de rose et un inspecteur qui cherche à la retrouver après qu’elle s’échappe de l’atelier de ses créateurs. Ada sait jouer avec les sentiments de l’inspecteur et elle a la fâcheuse tendance à effectuer des recherches sur des éléments de sa vie en même temps qu’ils discutent. Quant à sa collègue, Jessica, celle-ci est programmée pour écrire des biographies personnalisées avec la faculté de traiter des dizaines de milliers de clients en parallèle… L’imaginaire de l’intelligence artificielle nous rappelle que les créatures artificielles manquent cruellement d’un ici et d’un maintenant pour pouvoir être considérées pleinement comme autre chose que des objets.

L’horloge atomique d’Hewlett-Packard, qui définissait le temps sur le fuseau horaire japonais. halfrain/FlickrCC BY-NC

Les chercheurs qui essaient de donner aux machines la possibilité d’interpréter le langage humain font aussi face à des défis colossaux. Saisir la temporalité reste ce qu’il y a de plus difficile. Une simple phrase comme « Maintenant, ça suffit ! », qu’un enfant comprend immédiatement, reste une énigme pour des systèmes informatiques, car que signifie ce « maintenant » ? Certainement pas la même chose que dans « Maintenant, il est temps de passer à table ». Chacun comprend que seule une expérience de la vie permet de saisir les nuances de la langue et que tout ne se ramène pas à des « faits » que l’on peut encoder dans des systèmes informatiques. En particulier, notre propre perception du temps qui passe s’inscrit dans une rythmicité journalière, qui s’inscrit dans une rythmicité plus longue (le mois, l’année, etc.), qui elle-même s’inscrit dans le chemin d’une vie, chemin qui prend son sens dans son inscription dans une histoire plus longue, voire dans un rapport à un temps non mesurable comme le montrent les mythes de toutes les civilisations.

Le véritable danger de l’intelligence artificielle, en voulant sans cesse tout accélérer, ne serait-il pas d’occulter cette dimension fondamentale de l’être humain à savoir, non pas seulement que les choses prennent du temps, mais aussi que la maturation de toute bonne chose demande un temps incompressible ? Les blés ont besoin de temps pour mûrir et le pain a besoin d’un temps pour cuire. Si un jour les robots comprennent cela, on pourra dire qu’ils seront devenus alors véritablement… « humains ».

Les records de chaleur signifient qu’il faut changer le discours sur l’urgence climatique

  1. Kamyar RazaviPhD candidate in the School of Communication, Simon Fraser University

Déclaration d’intérêts

En plus d’être un candidat au doctorat à SFU, Kamyar Razavi est également producteur de nouvelles nationales pour Global News.

Partenaires

Simon Fraser University
CC BY NDNous croyons à la libre circulation de l’information

Nouvelle normalité. Record battu. Sans précédent.

Ces derniers jours, alors que l’Ouest canadien et les États-Unis cuisaient sous une canicule sous le signe des changements climatiques, les superlatifs se multipliaient pour décrire un phénomène inouï : dans la communauté britanno-colombienne de Lytton, le thermomètre a atteint un niveau ahurissant de 49,5 °C, le 29 juin, battant tous les records de chaleur trois jours de suite.

On peut comprendre que pareil chiffre effraie ou choque. Mais quelqu’un pouvait-il réellement s’en étonner ? Non. Depuis plus de 40 ans, les scientifiques nous préviennent : les changements climatiques entraîneront des canicules de plus en plus longues et intenses. Parler de « normales » et de « nouveaux records » n’a plus beaucoup de sens.

Mais si l’on veut faire face à la crise climatique, il ne sert à rien d’appuyer sur l’idée que l’humanité « aurait dû savoir », « aurait dû agir plus tôt » ou que nous devrions « avoir honte de notre inaction ». Au strict plan de la communication, ça ne marche pas.

Parlons climat

Quelle serait la meilleure approche pour communiquer sur le changement climatique ?

D’abord, en parler davantage. Le réchauffement planétaire est la plus grande urgence à laquelle la planète ait jamais été confrontée, mais on ne le saurait pas à en juger par le contenu des médias.

En 2020, les reportages sur le changement climatique ne représentaient que 0,4 % des informations diffusées à la télé et à la radio américaines. Soit presque moitié moins qu’en 2019 à 0,7 %. En 2021, même au milieu d’une canicule sans précédent frappant tout l’axe des Rocheuses de la Californie au Yukon, on y faisait rarement référence.

Un « modèle du déficit » en déficit

Ironiquement, le plus grand angle mort tient à la manière dont on informe le public.

L’approche conventionnelle repose le « modèle du déficit d’information ». Selon ce principe, le public agira sur le changement climatique si on leur donne des faits.

Cette approche fondée sur l’information façonne toute la communication, aussi bien les campagnes de lutte contre l’alcool au volant que les changements climatiques.

Sauf que le lien entre ce que les gens savent et leurs actions n’est pas toujours linéaires. Fournir davantage de faits à une personne politiquement motivée au climatoscepticisme n’aura aucun effet.

L’information, quoique cruciale, ne suffit pas devant un sujet difficile à appréhender. Pour un individu pris isolément, le problème du changement climatique peut paraître immense, effrayant et insoluble. Si l’on veut que l’individu s’engage et, par extension, induise une action politique, la crise climatique doit prendre une dimension personnelle, immédiate, compréhensible et résoluble.

Estimation du pourcentage d’adultes qui pensent que la Terre se réchauffe. Le programme de communication sur le changement climatique de Yale n’est pas responsable des analyses ou des interprétations des données présentées ici._. Cartes des opinions climatiques canadiennes 2018, YPCCC

Les diagrammes, les graphiques et même les photos d’ours polaires n’y changeront rien. Au Canada, 83 % de la population convient que la Terre se réchauffe. Mais 47 % pensent que cela ne leur causera aucun préjudice personnel.

Pour toucher les gens, il faut alimenter la conversation avec des histoires de personnes qui s’attaquent au problème et, ce faisant, améliorent leur qualité de vie là où ils vivent. Ces exemples transforment une matière jugée abstraite et effrayante en un sujet tangible et quotidien – et « réglable ».

Ça ne sert à rien de parler un climatosceptique en ressassant les mêmes données et les mêmes faits qu’on expose depuis des années, affirme la climatologue Katharine Hayhoe.

Des solutions qui comptent

Les spécialistes de la communication environnementale soulignent depuis longtemps que l’un des principaux obstacles à la mobilisation est une communication trop orientée sur la peur.

Le défi consiste plutôt à associer l’alarmisme et la capacité d’agir. La combinaison de la peur et de l’aptitude à agir induit ce qu’on appelle la « maîtrise du danger », c’est-à-dire des actions visant à atténuer le danger. C’est l’inverse de la « maîtrise de la crainte », qui tend plutôt au déni et à l’inaction.

Avec la Covid-19, la communication était fortement centrée sur l’aptitude de chacun à influer le cours des choses : lavage des mains, distanciation physique, masque. Dans le cas du changement climatique, les informations sur l’aptitude individuelle sont beaucoup moins évidentes.

On affirme souvent que les grands émetteurs, notamment les producteurs de combustibles fossiles, sont les premiers responsables et qu’il leur incombe de réparer les dégâts. D’après le quotidien The Guardian, seulement 100 entreprises seraient responsables de 71 % des émissions.

Oui, il est clair que le monde doit cesser de brûler des combustibles fossiles – pétrole, gaz et charbon. Mais pour y parvenir, les individus peuvent aussi afficher des exemples de comportement pro-environnemental.

Trois hommes font un égoportrait pendant une randonnée
On peut afficher des photos de comportements favorables à l’environnement, susceptibles d’inspirer ceux qui vous suivent. Shutterstock

Il peut s’agir d’un geste aussi simple que de publier sur les médias sociaux des photos de campagnes de nettoyage communautaires, de randonnée ou de messages sur l’utilisation des transports en commun, par exemple. Cette forme de communication – en contrepied d’un mode de vie à forte intensité de carbone – normalise l’urgence et l’importance de protéger la Terre, mais aussi la capacité individuelle d’agir.

Certains des communicateurs les plus efficaces sont les météorologues de la télévision, qui ont un auditoire fidèle. La plupart abordent la question en relation avec le vécu de leur public.

Il faut le voir pour le croire

La communication sur les risques s’appuie souvent sur une injonction morale – « faites ceci ou cela, sinon… »

Par exemple, dans un parc, une affiche intime de ne pas nourrir les canards parce que la nourriture humaine est mauvaise pour eux. Et les visiteurs continuent de nourrir les canards.

Or, une bonne communication devrait plutôt s’appuyer sur des normes sociales dites « tacites », qui invitent à se conformer au bon comportement d’autrui qui leur est bénéfique.

Au Royaume-Uni, en 2015, une campagne invitait les gens à « ramener leurs déchets à la maison, d’autres le font ». Avec un tel message, une personne sera moins susceptible de jeter ses détritus que si les panneaux indiquent « Garder votre parc propre. Ne jetez pas vos déchets. »

L’un des moyens les plus efficaces de communiquer l’urgence climatique consiste simplement l’histoire de personnes et de communautés agissantes.

On en trouve un excellent exemple dans la série « En avant, les Premières Nations », du webzine Canada’s National Observer. Ses reportages expliquent comment les communautés ouvrent la voie vers un avenir fondé sur les énergies renouvelables.

Certains grands médias d’information, comme Global News, où je travaille, y consacrent plus de temps et repensent leur couverture climatique. Récemment, un grand reportage rapportait la transition énergétique profonde en cours en Alberta.

des panneaux solaires sur une ferme
Certains médias consacrent plus de temps aux reportages sur des solutions climatiques, comme la transition vers les énergies renouvelables. Shutterstock

Ces reportages sur des transformations en cours envoient le message que l’action pour atténuer la crise climatique est possible, normale, valorisante et souhaitable. Ces exemples concrets, qui montrent la voie, dynamisent et mobilisent ceux qui sont prêts à l’action.

Ils déplacent aussi la conversation, qui vise habituellement les sceptiques et les négationnistes, vers des valeurs et des habitudes favorables chez les gens de plus en plus sensibilisés et inquiets devant l’urgence climatique.

Au lieu d’alimenter le récit de la peur, les histoires de solutions climatiques renforcent le sentiment du public quant à sa capacité d’agir. Elles l’y éveillent en se fondant sur le principe de toute bonne communication : joindre les gens là où ils en sont à travers une histoire mobilisatrice.

C’est le principe de narration 101 pour rallier le public au lieu de le repousser comme le font encore trop de comptes-rendus sur le climat.

Pourquoi les athlètes françaises remportent-elles moins de médailles que les hommes ?

  1. Hélène JoncherayChercheuse en sociologie du sport de haute performance (INSEP), Université de Paris
  2. Christine Hanonréférente scientifique fédération française athlétisme, Institut national du sport de l’expertise et de la performance (INSEP)
  3. Sylvaine DeryckeMaîtresse de conférences en sociologie et anthropologie du sport, Université de Bretagne occidentale
Université de Paris

Université de Paris apporte un financement en tant que membre adhérent de The Conversation FR.

Voir les partenaires de The Conversation France

CC BY NDNous croyons à la libre circulation de l’information
Reproduisez nos articles gratuitement, sur papier ou en ligne, en utilisant notre licence Creative Commons.

Republier cet article

Les JO de Tokyo, dont l’ouverture est imminente, vont accueillir presque 49 % d’athlètes femmes, toutes nationalités confondues, un record. Et la parité devrait être tout à fait atteinte aux prochains jeux, en 2024, à Paris. Enfin, la parité… dans la participation. Celle relative aux performances est encore largement hors de portée, du moins en France. Ainsi, tous sports confondus et proportionnellement au nombre de sélections, les Françaises ont remporté 1,7 fois moins de médailles que les Français sur les trois dernières éditions des Jeux olympiques d’été (Pékin 2008Londres 2012 et Rio 2016).

Or la France est la seule nation parmi les neuf meilleures – Chine, États-Unis, Grande-Bretagne, Russie, Allemagne, Corée, Italie, Australie – à présenter une telle sous-représentation de médaillées. Le constat est particulièrement évident en athlétisme : sur ces mêmes trois événements, les hommes ont remporté cinq fois plus de médailles que les femmes !

Différence de médailles entre les hommes et les femmes : un score négatif indique moins de médailles pour les femmes. Fourni par l’auteur

Ces chiffres sont issus de recherches menées par des sociologues, dans le cadre d’un partenariat avec l’Insep (Institut national du sport, de l’expertise et de la performance) et sous l’égide de la Fédération française d’athlétisme. La FFA avait en effet identifié cette différence de résultats entre ses sportifs et ses sportives et avait donc un double objectif : d’une part, vérifier que ce constat de terrain était bien statistiquement établi. Et d’autre part, si tel était le cas, comprendre quels éléments pouvaient expliquer cette différence.

Une enquête de haut niveau

Comme le révèlent les chiffres cités précédemment, les conclusions de l’analyse statistique sont sans appel. La première partie du contrat étant honorée, restait à savoir d’où venaient ces différences de performances. Pour répondre à cette question, ce ne sont pas les spécificités entre les hommes et les femmes qui ont été étudiées, mais plutôt les paramètres qui permettent de performer et, parmi eux, ceux contribuant au décalage dans les performances des sportifs et des sportives.

Différence de médailles entre les hommes et les femmes en athlétisme. Fourni par l’auteur

Trente athlètes français de haut niveau (15 hommes et 15 femmes) et 22 acteurs gravitant autour d’eux (entraîneurs, cadres fédéraux, acteurs du secteur privé…) ont été interviewés. Cet échantillon est assez exceptionnel puisque les meilleurs athlètes français (ceux qui ont rapporté le plus de médailles aux Jeux olympiques, Championnats du monde et Championnats d’Europe) y sont représentés, ainsi qu’un large panel d’acteurs qui coconstruisent avec eux l’athlétisme en France. Il en est ressorti plusieurs observations majeures dont trois particulièrement importantes.

Premier défi : capitaliser sur la performance

D’abord, rappelons qu’en athlétisme, il est difficile pour un athlète, quel que soit son genre, de transformer les performances sportives en performances économiques. Remporter une médaille ne suffit en effet pas à assurer la pérennité d’une carrière.

Stabiliser ses revenus demande des compétences sur la gestion du statut d’entrepreneur libéral, ce qui manque parfois dans l’apprentissage du métier de sportif de haut niveau. Ainsi, sur les 30 athlètes interrogés, 16 seulement bénéficient d’une stabilité économique dans le temps, leur permettant de se consacrer pleinement à leur carrière avec sérénité. Parmi eux, cinq hommes sont de multiples médaillés et/ou suffisamment médiatisés pour bénéficier de sponsors assurant des revenus stables. 11 autres (sept femmes et quatre hommes) cumulent des aides fédérales à des partenariats privés, et s’appuient également si nécessaire sur les revenus de leur conjoint. Les 14 athlètes restants sont quant à eux dans une situation plus précaire.

Or l’enquête révèle que lorsqu’il s’agit de capitaliser sur ses performances, la question du physique est beaucoup plus importante chez les femmes que chez les hommes. Cela peut poser problème, surtout lorsque les sportives ne correspondent pas aux standards de beauté normatifs. Il y a ainsi un paradoxe entre l’exigence de la performance, qui impose aux femmes d’accepter des transformations corporelles ou des changements de « féminité », et l’obtention de contrats de partenaires privés, qui dépend fortement de l’image de « féminité traditionnelle ».

Deuxième défi : gérer son image en ligne

Cette difficulté peut se cumuler avec une deuxième observation majeure : gérer son image sur les réseaux sociaux n’est pas chose aisée. Sportifs et sportives ne sont pas toujours préparés à cette activité, pourtant devenue presque incontournable. D’autant que le montant des contrats avec les partenaires privés peut dépendre en partie du nombre de « followers » de l’athlète.

Hommes comme femmes manquent de compétences et de formation dans ce domaine, mais en plus, les secondes ont tendance à être surexposées sur les réseaux sociaux. Ce qui peut être à double tranchant. Pour celles qui ne correspondent pas aux standards de la « féminité traditionnelle », cette nouvelle médiatisation peut devenir une source de pression supplémentaire. En revanche, pour les sportives qui savent construire leur image et adapter leur communication aux attentes de la société, les réseaux sociaux peuvent être une opportunité pour capter certains contrats financiers, par exemple, dans le domaine du bien-être, de la santé, du fitness, etc. En résumé ? Si globalement ce « marché athlétique » n’est pas à l’avantage des femmes, il ne faut cependant pas nier la capacité « d’empowerment » de certaines d’entre elles lorsqu’elles en ont l’opportunité.

Troisième défi : la parentalité

Enfin, l’étude fait émerger un troisième constat majeur : le rapport des sportifs et des sportives à la parentalité est différent. Parmi les 30 sportifs interrogés, six sont pères et cinq sont mères. Les pères font tous partie des meilleurs athlètes et quatre d’entre eux estiment que la paternité n’est pas incompatible avec le sport de haut niveau, voire, au contraire, peut représenter une force supplémentaire. Elle est aussi, parfois, source de pression, puisque ces sportifs apportent la majeure partie des revenus de leur foyer, alors que la grande majorité des mères s’appuie sur les revenus de leur conjoint ou de parents. Pour les deux meilleures athlètes parmi les mères, la maternité est aussi envisagée positivement, à condition d’être programmée et qu’elles aient l’assurance d’un soutien de la part de leurs partenaires privés.

En revanche pour sept sportives, dont deux mères, la maternité est incompatible avec la carrière sportive de haute performance et est ainsi envisagée en fin de carrière. L’étude démontre donc que des sportives sont prêtes à faire le deuil de la maternité au nom de la performance.

Or un tel sacrifice est-il indispensable ? Le handball féminin s’est doté d’une convention collective pour assurer le salaire des joueuses professionnelles pendant un an lors d’une grossesse. Et la Fédération internationale de football cherche à créer un congé maternité pour les footballeuses professionnelles. De son côté, d’après nos informations, la FFA compte s’appuyer sur cette enquête pour mettre en place plusieurs mesures visant également à faire évoluer les pratiques et les représentations des femmes dans le sport.

Et du côté des solutions ?

La première étape va consister à intégrer, dans l’ensemble des formations de la Fédération, des modules spécifiques reprenant les résultats de cette étude. L’objectif est de susciter des réflexions complémentaires chez les entraîneurs sur la façon de prendre en compte toutes les spécificités d’un individu, y compris son genre. Avec un équilibre à trouver : ne pas renforcer les stéréotypes, mais ne pas nier les spécificités. Un an de travail va ainsi être consacré à finaliser la transmission du rapport et à organiser les modules de formation.

Mais il ne s’agira pas de s’arrêter là. La FFA réfléchit aussi à déployer un système de mentorat pour permettre à des femmes leaders d’accompagner leurs consœurs sportives, ou encore à renforcer et systématiser des formations spécifiques aux réseaux sociaux pour les athlètes. Elle va également proposer des mesures incitatives pour encourager les femmes à passer des diplômes d’entraîneur, en particulier de haut niveau : en effet plus le niveau de certification monte, moins les femmes à s’y présenter sont nombreuses.

L’athlétisme, bien que sport mixte, reste encadré très principalement par des hommes, et il faudra là encore comprendre pourquoi. Cette recherche a ainsi fait émerger de nouvelles questions, dont il semble important de continuer à chercher les réponses. Avec l’objectif que l’équilibre ne se retrouve plus seulement dans la participation des sportifs et sportives français… mais aussi dans le nombre de médailles remportées.

Salvador : le pari à haut risque du président sur le bitcoin

  1. Jean-Michel ServetHonorary professor, Graduate Institute – Institut de hautes études internationales et du développement (IHEID)
Graduate Institute - Institut de hautes études internationales et du développement (IHEID)
CC BY NDNous croyons à la libre circulation de l’information

Le gouvernement de Nayib Bukele offre l’équivalent de 30 dollars en bitcoin à celles et ceux qui ouvrent un compte via le portefeuille électronique dédié Chivo. Marvin Recinos / AFP

Lors du Bitcoin 2021, principale conférence annuelle consacrée aux cryptoactifs réunie les 4 et 5 juin 2021 à Wynwood, un quartier branché de Miami, Nayib Bukele, président du Salvador depuis 2019, a créé la surprise en annonçant dans une vidéoconférence que son pays allait adopter le bitcoin comme monnaie légale. Une décision immédiatement actée par une loi approuvée le 9 juin par 64 parlementaires sur 82. Le 7 septembre, le Salvador sera ainsi le premier pays à s’engager dans cette voie.

StatistaCC BY

Cette annonce a effectivement de quoi surprendre. Tout d’abord, ce qui se passe au Salvador s’inscrit à rebours des décisions d’autres États, et non des moindres, qui non seulement limitent fortement mais interdisent même parfois l’usage du bitcoin en tant que moyen de paiement (comme la Bolivie, le Maroc, l’Algérie, l’Égypte, le Népal et le Bangladesh, l’Indonésie, la Turquie et le Vietnam) ou dans les transactions bancaires (comme la Chine, le Cambodge, le Canada, l’Équateur, le Nigeria, l’Arabie saoudite et la Jordanie).

Ensuite, bien souvent, les pays dont un pourcentage significatif de la population adopte le bitcoin comme moyen de paiement sont soumis à une forte inflation (tels le Liban, le Nigeria ou le Venezuela). Ce n’est en rien la situation du Salvador, où la hausse des prix, en rythme annuel, après avoir été négative au second semestre 2020, a été depuis cantonnée au-dessous de 3 %.

En outre, pour ce qui est de l’usage, on peut douter que le Salvador, où l’exclusion bancaire frappe 70 % des habitants et où plus de 30 % de la population vit sous le seuil de pauvreté, soit seul capable de créer les conditions techniques d’un usage généralisé du bitcoin et son acceptation sociale.

La population peu convaincue

Pour favoriser l’usage de la principale cryptomonnaie, le gouvernement a décidé que celui ou celle qui s’enregistrera sur l’app Chivo (un portefeuille électronique) permettant de payer en bitcoin et d’en recevoir, verra son compte crédité l’équivalent de 30 dollars… en bitcoin.

On peut remarquer que ceux et celles qui ouvriront ce compte pourront immédiatement demander sa conversion… en dollars. Peut-être doit-on douter de l’efficacité de la mesure en termes de changement des habitudes de paiement ; mais non de son coût pour les finances publiques… à moins que l’initiative doive être comprise comme une mesure de relance économique par la demande… une sorte de revenu universel via le bitcoin !

D’ailleurs, l’annonce du président n’a pas convaincu : selon la Chambre de Commerce du Salvador, 92 % de plus de 1 600 enquêtés ont déclaré leur hostilité à l’acceptation du bitcoin et 93,5 % ont déclaré qu’ils ne voulaient pas être payés en bitcoin, devise qui se distingue par sa forte volatilité.

Selon une étude menée par le Francisco Citizens Research Center (CEC) à l’Université de Gavidia, 53,5 % des Salvadoriens pensent en outre que les mesures visant à établir le bitcoin comme monnaie légale ne sont « pas du tout correctes » et pour 24 % elles sont juste « un peu correctes ».

Au Salvador, 30 % de la population vit sous le seuil de pauvreté. Marvin Recinos/AFP

Pourquoi le pays se lance-t-il dès lors dans l’inconnu en adoptant la cryptomonnaie comme devise officielle ? L’un des principaux arguments du gouvernement salvadorien est que la mesure vise à réduire le coût des transferts des migrants. En 2019, ils représentaient 20,9 % du PIB dans le principal pays du Sud en matière de transferts des migrants. Ces transferts bénéficient à un million de familles qui reçoivent en moyenne 195 dollars par mois.

Il y a 20 ans, le pays avait d’ailleurs abandonné sa monnaie nationale au profit du dollar américain (comme l’Équateur) en raison de l’importance des remesas, les fonds envoyés par les migrants salvadoriens installés principalement aux États-Unis (en particulier à Washington, Los Angeles, Houston et New York).

Or, ce coût pourrait au contraire doubler voire tripler par rapport aux méthodes traditionnelles d’envoi. Cela tient à ce que l’usage interne du dollar fait qu’à la commission d’envoi (en moyenne 2,85 %, soit la plus basse d’Amérique latine et des Caraïbes et l’une des plus basses au monde) ne s’ajoute aucune commission de change en monnaie nationale vu l’usage interne du dollar. Et la commission de change du dollar en bitcoin est à minima de 5 %.

L’ombre de la mara salvatrucha

Selon le gouvernement, l’adoption du bitcoin doit également doper l’économie du pays alors que les dépenses publiques pour l’éducation ont diminué de 4,6 % à 3,6 % du PIB depuis 2010… et que les dépenses pour la santé sont tombées de 8,24 % du PIB à 7,1 %.

Encore faut-il pour cela que les infrastructures soient à la hauteur des exigences technologiques pour le fonctionnement d’une cryptomonnaie. Seulement 45 % de la population salvadorienne a aujourd’hui accès à Internet et il n’existe dans tout le pays que deux bornes pour changer les bitcoins en dollars ou acquérir des bitcoins contre dollar.

Le bilan de l’utilisation du bitcoin comme moyen local de paiement dans la zone balnéaire d’El Zonte, en 2019, reste mitigé. Stanley Estrada/AFP

En 2019, El Zonte, une station balnéaire connue sous le nom de Bitcoin beach, avait adopté le bitcoin comme moyen local de paiement. Mais le succès n’a pas été à la hauteur des espérances des promoteurs, notamment en raison d’un accès à Internet très défectueux.

Le gouvernement a toutefois annoncé engager une dépense d’un million de dollars pour l’installation de 1 500 bornes afin de faire face à la demande de change en bitcoins. On peut donc considérer avant tout dans l’immédiat l’annonce de Nayib Bukele, 39 ans, comme un coup de pub pour apparaître branché. Mais il est aussi possible de le soupçonner, comme Washington, d’avoir scellé un pacte avec les gangs locaux.

Le 1er juillet, les États-Unis, qui accusent cinq proches de Nayib Bukele de corruption, ont ainsi mis en garde le pays contre les risques du bitcoin, s’appuyant notamment sur l’exemple de la cyberattaque et demande de rançon dont venait d’être victime la compagnie pétrolière Colonial Pipeline quelques semaines plus tôt.

Le Salvador présente en effet un taux de criminalité parmi les plus élevés au monde, hors conflits armés : 81,2 meurtres pour 100 000 habitants en 2016. Un sombre record, mais un chiffre en baisse continue depuis. Le président du Salvador est en effet soupçonné de négocier secrètement avec le principal gang, la mara salvatrucha, qui se livre localement au racket et au trafic de drogue tout en ayant de nombreuses ramifications internationales, pour faire baisser le nombre d’homicides.

Le président Nayib Bukele est soupçonné de négocier secrètement avec le puissant gang de la mara salvatrucha. Marvin Recinos/AFP

C’est ce qui expliquerait l’appui politique dont le président a pu bénéficier lors des dernières élections législatives de février 2021 et sa large popularité actuelle dans le pays.

Début juillet, Alicia Bárcena, secrétaire exécutive de la CEPALC, la Commission régionale des Nations unies pour l’Amérique latine et les Caraïbes, a mis en garde le gouvernement du Salvador contre les risques macroéconomiques, financiers et juridiques, mais aussi de blanchiment d’argent que pouvait constituer l’adoption du bitcoin comme monnaie légale. La commission régionale de l’ONU a en particulier souligné qu’aucune analyse technique n’avait été réalisée pour évaluer l’impact de cette adoption du bitcoin.

Quant à la Banque mondiale, elle a refusé d’apporter l’aide demandée par le pays afin de mettre en place la généralisation de son usage. En réponse à la dénonciation du caractère énergivore du bitcoin, le président a annoncé l’utilisation d’électricité « propre » pour miner le bitcoin dans le pays grâce à la géothermie des volcans. Le pays pourra en effet sans doute rapidement bénéficier du bannissement du bitcoin de Chine, pays qui réalisait jusqu’à ce printemps 65 % du minage de la cryptomonnaie.