Nous croyons à la libre circulation de l’information
Reproduisez nos articles gratuitement, sur papier ou en ligne, en utilisant notre licence Creative Commons.
Le secteur du bâtiment représente 30 % des émissions de CO₂ de la France, en prenant en compte la fabrication des matériaux, la construction et l’habitation. Cela en fait un poste clé pour la réduction des émissions de gaz à effet de serre.
L’amélioration de la performance énergétique des bâtiments est un levier incontournable de cette réduction. La future réglementation en la matière, la « RE2020 », et apporte une évolution majeure en proposant de nouveaux indicateurs pour évaluer les impacts environnementaux du bâtiment sur l’ensemble de son cycle de vie.
Les particules végétales, des atouts pour l’isolation
Cette nouvelle approche devrait encourager les filières de matériaux qui émettent peu de gaz à effet de serre, comme les « isolants naturels ». Provenant de plantes, ce sont de véritables puits de carbone, en plus d’être compostables en fin de vie. Plusieurs sources de ces isolants sont disponibles en France à travers tout le territoire et toute l’année, permettant potentiellement d’assurer une disponibilité locale, réduisant fortement le coût écologique lié au transport.
La propriété recherchée lors de l’incorporation de particules végétales dans des matériaux biosourcés destinés au bâtiment est en premier lieu l’isolation thermique. Cette dernière est le résultat de la très grande porosité naturelle des agroressources. Cette porosité permet d’emprisonner de l’air, naturellement isolant. Les parois des particules végétales sont composées de polymères hydrophiles. Ces polymères peuvent donc servir de liant, un atout pour la conception de certains matériaux. Les applications possibles en écoconstruction des particules varient donc en fonction de leur biochimie et leur microstructure.
La France, terre d’agroressources
Répondre aux défis de construire et rénover des bâtiments avec des matériaux de construction biosourcés va nécessiter des quantités gigantesques de ressources végétales et des plantes aux propriétés variées. Fort heureusement, ces sources sont nombreuses et potentiellement importantes. La grande majorité de ces agroressources provient de cultures annuelles et notamment de leurs tiges végétales. Les options sont très nombreuses : tournesol, colza, maïs, blé, orge, avoine, seigle, chanvre, riz, miscanthus, roseau sont tous explorés pour des utilisations en écoconstruction.
Historiquement en France, les premières particules végétales identifiées pour la fabrication d’ « agrobétons » sont les co-produits issus du défibrage des tiges de chanvre. Les cultures de chanvre et de lin textile visent principalement à produire des fibres. Le défibrage des tiges de ces plantes produit des particules végétales appelées anas de lin pour la tige de lin et chènevottes pour la tige de chanvre.
Il existe d’autres cultures à fort potentiel sur le sol français. Par exemple, le miscanthus, ou « herbe à éléphant », implanté pour produire de la biomasse en vue d’une valorisation en bioénergie, a un rendement intense, de 15 à 20 tonnes par hectare et par an. Le broyage de la tige de miscanthus produit un seul type de particules végétales qui pourraient être aussi utilisées en écoconstruction.
Arbitrer entre plusieurs applications
Le total des différents gisements annuels recensés sur le territoire français peut être estimé à potentiellement plus de 15 millions de tonnes de ces particules végétales. Ce chiffre comprend les particules ayant déjà des voies de valorisation, telles que le paillage horticole, la litière animale, la bioénergie.
Concernant les tiges non récoltées aujourd’hui (tournesol, colza, maïs, une partie des céréales), il est nécessaire de prendre en compte le besoin agronomique du sol de prévoir d’y laisser de la biomasse. Laisser la moitié permettrait de s’affranchir des dangers agronomiques.
[Près de 70 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]
S’il y a compétition entre ces différentes applications, le gisement annuel est tellement gigantesque que toutes les voies de valorisation utilisant des particules végétales pourront être fournies sans crainte de concurrence.
Une complémentarité géographique…
Les cultures du chanvre et du miscanthus proposent des surfaces limitées mais promettent d’être implantées sur tout le territoire. Les cultures de maïs et des céréales couvrent pratiquement tout le territoire français, avec des répartitions plus ou moins homogènes selon les régions. Les autres cultures considérées ont des territoires précis.
Carte montrant la répartition géographique des différentes cultures intéressantes pour l’éco-construction. Hélène Lenormand, Fourni par l’auteur
On remarque une complémentarité de ces zones, laissant apercevoir que l’ensemble du territoire français peut être couvert pour les gisements de particules végétales provenant des différentes cultures. La valorisation locale des particules peut ainsi être envisagée, ce qui permettrait de limiter l’empreinte carbone liée au transport de ces matières légères et volumineuses.
… et temporelle
La plupart des cultures considérées sont des cultures annuelles, c’est-à-dire que la récolte se réalise une fois par an, à un moment précis de l’année.
Périodes de récolte des cultures annuelles françaises pouvant générer des particules végétales pour la construction. Hélène Lenormand, Fourni par l’auteur
Il apparaît que la diversité des cultures et donc les différentes périodes de récolte associées permettent une complémentarité temporelle assurant une disponibilité de matière végétale tout au long de l’année. Elle permet d’éviter des contraintes liées à des stocks longs.
Issues de la nature, les particules végétales présentent inévitablement des propriétés variables, mais étant donnée la multitude de cahiers des charges des matériaux biosourcés pour la construction, la diversité et complexité des particules végétales deviennent alors sources de potentialités.
De l’Afghanistan à l’Ukraine : la renaissance de l’OTAN ?
Publié: 4 août 2022, 22:39 CEST
auteur
Julien PomarèdeDocteur et chercheur en sciences politiques et sociales – Sécurité internationale, Université Libre de Bruxelles (ULB)
Déclaration d’intérêts
Julien Pomarède ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Nous croyons à la libre circulation de l’information
Reproduisez nos articles gratuitement, sur papier ou en ligne, en utilisant notre licence Creative Commons.
Republier cet article
Le 7 juillet 2022, des soldats roumains et polonais de l’OTAN montent la garde devant le lieu où se tient une conférence de presse des présidents polonais et lituanien. Wojtek Radwanski/AFP
« Régénérée », « revitalisée », « ressuscitée » : les adjectifs ne manquent pas pour qualifier le retour de premier plan de l’OTAN depuis le début de l’agression de l’Ukraine par la Russie le 24 février 2022.
L’idée d’une renaissance de l’OTAN tire sa crédibilité d’un constat simple. Après deux décennies d’errements dans le bourbier afghan, l’Alliance retrouve sa mission historique : dissuader une attaque conventionnelle d’un État tiers – qui plus est de l’ancien ennemi, la Russie – contre ses membres. Dès lors, la guerre en Ukraine marquerait une nouvelle césure dans l’histoire de l’OTAN, à l’image de la fin de la guerre froide ou du 11 septembre 2001. Elle lui donnerait une nouvelle raison d’être, traduite par un renforcement de son dispositif militaire sur le flanc Est – la plus importante solidification de sa défense collective depuis la chute du bloc communiste.
En quoi consiste exactement cette relance de l’OTAN, et quelles en sont les limites ?
De la gestion de crises…
Il faut l’admettre, l’idée d’une OTAN relancée a un fond de vérité. Les mesures prises en réaction à la guerre en Ukraine sont incomparablement plus cohérentes, solides et consensuelles que les opérations dites de « gestion de crises » menées par l’Alliance depuis la fin de la guerre froide dans les Balkans (années 1990), en Libye (2011) et en Afghanistan (années 2000-2010).
Ces engagements militaires furent caractérisés par de fortes dissensions entre les États membres de l’OTAN sur les objectifs à atteindre, les ressources nécessaires et les procédures opérationnelles. Une des raisons essentielles à ces tensions multilatérales réside dans le fait que, dans la gestion de crises, l’OTAN combat des risques (terrorisme, instabilités régionales, piraterie, etc.) dont la dangerosité est différemment perçue selon les États membres.
Immanquablement, ces variations trouvent une traduction dans la conduite des opérations. Par exemple, certains États membres s’engagent davantage que d’autres dans telle ou telle mission, en effectifs et au sein des combats, selon qu’ils estiment ou non que ces missions constituent une priorité pour leur sécurité nationale.
[Près de 70 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]
Officiellement, la FIAS luttait contre le terrorisme en menant des opérations de contre-insurrection. Mais cet objectif très général était entendu de manière hétérogène au sein de l’Alliance. De fait, il comportait beaucoup de sous-éléments concurrents (stabilisation militaire, lutte contre le trafic de drogue, reconstruction, etc.) et des différentiels d’engagement très significatifs parmi les États participants, en particulier entre les États-Unis et les Européens. Si bien qu’il était quasi impossible de déceler un but clair.
Ces difficultés ont participé à la défaite révélée aux yeux du monde entier en juin 2021, lorsque les talibans reprirent le contrôle de Kaboul.Après 20 ans en Afghanistan, les troupes de l’OTAN se retirent, Euronews, 30 avril 2021.
… au retour de la défense collective
La réaction de l’OTAN à la guerre en Ukraine contraste avec ce bilan mitigé.
Remontons là aussi un peu dans le temps. La séquence s’engage à partir de l’annexion de la Crimée par la Russie en 2014. Il s’agit du point de bascule : l’OTAN se recentre alors sur son pilier historique, la défense collective, matérialisée dans l’article 5 du Traité fondateur de Washington (1949), dans lequel est stipulé qu’une agression armée contre l’un des États membres – perspective apparue envisageable au vu de la dégradation des relations russo-otaniennes à partir de 2014 – susciterait une réponse militaire collective de l’Alliance.
Trois sommets importants ont jalonné cette évolution. Au pays de Galles (2014), le Plan d’action réactivité de l’OTAN est adopté. Il inclut des mesures de réassurance à destination des pays d’Europe centrale et orientale. Les effectifs de la Force de réaction de l’OTAN sont triplés et on annonce la création, au sein de celle-ci, d’une composante à haut niveau de préparation, déployable sur un très court préavis.
Le secrétaire général de l’OTAN, Anders Fogh Rasmussen, le président ukrainien Petro Porochenko et le premier ministre britannique David Cameron le 4 septembre 2014 lors du sommet de l’OTAN à Newport (pays de Galles). Leon Neal/AFP
Le sommet de Varsovie (2016) consolide le recentrage sur la défense collective, en activant la présence rehaussée (Enhanced forward presence – EFP) de l’OTAN sur son flanc Est. Mise en place en 2017, cette force est composée de quatre bataillons multinationaux stationnés dans les trois pays baltes (Estonie, Lettonie, Lituanie) et en Pologne. Après février 2022, l’EFP est élargie à la Roumanie, à la Bulgarie, à la Hongrie et à la Slovaquie. En juin 2022, on compte entre 900 et 11 600 soldats en renfort dans chaque pays.
Enfin, le Sommet de Madrid (juin 2022) scelle cette évolution. Il marque l’adoption d’un nouveau Concept stratégique, texte boussole de l’Alliance, qui relègue la Russie du rang de partenaire à celui de première menace. Aussi, la Suède et la Finlande sont invitées à devenir membres, après que ces deux pays aient demandé l’adhésion.
La séquence allant de l’annexion de la Crimée à l’invasion de l’Ukraine est donc marquée par un recentrage sur ce qu’il y a de plus consensuel en sein de l’Alliance : une menace étatique, l’article 5, des mesures militaires qui ont un incontestable effet dissuasif. L’OTAN ne fait pas que dissuader, mais attire de nouveaux membres.
La phase de « mort cérébrale de l’OTAN », selon une expression détonante d’Emmanuel Macron en novembre 2019, semble soudain se dissiper, si bien que la débâcle afghane fait presque office de mauvais souvenir au moment de la résurgence de la menace russe. En bref, la géographie politico-militaire de l’OTAN, alors dispersée dans des opérations de gestion de crises allant jusqu’en Asie centrale, se clarifierait avec le retour du vieil ennemi et des schémas de dissuasion qui l’accompagnent.
Défense collective et logiques de compromis
Attention, toutefois, à ne pas tomber trop vite sous le charme du discours officiel, qui présente l’action actuelle de l’OTAN comme l’incommensurable succès d’une défense collective renforcée.
Souligner la différence entre les difficultés de la gestion de crises et les facilités présumées de la défense collective ne suffit pas pour comprendre la pérennité de l’OTAN et ses transformations. Cette dichotomie vaut jusqu’à un certain point, à commencer par la comparaison elle-même. Contrairement à l’Afghanistan, l’OTAN n’est pas en guerre en Ukraine, mais se situe dans une posture de dissuasion visant à empêcher une attaque russe contre l’un de ses pays membres. En cela, la présence avancée de l’OTAN n’a pas à pâtir des gigantesques difficultés opérationnelles et en matière de prise de décision inhérentes à la conduite d’une guerre en format multilatéral.
Ensuite, si la menace russe est perçue de manière plus consensuelle que d’autres catégories de risque comme le terrorisme, son niveau de dangerosité ne fait pas non plus l’unanimité. De fait, la défense collective reste le noyau dur de l’Alliance, mais sa mise en place n’est pas harmonieuse (ce qui n’était pas non plus le cas lors de la guerre froide, rappelons-le).
La Russie est certes qualifiée de « menace directe », surtout depuis février 2022. La déclaration commune issue du récent sommet de Madrid et la tonalité grave du nouveau concept stratégique concernant la Russie montre certes que les Alliés resserrent les rangs face à cette menace. Néanmoins, la raison d’être même d’un texte comme le concept stratégique est d’exposer au grand jour l’unité de l’Alliance autour de principes clefs. Ce qui ne signifie pas, pour autant, que les dissensions disparaissent, loin de là. Le retour post-2014 de la défense collective a ainsi été marqué par des divergences et des compromis entre, schématiquement, deux positions.
D’un côté, celle des pays d’Europe centrale et orientale (pays baltes, Pologne, Roumanie), souvent soutenus par les États-Unis, et partisans d’une posture militaire ferme et consolidée contre la Russie. De l’autre, celle des pays d’Europe de l’Ouest (France, Allemagne, Espagne), favorables à une politique de dissuasion modérée laissant ouvert le dialogue avec la Russie et écartant le risque d’une escalade.
Les premiers souhaitaient l’installation de bases militaires permanentes sur leur territoire afin d’afficher une politique de dissuasion soutenue contre la Russie. Les seconds désapprouvaient, car ils y voyaient une mesure exagérée, susceptible d’engendrer une escalade, et se situant en porte-à-faux par rapport à l’Acte fondateur de la coopération OTAN-Russie (1997), qui exclut tacitement l’installation de structures militaires permanentes chez les futurs membres.
Les Alliés en vinrent donc au compromis suivant : la présence avancée serait « permanente mais rotationnelle ». La force serait physiquement présente mais ses contingents seraient sujets à rotation tous les quelques mois, ce qui satisfaisait les deux orientations.
« Dissuasion par représailles » et crédibilité de l’OTAN
Le fonctionnement militaire même de l’EFP s’innerve de ces différences de points de vue. L’EFP se fonde sur le principe de la « dissuasion par représailles » ( « deterrence by punishment »). Elle ne vise pas le déploiement d’une force militaire suffisamment importante pour rendre immédiatement inopérante une attaque potentielle et saper toute confiance chez l’agresseur en le succès initial de son action armée (la « dissuasion par interdiction » – « deterrence by denial » – l’option initialement promue par les pays baltes par exemple). Il s’agit plutôt de laisser peser la probabilité d’une réplique ultérieure qui augmenterait de manière considérable le coût initial de l’agression.
Emmanuel Macron à son arrivée à la base aérienne Mihail Kogalniceanu, près de la ville de Constanta, en Roumanie, le 14 juin 2022, où sont stationnées des troupes françaises et belges. Yoan Valat/AFP
En cela, les effectifs modérés déployés dans l’EFP en font une présence qui n’a pas pour but d’infliger à la Russie des dommages inacceptables dès les premiers affrontements. L’EFP se conçoit davantage comme un « fil piège » (« trip wire »), qui, une fois franchi (ou plutôt attaqué) déclencherait la réponse militaire complète de l’OTAN, à savoir la mobilisation de sa Force de réaction. De facto, la dissuasion par représailles était la seule option consensuelle possible, car le fruit d’un compromis entre les pays souhaitant une présence substantielle de l’OTAN sur le flanc Est et ceux qui y voient une mesure d’escalade.
En effet, prétendre refouler instantanément, disons d’un État balte, une armée de la taille et de la puissance de feu de celle de la Russie impliquerait d’y déployer une force militaire considérable. Ce qui est, financièrement et politiquement, inenvisageable pour la plupart des Alliés. Ainsi, le renforcement de l’EFP avec quatre bataillons supplémentaires en réaction à l’invasion de l’Ukraine, ainsi que l’annonce au Sommet de Madrid d’une présence américaine renforcée en Europe, se situent dans la continuité de ce compromis.
Par conséquent, cette logique de compromis comporte aussi certaines limites, la plus importante d’entre elles étant la crédibilité des représailles. Se montrer résolu à répliquer est essentiel dans une logique de dissuasion, en particulier dans l’option de la dissuasion par représailles. Celle-ci dépend largement du message envoyé, qui se doit de véhiculer une détermination à user de la force de manière élargie afin de faire payer au prix fort le choix d’une attaque. Or, construire ce discours commun et cohérent dans le cadre d’une politique de dissuasion face à la Russie reste un défi pour l’OTAN, en raison précisément des différences de perception de cette menace entre les États membres.
À terme, l’étalement public récurrent des critiques que s’adressent ces derniers à ce sujet risque d’écorner la crédibilité de la dissuasion otanienne. Mentionnons simplement les reproches réguliers adressés par la Pologne ou les États baltes à l’Allemagne ou la France, accusées de se montrer trop complaisantes vis-à-vis de Moscou.
De ce fait, certains spécialistes doutent de la capacité réelle de l’OTAN à répliquer comme elle le clame officiellement. Par exemple, si la Russie décidait de cibler les contingents norvégiens ou luxembourgeois stationnés en Lituanie pour mettre sous pression la solidarité alliée, l’Allemagne, également présente en Lituanie, y réagirait-elle militairement au risque d’une escalade guerrière ? Ce scénario est certes peu probable, mais pas non plus inenvisageable, étant donné la persistance des menaces de la Russie à l’égard du camp occidental. Ainsi, en déployant des unités aux frontières d’une Russie agressive et en affichant dans le même temps ses dissensions internes, l’OTAN ne fait pas que renforcer sa posture mais prend aussi un risque : s’exposer à des attaques de basse intensité sur ses effectifs, qui ne rentreraient pas parfaitement dans le cadre de l’article 5 et rendraient, par extension, une réponse très délicate à définir.
Schématiquement, la non-action minerait la crédibilité de l’EFP, et la réplique, même limitée, pourrait être prétexte à l’escalade. À terme, des divisions trop explicites pourraient laisser entrevoir au sein de la politique de dissuasion de l’Alliance des poches de vulnérabilités qui, si exploitées, pourraient avoir des effets conséquents sur la crédibilité plus large de l’OTAN.
Une Alliance redynamisée
En conclusion, s’il paraît clair que le retour de la défense collective au sein de l’OTAN contraste dans sa cohérence avec la gestion de crises, la différence ne doit pas être exagérée. Ces deux piliers de l’Alliance partagent un socle commun en matière de négociations multilatérales. Ils résultent de jeux de compromis entre les États membres et présentent tous deux des limites.
La guerre en Ukraine n’a pas sauvé l’OTAN. Celle-ci n’était tout simplement pas en danger de mort – n’oublions pas que le projet « OTAN 2030 » naît sur la fin, pourtant peu glorieuse, des opérations en Afghanistan… Toutefois, l’invasion russe a clairement redynamisé l’Alliance.
Les tensions, les compromis et les ambiguïtés font partie de la vie multilatérale de l’OTAN. Il ne faut pas y voir une contradiction, mais plutôt une normalité. La défense collective, tout autant que la gestion de crises, n’échappe pas à cette réalité. En somme, plutôt que d’assister à une nouvelle guerre froide salvatrice pour une Alliance qui aurait été en perte de repères, comme certains le clament trop rapidement, nous sommes les témoins d’une actualisation des logiques d’inimitiés où se mêlent vieilles rivalités interétatiques et perceptions plus mouvantes des risques.
Nous croyons à la libre circulation de l’information
Reproduisez nos articles gratuitement, sur papier ou en ligne, en utilisant notre licence Creative Commons.
Republier cet article
Entre dispersion de l’attention et travail des plus jeunes pour obtenir des gratifications dans le jeu, les risques sont bien réels. Plateforme Roblox, Author provided (no reuse)
Les questions les plus médiatisées autour des usages du numérique évoquent des paniques morales qui menaceraient particulièrement les jeunes. Les plus récentes portent sur l’allongement du temps d’écran qui rendrait « crétin ». Cette conséquence découlerait de l’implantation des principes de l’économie de l’attention au cœur des réseaux socionumériques. Ces services en ligne sont conçus pour retenir l’utilisateur, afin d’enregistrer le maximum de données sur son activité pour construire des catégories comportementales très fines. Cela favoriserait l’enfermement de l’utilisateur dans ses préférences.
On comprend aisément le défi de retenir l’utilisateur sur un service de communication aux fonctionnalités relativement simples : envoyer un message, recommander un article, etc. Mais dans l’industrie des jeux vidéo, l’activité ludique au cœur du service est a priori plus stimulante. La capture de l’attention est mieux garantie par les game designers, depuis longtemps passés experts de la retenue des joueurs. La médiatisation des paniques morales qui en découlent est donc advenue très tôt. À ce titre, la recherche sur les jeux vidéo permet de prendre un peu de recul sur les discours actuels autour de la rétention débilitante ou de l’addiction pathologique.
Les jeux en ligne permettent notamment de débattre de risques émergents et moins pathologisants. Ceux-ci sont liés à la mise au travail des joueurs pour produire des contenus de jeu, à la gestion de leur attention et à la monétisation des contenus du jeu. Cet engagement des vidéojoueurs, notamment des enfants, peut parfois engendrer des risques psychosociaux ou une surexploitation économique de leur temps. Nous verrons dans la suite en quoi ces questionnements sur les risques sont liés à deux réagencements, entre le modèle économique du jeu en ligne et sa conception logicielle.
L’incitation à produire des contenus vidéoludiques retient le joueur
À partir des années 2000, la démultiplication de l’offre de jeux entérine l’entrée dans une ère de consommation en régime d’abondance. L’accroissement de la concurrence pousse les industriels à adopter des modèles économiques basés sur la rétention des joueurs : ils payent désormais mensuellement un abonnement, puis se font acheteurs réguliers de contenus « monétisés » : bonus, équipements ou modifications visuelles.
Deux risques socioéconomiques en découlent : d’une part l’allongement du temps de jeu pour rentabiliser son abonnement ou ses bonus à validité temporaire. D’autre part, l’apparition de difficultés à maîtriser ses micro dépenses de contenus « monétisés » faites au fil du jeu.
Pour tenter d’accentuer cette « capture », les jeux en ligne tirent déjà profit depuis les années 1990 du « modding » qui consiste pour un joueur expert à modifier un jeu vidéo et à en étendre de fait la durée de vie. Le « mod » produit est par exemple un changement de l’apparence des personnages, de nouvelles possibilités de jeu, ou même de nouvelles géographies inédites.
La gestion de l’attention et la valorisation économique des contenus du jeu produisent de nouveaux risques
Dans les années 2010, les jeux en ligne sont repensés suivant le modèle de plateformes en ligne fonctionnant comme des marchés bifaces : une face regroupe les joueurs producteurs de contenus, une autre face regroupe les joueurs consommateurs. Le processus de « captation de valeur » des clients répartis sur les deux versants du marché est plus facile à maîtriser pour l’entreprise. Ce modèle permet également de mieux identifier les risques encourus par les joueurs sur chaque versant.
Les risques pour les joueurs-consommateurs
Sur le versant des joueurs consommateurs de contenus, le modèle hybride un accès « pay to play » par abonnement qui offre des privilèges avec un accès « free to play » gratuit et sans avantage.
Ce dernier subventionne l’entrée rapide et en masse de joueurs, afin d’accentuer l’effet d’entraînement social – l’effet « de réseaux »– pour écraser les plates-formes concurrentes qui n’arrivent alors plus à capter ces joueurs déjà sédentarisés ailleurs. Trois formes de risques existent sur ce versant du marché.
Un premier risque psychosocial s’accentue sur ces plates-formes. Grâce à l’analyse constante des données d’activité des joueurs, les plates-formes personnalisent en permanence les expériences de jeu. Deux comportements de jeu sont alors stimulés à l’extrême : d’un côté un encouragement constant à explorer la nouveauté, souvent à découvrir des équipements de jeu inconnus et plus rares (armes, protections, consommables, etc.) Une dispersion extrême de l’attention est donc possible.
De l’autre, une incitation aux activités très répétitives de « farming », c’est-à-dire produire de manière ininterrompue une grande quantité d’équipements de jeu. Avec l’espoir de les échanger contre d’autres, plus rares et plus efficaces. Une focalisation prolongée de l’attention sur une activité quasi-mécanique est possible.
Ces deux mécanismes de design retiennent efficacement le joueur, mais peuvent lui faire courir un risque psychosocial. Il est le produit d’une difficulté à interrompre l’activité de jeu et d’une frustration à ne jamais arriver à ses fins.
Deuxièmement, un risque socioéconomique est associé au « farming ». Un joueur désargenté mais spécialiste de la collecte d’équipements en jeu peut échanger ces richesses contre des crédits de temps d’abonnement d’un autre joueur, il est donc capable de prolonger son abonnement sans jamais payer. Se maintenir gratuitement dans le jeu demande d’y exercer une activité de collecte particulièrement chronophage souvent adoptée par des enfants sans argent de poche ou de classe populaire. Avec de possibles empiètements sur d’autres temps de vie.
Un troisième et dernier risque d’ordre socioéconomique et psychosocial peut survenir lorsque l’escroquerie d’autres joueurs est autorisée. L’arnaque intervient souvent à l’instant de l’échange des monnaies virtuelles, des équipements, voire des personnages de jeu. Cette déviance peut de facto être tolérée, car certaines entreprises sont réticentes à punir des joueurs-arnaqueurs qui sont aussi leurs clients. Cette perte de capital économique est souvent perçue comme étant d’autant plus grande que la victime est jeune et a pu passer du temps à jouer. Un risque psychosocial peut aussi survenir chez des joueurs qui perdent brusquement tout ou partie des équipements rares accumulés sur leur personnage, parfois au prix de plusieurs années de jeu.
Les risques pour les producteurs de contenus
Depuis un certain temps, les entreprises mettent à disposition des joueurs un logiciel de création de contenus gratuits ou payants et plus ou moins performants. Deux types de contributeurs coexistent alors sur le versant des producteurs.
Premièrement, des contributeurs plus âgés et expérimentés, dont certains exercent des métiers liés au numérique. Ils travaillent plus volontiers en équipe et créent des contenus de jeu payants. Quelques équipes chevronnées mettent à profit leurs week-ends ou leur temps de chômage pour produire la majorité des contenus plébiscités par les joueurs et empocher le gros des revenus reversés par la plate-forme. Ici figure par exemple pour Roblox le nombre de joueurs pour les 100 mods les plus joués et qui sont principalement payants.
Deuxièmement, on identifie des contributeurs bénévoles, souvent plus jeunes et peu expérimentés, dont certains sont des enfants. Ils produisent l’essentiel des modifications du jeu. Cette production bénévole induit deux effets de rétention.
Le premier suit une logique de saupoudrage : la multitude de « mods » gratuits remporte une d’adhésion limitée au cercle restreint des proches. Par exemple, les amis d’école du producteur de contenus. Mais la somme des contenus atteint beaucoup de joueurs.
Le second effet de rétention découle d’une minorité de « mods » gratuits qui rencontrent de manière imprévisible un vif succès auprès du plus grand nombre, suivant une dynamique de « longue traîne ».
Un débat s’ouvre ici autour de la définition d’un nouveau risque socioéconomique : il vise souvent les quelques contenus gratuits qui remportent un succès imprévu.
Dans leur cas, dès lors que l’activité bénévole encouragée permet de retenir un nombre incalculable de joueurs qui vont payer plus longtemps l’entreprise, ne doit-on pas parler d’exploitation d’un travail gratuit ? Ou bien considère-t-on sans s’appesantir sur les rares succès d’ampleurs que la passion légitime le rattachement désintéressé de tous les joueurs engagés dans des logiques productives ?
Des risques qui dépassent le design attentionnel
La nature des risques encourus par les joueurs en ligne s’avère donc largement déborder les questions de design attentionnel. Tous ces risques sont à la croisée des choix de game design et des choix de modèles économiques des jeux. Il semble donc nécessaire de réguler ces deux éléments conjointement.
Le cas des enfants producteurs de contenus rémunérés illustre la démarche à suivre. Leurs contenus à succès représentent une part minime en proportion de toutes les contributions de joueurs. Mais leur décompte total augmentera avec la massification de publics de plates-formes de jeux équipées d’outils de « modding » destinés aux enfants. À ce titre, l’exemple de la popularisation fulgurante de Roblox auprès des enfants américains devrait être analysé avec attention.
Enfin, on peut mettre en regard un changement législatif de 2017 en France. Il concerne les enfants influenceurs qui font la promotion de marques sur Instagram ou YouTube. L’exception d’emploi d’enfants jusqu’ici en vigueur dans le milieu du spectacle et de la publicité leur est désormais ouverte. Il reste à s’assurer que ce modèle soit suffisamment protecteur et à demander au législateur dans quelle mesure il serait transposable aux activités rémunératrices des jeunes participants à des jeux vidéo en ligne.
Henri BouillonMaître de conférences en droit public, chercheur associé au Centre de recherches juridiques de l’Université de Franche-Comté (CRJFC), Université de Franche-Comté – UBFC
Déclaration d’intérêts
Henri Bouillon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Nous croyons à la libre circulation de l’information
Reproduisez nos articles gratuitement, sur papier ou en ligne, en utilisant notre licence Creative Commons.
Republier cet article
Pour le Conseil constitutionnel, la loi « séparatisme » n’est pas contraire à la liberté des associations religieuses. Shutterstock
Le 22 juillet dernier, le Conseil constitutionnel a rendu sa décision : la loi « séparatisme » n’est pas jugée contraire à la liberté des associations religieuses.
Réputée intouchable, la fameuse loi de Séparation des Églises et de l’État du 9 décembre 1905 a pourtant été modifiée une vingtaine de fois. Mais aucune des modifications n’a été aussi importante que celles opérées par la loi n° 2021-1109 confortant les principes de la République du 24 août 2021, dite loi « séparatisme ».
Cette dernière est en effet marqueur d’une évolution significative de la liberté religieuse en France. Tandis que la liberté religieuse des individus ne cesse d’être confortée en tout domaine, allant parfois jusqu’à remettre en cause les principes ou les pratiques les mieux arrêtés (lecture souple de l’interdiction faite aux personnes publiques de financer des activités religieuses, existence de menus de substitution dans les cantines des établissements scolaires ou pénitentiaires, etc.), l’exercice collectif de la liberté religieuse ne cesse quant à lui d’être davantage encadré et contenu.
Si la liberté des individus est mieux protégée, celle des communautés et associations religieuses est bien davantage surveillée et limitée. La frontière est évidemment délicate à tracer, étant entendu que la plupart des libertés n’ont de sens que si elles sont exercées collectivement, mais c’est bien le mouvement général qui se dessine ces dernières années.
Tradition individualiste
Certes, depuis la Révolution de 1789, la tradition française est individualiste : elle accorde des droits aux individus, mais les refuse obstinément à tout corps intermédiaire. Le député Sanislas de Clermont-Tonnerre disait ainsi, dans un discours à l’Assemblée du 23 décembre 1789 : « il faut tout refuser aux Juifs comme nation et tout accorder aux Juifs comme individu ». Depuis lors, une grande latitude est accordée aux individus en matière religieuse, mais les droits reconnus aux communautés religieuses sont strictement tolérés.
[Près de 70 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui.]
Mais en surplus de cette logique initiale, ce sont aujourd’hui des contraintes nouvelles qui s’amoncellent sur les associations religieuses, placées sous une surveillance sans cesse grandissante des pouvoirs publics. Le terrorisme, la radicalisation et le séparatisme islamistes, dont les pouvoirs publics s’inquiètent logiquement, sont à l’origine de ce mouvement de resserrement des contraintes pesant sur les Églises et communautés religieuses. Et comme le droit ne saurait cibler précisément une religion plutôt qu’une autre sans méconnaître les principes de laïcité et d’égalité proclamés par l’article 1er de la Constitution, les réglementations en vigueur s’appliquent évidemment à tous les cultes.
Or, dans sa décision du 22 juillet 2022, le Conseil constitutionnel a été appelé à se prononcer sur deux dispositifs de contrôle institués par cette loi « séparatisme ».
Le contrôle préfectoral
La reconnaissance de la qualité cultuelle d’une association est un enjeu important, car elle permet à l’association de bénéficier de certains avantages, notamment fiscaux et financiers.
Or, jusqu’en 2021, les « associations cultuelles » n’avaient pas de démarche particulière à effectuer pour obtenir cette qualité et bénéficier de ces avantages. Les membres de l’association pouvaient donner eux-mêmes cette qualification à leur association. Ce n’était que dans un second temps qu’intervenait un contrôle administratif.
Mais depuis la loi « séparatisme », les associations souhaitant bénéficier de la qualité d’association cultuelle doivent déclarer cette qualité au préfet, représentant de l’État. Et le préfet peut à présent, dans les deux mois suivant la déclaration, s’opposer à ce que l’association bénéficie des avantages découlant de cette qualité s’il constate que l’association ne remplit pas les conditions prévues par la loi de 1905 ou pour un motif d’ordre public.
De plus, l’association doit dorénavant renouveler sa déclaration d’existence au préfet tous les cinq ans. Dit autrement, les avantages que la qualité d’« association cultuelle » confère à une association ne sont valables que pour une durée de cinq années renouvelable.
Ces nouvelles procédures étaient contestées par les associations requérantes, qui n’ont pas obtenu gain de cause. La première question était de savoir si cette intervention du préfet ne conduisait pas l’administration à « reconnaître » l’existence d’un culte, reconnaissance qui serait contraire au principe de laïcité (article 2 de la loi de 1905).
Le juge constitutionnel considère en premier lieu que cette procédure n’impose qu’une obligation de déclaration aux associations religieuses : elle n’entraîne donc aucunement la reconnaissance publique d’un culte (§12). Il observe aussi que la décision du préfet est accompagnée de garantie : l’association qui serait privée de la qualité d’« association cultuelle » a le droit d’être entendue (§13). Dès lors, les dispositions législatives contestées ne méconnaissent pas le principe de laïcité (§14).
En deuxième lieu, jugeant que cette procédure déclarative n’a « pas pour objet d’encadrer les conditions dans lesquelles elles les [associations] se constituent et exercent leur activité », le Conseil admet qu’elle ne porte pas atteinte à la liberté d’association. Sur ce point, on ne peut que déplorer la faible motivation de la décision, la conclusion abrupte méritant certainement d’être étayée pour expliquer en quoi ces procédures inédites laissent intacte la liberté d’association.
En revanche, le juge constitutionnel interdit que le retrait de la qualité d’« association cultuelle » par le préfet conduise « à la restitution d’avantages dont l’association a bénéficié avant la perte de sa qualité cultuelle ». Le retrait de la qualité d’« association cultuelle » ne saurait ainsi avoir d’effet rétroactif. Sans limiter le contrôle de l’État, le Conseil entend octroyer quelques garanties aux associations.
Alignement des contraintes
Outre les « associations cultuelles » (loi de 1905), d’autres formes d’associations (associations loi de 1901) peuvent assumer des missions religieuses. Or la loi « séparatisme » de 2021 a voulu harmoniser leur régime juridique avec celui des cultuelles, de façon à inciter les musulmans, qui ont souvent eu recours à cette forme associative, à transformer leurs associations actuelles en cultuelles.
Jusqu’en 2021, leur régime juridique était régi par la loi (libérale) du 1er juillet 1901. Aucun texte législatif spécifique n’avait complété cette loi pour réglementer d’une façon spécifique les associations à vocation religieuse. Leur création et leur organisation étaient donc très libres.
La loi de 2021 met un terme à ce régime relativement libéral. Elle entend au contraire rapprocher assez largement leur régime juridique de celui des « associations cultuelles », afin de renforcer le contrôle qu’exercent sur elles les autorités administratives. La loi de 2021 les soumet à un certain nombre des dispositions de la loi de 1905 : elles doivent déclarer leurs ressources provenant de l’étranger, elles doivent dresser une liste des lieux dans lesquels s’organise l’exercice public du culte, etc.
Saisi de ces dispositions législatives, le Conseil constitutionnel les a jugées conformes à la Constitution. Il considère qu’elles sont justifiées par la nécessité d’assurer la « transparence de l’activité et du financement des associations assurant l’exercice public d’un culte », ce qui permet d’assurer l’ordre public. Là encore, l’objectif poursuivi par le législateur (accroître la surveillance des associations religieuses et de leurs lieux de culte) est admis par le juge.
Ce dernier précise néanmoins que, si la loi est conforme à la Constitution, le gouvernement devra veiller, lorsqu’il publiera les décrets d’application de la loi, à ce que la mise en œuvre de ces dispositions respecte « les principes constitutionnels de la liberté d’association et du libre exercice des cultes ». Il y a lieu de s’étonner d’une telle précision. Outre qu’elle énonce une lapalissade, cette précision induit bien que les dispositions en cause peuvent potentiellement donner lieu à des applications contraires à la Constitution ; mais en ce cas, on peut s’étonner que le Conseil constitutionnel n’ait pas entendu sanctionner le législateur pour le manque de garantie apportée ou qu’il n’ait pas précisé lui-même (comme il le fait souvent) l’interprétation qu’il fallait donner de ces dispositions législatives pour qu’elles soient appliquées de manière constitutionnelle.
Un curieux paradoxe
Le Conseil constitutionnel n’a pas volé au secours de la liberté des associations religieuses dans sa décision du 22 juillet. La loi « séparatisme » est constitutionnelle. Mais son opportunité peut néanmoins être interrogée. Non pas tellement parce qu’elle renforce le contrôle de l’État, mais parce qu’elle soulève un curieux paradoxe.
En effet, cette loi renforce les contrôles sur les groupements religieux qui ont adopté une forme associative et qui ont donc respecté le droit en vigueur pour s’organiser ; à l’inverse, les groupements de fait, « qui tendent à échapper aux cadres institutionnels destinés à les organiser en s’en tenant à l’écart ou en les contournant », pour rependre les mots du Conseil d’État, sont par principe exemptés de ces contraintes.
Le paradoxe est donc que le renforcement de ces contraintes n’encourage pas la constitution d’associations religieuses, mais incite au contraire ces groupements de fait, qui présentent pourtant le plus de danger pour l’ordre public, à demeurer en marge de la loi pour échapper à ces contraintes multiples. Est-ce vraiment propre à lutter contre le séparatisme ?
Suzanne McLeodAssistant Professor of Educational Leadership, Binghamton University, State University of New York
Déclaration d’intérêts
Suzanne McLeod ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Nous croyons à la libre circulation de l’information
Reproduisez nos articles gratuitement, sur papier ou en ligne, en utilisant notre licence Creative Commons.
Republier cet article
Les vacances permettent de se reposer mais aussi de rêver et d’apprendre autrement. Shutterstock
Vous craignez que vos enfants n’oublient cet été ce qu’ils ont appris à l’école pendant l’année ? Voilà plus d’un siècle en tout cas que les universitaires se penchent sur cette question.
Quand William White, un professeur de mathématiques de l’État de New York a entrepris d’évaluer, au début du XXe siècle, ce que ses étudiants retenaient de leurs cours après les congés d’été, il leur a fait passer à la rentrée un examen comparable à celui qu’ils avaient eu à la fin de la précédente année scolaire. Avant de comparer les résultats.
Alors que les étudiants s’étaient trompés lors de leurs examens de fin d’année sur 9 questions en moyenne sur les 70 posées, ce taux est passé à 25 erreurs en moyenne après la coupure estivale. Mais au bout de deux semaines de révisions, il est redescendu à 15.
Intitulée « Reviews Before and After Vacation » et publiée en 1906, l’étude de White en arrivait à la conclusion suivante : « ce sont les notions qui sont le moins vitales qui sont le plus vite oubliées ».
Le travail de White est l’un des premiers à avoir identifié ce que les professionnels de l’éducation appellent la perte des acquis scolaires en période estivale – soit l’effet négatif d’une longue pause sur la capacité des élèves à se rappeler des connaissances et à mobiliser les compétences qu’ils avaient acquises pendant l’année scolaire.
Effets sur la réussite des élèves
Les études sur cet oubli estival se sont multipliées dans les années 1990 avec l’attention portée à la réussite de tous. Elles ont montré qu’au cours de l’été, les étudiants perdent généralement l’équivalent d’un mois d’apprentissage dans des matières comme les maths et l’orthographe. La recherche a aussi montré sur les acquis perdus sont plus importants chez les étudiants souffrant d’un handicap, ceux dont la langue du pays n’est pas la langue maternelle, et qui sont en train de l’apprendre, ainsi que les enfants vivant en situation de pauvreté.
Mais la compréhension de ce phénomène évolue encore. D’après une nouvelle recherche, les élèves qui perdent le plus de connaissances l’été sont aussi ceux qui avaient affiché les progrès les plus nets juste avant les examens de fin d’année. Cela pose la question de savoir si les apprentissages étaient bien consolidés ou si les gains ne faisaient que refléter une préparation spéciale au test.
Réorganiser l’année scolaire ?
Certains disent que les oublis de connaissances pendant l’été seraient moins importants si l’année scolaire était plus longue et s’appuient pour cela sur les comparaisons internationales. Ils notent qu’un pays comme la Chine où les élèves ont 245 jours d’école fait partie des 20 pays les mieux classés en termes de résultats scolaires en maths, sciences et lecture alors que les États-Unis, où l’année scolaire s’étale sur 180 jours, sont classés à la vingt-cinquième place sur 77 pays, plusieurs points derrière l’Australie, la Suisse, la Norvège et la République tchèque qu’on retrouve entre la vingt-et-unième et la vingt-quatrième place.
[Près de 70 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui.]
Mais une année scolaire plus courte ne se traduit pas forcément par des résultats scolaires plus faibles. Ainsi, selon PISA (Program for International Student Assessment) les élèves irlandais surpassent de 10 points en moyenne les élèves américains en maths, sciences et lecture alors qu’ils vont à l’école 167 jours par an, soit treize jours de moins que leurs camarades aux États-Unis.
Quelques clés contre les oublis de l’été
Certains parents s’appuient sur des programmes de soutien scolaire ou des cahiers de vacances pour aider leurs enfants à entretenir leurs acquis scolaires pendant l’été. Mais il y a d’autres attitudes, ressources et activités auxquelles on peut avoir recours, sans forcément faire référence à l’univers scolaire, et en voici quelques-unes.
Montrez l’exemple : Avant tout, n’oubliez jamais que vous êtes un modèle pour vous enfants, qui ont tendance à reproduire ce que font les adultes de leur entourage. L’été est ainsi la meilleure période pour réduire le temps passé sur les écrans et augmenter celui qu’on accorde à la lecture, l’écriture, la marche, les jeux ou la conversation.
Fréquentez une bibliothèque : Les enfants aiment se sentir autonomes. L’un des meilleurs moyens de leur permettre de faire preuve d’indépendance est de les emmener parcourir les rayons de la bibliothèque locale et choisir des livres qu’ils pourront lire seuls ou que vous pourrez lire ensemble à haute voix. Participez aux heures du conte si c’est une activité qui est proposée. Prenez l’habitude de vous rendre en bibliothèque chaque semaine ou plusieurs fois par mois au moins. Ces visites renforceront le lien des enfants avec la lecture.
La lecture à haute voix aide les enfants à acquérir le sens du récit. Shutterstock
Organisez des jeux pendant les voyages : Lorsque vous êtes en bus, en car ou en train, il y a plein de jeux de chiffres et de lettres que vous pouvez lancer avec les enfants. Vous pouvez calculer le nombre de fast-foods que vous allez croiser, ou chercher les mots commençant par telle ou telle lettre. Ces activités permettent non seulement de maintenir l’intérêt des enfants mais aussi de continuer à affiner leurs compétences dans des domaines comme la lecture et le calcul.
Encouragez vos enfants à tenir un journal de leur été : S’ils n’ont pas d’idée pour commencer, proposez-leur de lister dix activités qu’ils veulent absolument réaliser avant la fin de l’été. Il peut s’agir de voir un coucher de soleil comme de passer une journée entière sans porter de chaussures. Pour que ce soit distrayant, incitez-les à écrire aussi bien qu’à dessiner.
Visitez des sites d’intérêt général : Organisez des visites pour découvrir, vos et vos enfants, les sites locaux notables. Documentez la visite avec un journal, des dessins ou des photos et faites quelques recherches sur l’histoire du site. Ces activités peuvent être d’autant plus attractives que vous incitez les enfants à se renseigner sur les lieux historiques ou autres que vous visitez.
Organisez des pique-niques en famille :Variez les repas, laissez les enfants choisir les menus, cuisiner avec vous et choisir le lieu du pique-nique. Des travaux de recherche ont montré que le fait d’impliquer les enfants dans la préparation des repas, en faisant par exemple des listes de courses, peut les aider à progresser en lecture, en écriture et en maths.
Maxime L’HéritierMaître de conférences en histoire médiévale, Université Paris 8 – Vincennes Saint-Denis
Déclaration d’intérêts
Les recherches évoquées dans cet article sont organisées et financées par le CNRS et le ministère de la Culture dans le cadre du « chantier scientifique Notre-Dame ». Elles sont le fruit d’un travail collaboratif impliquant l’ensemble des membres et laboratoires du GT Métal. Elles sont rendues possible par l’implication du Service Régional de l’Archéologie, de la Conservation Régionale des Monuments Historiques, des Architectes en Chef des Monuments Historiques (P. Villeneuve, P. Prunet, R. Fromont) et de l’Établissement Public Notre-Dame (EPDN), qui a financé une partie de ces travaux dans le cadre des études de diagnostic.
Nous croyons à la libre circulation de l’information
Reproduisez nos articles gratuitement, sur papier ou en ligne, en utilisant notre licence Creative Commons.
Republier cet article
Vue de la croisée de Notre-Dame de Paris en décembre 2020. On voit à gauche les agrafes de fer ancrées au sommet des murs, là où se tenait auparavant la charpente incendiée. Maxime L’Héritier, Fourni par l’auteur
Catastrophe patrimoniale, l’incendie de Notre-Dame en 2019 permet aussi d’accroître nos connaissances : les débris de la célébrissime cathédrale sont autant de précieux témoins du passé ! Cette série suit le chantier scientifique de Notre-Dame, où bois carbonisés et pièces en métal révèlent leurs secrets. Après de premiers épisodes sur la charpente et l’origine des bois, on s’intéresse à la structure de la cathédrale.
Les recherches menées depuis une vingtaine d’années ont montré que les cathédrales gothiques du XIIIe siècle, comme Bourges, Chartres, Rouen ou Troyes utilisaient le fer comme matériau de construction. Les grandes églises du XIIe siècle demeurent en revanche relativement méconnues.
L’incendie de Notre-Dame de Paris a révélé que la structure de la cathédrale, élevée à partir des années 1160, était également renforcée de nombreuses armatures de fer. Certaines d’entre elles, masquées dans la pierre ou par la charpente, étaient jusqu’à présent inconnues.
Les méthodologies développées depuis plus d’une vingtaine d’années et déjà éprouvées sur plusieurs dizaines d’édifices médiévaux permettent de questionner les fers de construction découverts à Notre-Dame afin de renouveler la connaissance de cet édifice et des techniques de construction anciennes, mais aussi celle de l’économie du fer à l’époque médiévale.
Plusieurs dizaines d’armatures de fer, abîmées par l’incendie ou déposées lors des restaurations, peuvent aujourd’hui être scrutées sous l’œil de microscopes optique et électronique. Il s’agit à la fois d’« agrafes » mises en œuvre dans la maçonnerie, dans les tribunes, dans les colonnes monolithes, et au sommet des murs sous la charpente incendiée, mais aussi d’armatures liées à la charpente elle-même (clous de tailles diverses, tiges clavetées et boulonnées) qui témoignent des restaurations au fil des siècles.
Système de chaînage en fer posé par Lassus en 1846 faisant le tour des parties orientales de l’édifice (chœur et transept est). Maxime L’Héritier, Fourni par l’auteur
Les microstructures de ces éléments métalliques renferment une partie de l’histoire de Notre-Dame de Paris et de son chantier, qu’explorent aujourd’hui les archéologues, chimistes et archéomètres – les spécialistes de l’analyse physico-chimique des matériaux anciens, réunis au sein du groupe de travail Métal du chantier scientifique Notre-Dame.
Quels métaux pour les bâtisseurs de cathédrales ?
La première question est celle de la qualité du métal employé par les bâtisseurs. Quels choix ont-ils faits tant à l’époque médiévale qu’au cours des restaurations ? L’incendie a-t-il altéré les propriétés de ces fers de construction ? L’observation de surfaces polies au microscope optique, après attaque avec des réactifs chimiques spécifiques permet de révéler la microstructure de ces alliages ferreux, leur mise en forme (replis, soudures…) et d’évaluer leur degré d’hétérogénéité.
[Près de 70 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]
Les fers anciens sont en effet souvent hétérogènes, en lien avec les procédés de production utilisés, notamment les bas fourneaux, qui ne permettent pas une production du fer en phase liquide avant le milieu du XIXe siècle. Ils contiennent en particulier des teneurs variables en carbone ou en phosphore (les deux principaux éléments qui se combinent au fer), formant des matériaux composites entre fer, acier doux et fer phosphoreux.
Des tests de dureté peuvent être réalisés pour connaître leurs duretés respectives. Ces fers anciens contiennent également de nombreuses impuretés non métalliques, appelées « inclusions de scories », qui sont autant de points faibles dans la structure du matériau.
Agrafe de fer provenant du sommet des murs de la cathédrale déposée avant étude. L’agrafe était scellée au plomb dans la maçonnerie (un des scellements subsiste). Maxime L’Héritier, Fourni par l’auteur
À partir de prélèvements d’objets entiers, il est possible d’usiner des éprouvettes de traction, c’est-à-dire des pièces de fabrication et de dimensions normalisées, pour leur faire subir des essais mécaniques et déterminer les propriétés physiques de ces matériaux (module d’élasticité, résistance à la traction, allongement à rupture…). À Notre-Dame, les analyses ont pu montrer que le fer médiéval, tout comme celui mis en œuvre au XIXe siècle, a des propriétés mécaniques moindres que celles des alliages contemporains, à l’instar de ce qui a déjà pu être établi sur d’autres monuments médiévaux et modernes.
L’incendie ne semble toutefois pas avoir altéré la microstructure du fer ni ses propriétés mécaniques, déjà limitées. Ces informations peuvent servir à la restauration et alimenter les réflexions autour du remploi de ces matériaux.
Mieux comprendre la chronologie de la construction
La deuxième question concerne la chronologie des armatures mises en œuvre.
Les faibles quantités de carbone présentes dans les zones aciérées de ces alliages ferreux (l’acier est un alliage fer-carbone) permettent d’accéder à des données cruciales en matière de datation. On sait en effet aujourd’hui extraire ce carbone, qui provient du charbon utilisé dans le fourneau de réduction ayant produit le fer, pour en réaliser une datation au carbone 14.
Les zones aciérées révélées par l’attaque métallographique sont prélevées avec un foret, puis le carbone en est extrait par combustion et récupéré sous forme gazeuse (CO2) et enfin réduit en graphite. La spectrométrie de masse avec accélérateur de particule (AMS) réalisée au LMC14 permet ensuite de déterminer la quantité de carbone 14 restante et de la comparer aux courbes de référence pour déterminer l’âge du matériau et en déduire la période de production du fer.
Coupe métallographique d’une agrafe de fer de Notre-Dame de Paris vue au microscope optique après attaque au réactif Nital. On voit en clair les zones ferritiques et en foncé les zones plus aciérées (notamment une bande médiane allant jusqu’à 0,8 % de carbone). On remarque aussi la présence de nombreuses inclusions non métalliques de taille micrométrique à millimétrique allongées dans le sens du martelage. Maxime L’Héritier, Fourni par l’auteur
Par exemple, la comparaison de la datation des agrafes mises en place dans les tribunes du chœur (construites vers 1160-1170), celles de la nef, plus tardives, et celles du sommet des murs élevés au début du XIIIe siècle, permettra également d’éclairer l’insertion progressive de ce matériau dans le bâti et de reconstituer les réflexions des bâtisseurs qui l’ont mis en œuvre.
De même, dans la charpente, maintes fois remaniée et où de multiples armatures sont utilisées, la datation permettra de mettre en lumière les phases de restauration antérieures au XVIIe siècle, encore totalement méconnues, en croisant ces informations avec l’étude des bois réalisée en parallèle.
D’où vient le fer de Notre-Dame ?
La troisième interrogation concerne la provenance de ces matériaux. Où ces tonnes de fer ont-elles été produites ? Comment le chantier de construction était-il approvisionné en métal au XIIe siècle, au XIIIe siècle et pour les campagnes ultérieures ; sous quelles formes circulaient ces fers ?
On sait en effet que le fer circulait au Moyen Âge dans les deux sens sur la Seine et pouvait aussi être approvisionné par voie de terre ; il aura pu être produit par des domaines de l’évêché ou du chapitre cathédral (le collège de chanoines en charge de la gestion de l’édifice), et particulièrement dans les nombreux domaines situés dans toute l’Île-de-France actuelle.
Il n’est en outre pas rare que plusieurs sources, locales et plus lointaines, soient mêlées au gré des campagnes de construction. Les soudures observées dans la matrice des fers de Notre-Dame suggèrent l’assemblage de plusieurs pièces pour fabriquer chaque agrafe, dont les origines sont peut-être différentes. Les impuretés contenues dans ces alliages ferreux permettent d’aborder cette question de la circulation de ces matériaux.
Dans les procédés de production anciens en bas fourneaux, majoritairement employés jusqu’à la fin du Moyen Âge, le fer, produit à l’état solide, emporte dans sa matrice des petits fragments de scories (le déchet de la réduction), appelées inclusions de scories, dont la composition est tributaire de la fraction non réduite du minerai utilisé.
Cette composition peut être comparée au moyen d’outils statistiques à celle des macroscories rejetées par les métallurgistes sur les sites de production.
Ainsi, une vaste investigation archéologique doit être menée en parallèle, en s’appuyant sur les découvertes existantes dans la région, afin d’identifier les sites à scories ayant pu fournir ce fer et d’y réaliser les analyses nécessaires pour établir ces comparaisons de signatures chimiques.
Sergei FediuninDocteur en science politique de l’Institut national des langues et civilisations orientales (INALCO), attaché temporaire d’enseignement et de recherche en civilisation russe, Sorbonne Université
Valéry KossovMaître de conférences habilité à diriger des recherches en études russes, Université Grenoble Alpes (UGA)
Déclaration d’intérêts
Valéry Kossov est membre de l’Institut des langues et cultures d’Europe, Amérique, Afrique, Asie et Australie (ILCEA4) et directeur du Centre d’études slaves contemporaines
Sergei Fediunin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Nous croyons à la libre circulation de l’information
Reproduisez nos articles gratuitement, sur papier ou en ligne, en utilisant notre licence Creative Commons.
Republier cet article
Le 9 mai 2022, jour anniversaire de la fin de la Seconde Guerre mondiale en Russie, Vladimir Poutine prononce un discours établissant un lien direct entre la lutte contre l’hitlérisme et l’« opération militaire spéciale » russe actuelle en Ukraine. Kirill Kudryavtsev/AFP
La guerre ravage l’Ukraine depuis plus de cinq mois. Pourtant, les conséquences désastreuses de ce conflit sont très largement méconnues en Russie.
Tout en manipulant l’opinion publique de façon à pouvoir se prévaloir d’un soutien massif des Russes à la politique du Kremlin à l’égard de l’Ukraine (75 % en juin dernier, selon les données du Centre Levada), le régime fournit à la population des stratégies discursives lui permettant de nier une réalité désagréable et effrayante. D’autres indicateurs confirment l’existence d’un soutien palpable à la campagne militaire russe : ainsi, en avril 2022, 36 % des sondés affirmaient éprouver de la fierté pour le peuple russe, contre 17 % un an plus tôt.
Pour mieux comprendre la nature (et les limites) de ce ralliement populaire à la cause belliqueuse, il est nécessaire d’étudier la façon dont la rhétorique de guerre se construit en Russie.
« Normaliser » la guerre ?
Depuis le début de la guerre en Ukraine, le régime russe cherche à montrer que la situation actuelle relève de l’ordre naturel des choses.
L’expression même « opération militaire spéciale », utilisée à la place du mot « guerre », est censée souligner le caractère provisoire du conflit, à l’instar des précédentes interventions militaires russes en Tchétchénie (dans les années 1990 et 2000) et en Syrie (depuis 2015). Mis à part son discours du 24 février 2022 lors duquel il a de facto annoncé la guerre contre l’Ukraine, Vladimir Poutine n’a pas fait d’interventions systématiques sur ce sujet, contrairement à son homologue ukrainien Volodymyr Zelensky, qui adresse la parole à ses concitoyens presque quotidiennement.
Depuis le début du conflit, Vladimir Poutine n’a donné qu’une seule interview, le 3 juin 2022, et celle-ci a été consacrée essentiellement aux questions économiques. Cependant, c’est lui qui trace les lignes directrices pour la production du discours à travers diverses interventions diffusées par le service de communication du Kremlin.
[Près de 70 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]
En Russie, peu d’autres acteurs sont autorisés à s’exprimer sur la guerre au nom du pouvoir. Parmi eux, le ministre des Affaires étrangères Sergueï Lavrov et le chef adjoint du Conseil de sécurité Dmitri Medvedev accordent des interviews aux médias russes comme internationaux. Bien qu’ils s’emploient à « banaliser » la guerre en ce qui concerne ses conséquences pour la société russe, ces acteurs font en même temps monter les enchères face au monde extérieur. Ainsi, Lavrov a publiquement appelé à « ne pas sous-estimer » les risques d’une guerre nucléaire et Medvedev a menacé l’Ukraine du « jugement dernier » si elle cherchait à récupérer la Crimée par la force.
La construction du discours : emprunts au répertoire soviétique et nationaliste
D’après ce qui ressort de ces interventions, la rhétorique russe est devenue plus brutale que par le passé, avec l’usage répété de termes marquant la division entre le « nous » et les « autres ». Le vocabulaire se libère de certains tabous et remet au goût du jour des expressions datant de la guerre froide.
La récupération du statut de « puissance antifasciste » par l’État russe en fournit un exemple probant. L’Union soviétique se présentait officiellement comme le pays ayant vaincu le « fascisme » (plutôt que le « nazisme ») allemand. Bien que la rhétorique russe dénonce aujourd’hui la résurgence du « nazisme » en Ukraine, elle reprend les tropes soviétiques en associant « nationalisme » (terme autrefois taxé du qualificatif « bourgeois ») au « fascisme/nazisme » – somme toute, l’incarnation du Mal absolu.
En témoigne la virulence avec laquelle le Kremlin fustige les banderovtsy, soit les partisans de Stepan Bandera (1909-1959), chef de l’Organisation des nationalistes ukrainiens, qui a collaboré avec l’Allemagne nazie au début des années 1940 puis combattu les Soviétiques au nom de la lutte pour une Ukraine indépendante. La déclaration du ministre Lavrov (1er mai 2022), postulant que « parmi les pires antisémites, il y a des Juifs » et visant le président Zelensky, s’inscrit également dans la lignée de la propagande soviétique, qui a longtemps présenté le sionisme et l’État d’Israël comme une réincarnation du fascisme.Lavrov compare Zelensky à Hitler, LCI, 3 mai 2022.
Enfin, l’objectif de « dénazifier » l’Ukraine brandi par le régime russe vise aussi cette Europe libérale et « dégénérée » qui, du fait de son soutien à Kiev, encouragerait la résurgence du « fascisme » – réinterprété, lui, comme le rejet symbolique de la Russie.
La dénonciation du « nazisme/nationalisme » ukrainien contraste, dans la rhétorique du Kremlin, avec l’usage de termes empruntés au discours des nationalistes russes : « nos territoires historiques » (à propos de régions ukrainiennes), « traîtres à la nation » (en parlant des Russes d’opinion libérale qui s’opposent à la guerre), « russophobie » (pour désigner l’attitude haineuse de l’Occident envers la Russie). En même temps, Vladimir Poutine reste fidèle aux formules mettant en valeur le caractère « multinational » de l’État et la diversité de ces populations :
« Je suis russe mais quand je vois des exemples d’héroïsme [sur les champs de bataille en Ukraine] comme celui du jeune soldat Nourmagomed Gadjimagomedov, originaire du Daghestan, j’ai envie de dire : je suis daghestanais, tchétchène, ingouche, tatar, juif… »
Ces stéréotypes soviétiques et nationalistes remplissent une fonction instrumentale visant à appuyer l’idée de l’unité nationale autour du chef et de sa vision du conflit, sans pour autant donner lieu à l’émergence d’une idéologie ultra-nationaliste « dure ».
Argumentation (déficiente) en faveur de la guerre
Les schémas argumentatifs ont aussi évolué depuis le début du conflit.
Des raisonnements logiques font place à une répétition des mêmes faits qui s’apparente à une incantation, sans que les rapports de cause à effet ne soient clairement affinés. Les communicants russes reprennent ainsi une série de griefs géopolitiques où la responsabilité de la guerre en Ukraine est reportée sur les États-Unis et leurs « vassaux » européens décrits comme instigateurs des conflits en Yougoslavie, en Irak, en Libye ou en Syrie.
L’objectif consiste ici à légitimer ses propres actions par la délégitimation de celles des autres. Sergueï Lavrov cherche ainsi à présenter le soutien que l’Occident accorde à l’Ukraine comme une nouvelle manifestation de la politique adoptée par les Occidentaux dès les années 1990, notamment en ex-Yougoslavie, lorsqu’ils auraient refusé tout dialogue équitable avec Moscou.
Cette présentation des choses s’inscrit dans une vision continuiste de l’Histoire : l’Europe occidentale aurait de tout temps cherché à affaiblir la Russie. Le phénomène actuel de « russophobie » ne serait donc qu’une suite logique de la politique occidentale des siècles précédents (Medvedev, 26 mars 2022 ; Poutine, 12 juillet 2021). Ce discours établit une ligne chronologique reliant les guerres russo-polonaises du XVIIe siècle à la campagne de Russie de Napoléon et aux deux Guerres mondiales, en y associant l’élargissement de l’OTAN après 1991 ou le soutien supposé des États-Unis aux séparatistes tchétchènes.
Le déclenchement de la guerre contre l’Ukraine est dès lors présenté comme une réponse défensive à cette politique séculaire mise en œuvre par « l’Occident collectif ». Cette dernière formule se réfère à l’ensemble des pays membres de l’OTAN qui utiliseraient l’Ukraine comme un « objet manipulable » dans le grand jeu géopolitique (Lavrov, 4 juin 2022). Le fait d’avoir déclenché la guerre en premier est aussi justifié par « l’absence de choix » (Lavrov, 29 mai 2022) face à la construction d’une « anti-Russie » en Ukraine depuis 2014 (Poutine, 16 mars 2022). Ce dernier « projet » relèverait, lui, des pratiques de cancel culture, notion reprise par le régime russe pour désigner le renoncement occidental à tout bagage du passé, y compris des accords récents comme ceux de Minsk (Lavrov, 23 mars 2022).
Le discours du Kremlin tente ainsi de mobiliser des éléments épars afin de créer un schéma cohérent justifiant l’entrée en guerre. Toutefois, ce schéma manque significativement de « preuves » – d’où la diffusion de rumeurs multiples, comme celles faisant état de l’élaboration dans des laboratoires ukrainiens d’armes biologiques destinées à être employées contre la Russie.
Des carences d’argumentation au discours d’intimidation
L’objectif du discours officiel russe consiste à rassembler la population autour d’une idée patriotique, mais aussi à intimider certains cercles du pouvoir, acteurs de la société civile et médias.
C’est en cela que la réactualisation des expressions « traîtres à la nation » ou « cinquième colonne », dont la société doit « se purifier », prend un aspect d’avertissement explicite à l’égard de tous les avis discordants (Poutine, 16 mars 2022). Toute critique de l’État s’apparente désormais à une activité criminelle (Medvedev, 26 mars 2022).
D’une part, il s’agit d’envoyer un message aux élites, les avertissant des conséquences que pourraient avoir les moindres signes de défection ou d’éloignement vis-à-vis de la « ligne directrice ». D’autre part, c’est un signal aux médias nationaux et à tous ceux qui seraient tentés d’exprimer un point de vue alternatif sur la guerre. Le discours leur suggère ainsi d’adopter des comportements appropriés pour éviter des poursuites judiciaires. En effet, la législation répressive a été considérablement élargie après le 24 février 2022, avec l’adoption d’une loi dite de censure militaire. Ce dispositif prévoit des peines pour la « discréditation » des forces armées et la diffusion préméditée de « fausses informations » à leur égard. Par le biais de ces nouvelles normes judiciaires, les autorités russes ont multiplié les poursuites administratives comme pénales.
Ilia Iachine (au centre, menotté), figure de l’opposition démocratique et député municipal indépendant à Moscou, a été arrêté le 28 juin dernier. Accusé de diffusion de fausses informations sur l’armée russe, il encourt une lourde peine de prison. Kirill Kudryavtsev/AFP
Ces stratégies d’intimidation permettent au régime d’affirmer, en s’appuyant sur les sondages, que la société lui accorde un large soutien et de légitimer la guerre par cette consolidation. Cependant, les conditions dans lesquelles ces sondages sont menés et, en particulier, sur la manière dont la « politique de la peur » du régime affecte l’opinion publique.
Quelle réception du discours en Russie ?
Pour ces mêmes raisons, il est encore difficile d’évaluer la réception du discours officiel par la population russe.
Certes, la machine de communication est bien réglée pour persuader le public du bien-fondé du conflit. La maîtrise de la réception du discours par le Kremlin se renforce à mesure que les sources d’information alternatives sont bannies de l’espace numérique. Les sites des médias indépendants sont systématiquement bloqués (81 645 sites furent bloqués entre le 24 février 2022 et le 30 juin 2022, selon l’organisation non gouvernementale Roskomsvoboda), tandis que des services VPN permettant de contourner ces blocages font l’objet d’attaques du gouvernement. Cela laisse penser que la communication persuasive déployée en Russie parvient à ses objectifs de consensus social et constitue, à ce jour, un moyen efficace d’assurer le maintien au pouvoir du régime en place.
Mais malgré ce succès apparent, le système de communication uniformisé peut se heurter à ses propres limites. D’abord, les gouvernants qui prennent des décisions en vase clos manquent de mécanismes de feedback. Ils ne confrontent pas (ou peu) les informations provenant de sources diverses afin d’évaluer avec justesse leur propre légitimité aux yeux de la population. Les dirigeants ont ainsi tendance à considérer leur légitimité comme un acquis qui n’a pas à être remis en cause.
Ensuite, l’uniformité de la communication ne suppose pas automatiquement un public cible homogène et une réception similaire par tous les segments de la population. Celle-ci peut avoir des sensibilités différentes envers le martèlement des mêmes arguments.
Enfin, la rhétorique officielle est amenée à se confronter à la réalité de la guerre avec ses pertes humaines, la baisse du niveau de vie et la coupure radicale de la Russie du monde occidental. Ce décalage entre la parole et la réalité est un facteur qui peut, au bout du compte, mettre en lumière le caractère illusoire de la cohésion nationale affirmée par le régime.
Bois carbonisés de la charpente Notre-Dame de Paris après l’incendie en 2019. Alexa Dufraisse, Fourni par l’auteur
Étudier la charpente de Notre-Dame pour connaître la météo médiévale
Publié: 31 juillet 2022, 17:03 CEST
auteurs
Alexa DufraisseDirectrice de recherche CNRS en archéobotanique, spécialisée en dendro-anthracologie et en anthraco-isotopie, Muséum national d’histoire naturelle (MNHN)
Nous croyons à la libre circulation de l’information
Reproduisez nos articles gratuitement, sur papier ou en ligne, en utilisant notre licence Creative Commons.
Catastrophe patrimoniale, l’incendie de Notre-Dame en 2019 permet aussi d’accroître nos connaissances : les débris de la célébrissime cathédrale sont autant de précieux témoins du passé ! Cette série suit le chantier scientifique de Notre-Dame, où bois carbonisés et pièces en métal révèlent leurs secrets. Pour ce premier épisode, on fait parler la charpente.
Notre-Dame est l’un des monuments français les plus célèbres au monde. Sa construction a commencé sous le règne de Louis VII, vers 1160 ; elle s’est étalée entre la fin du XIIe siècle, avec notamment la construction du chœur, et le début du XIIIe siècle, avec la construction de la nef puis de ses tours.
Connue aussi sous le nom de « forêt », sa charpente était composée d’un grand nombre de poutres en chêne. En réalité, ce n’est pas une charpente, mais plusieurs qui composent cette forêt. En effet, vers 1225, une partie de la cathédrale a été démantelée pour rehausser les fenêtres du haut. Puis, au cours de la grande restauration de Viollet-le-Duc au XIXe siècle, la flèche fut reconstruite ainsi qu’une partie des beffrois et la charpente des transepts.
Du 15 au 16 avril 2019, soit plus de 800 ans après son édification, la cathédrale brûle, une nuit durant, se réveillant dénuée de sa flèche, un trou béant à la place du toit.
D’abord considérés comme des débris, les vestiges de la cathédrale, notamment les poutres calcinées, ont été inventoriés et leur position dans la cathédrale enregistrée avant qu’ils soient évacués vers un entrepôt dédié. Les morceaux de bois, pour certains noircis en périphérie, pour d’autres, carbonisés à cœur, sont désormais accessibles aux chercheurs pour révéler leurs secrets. Une équipe de près 70 chercheurs s’est regroupée pour les étudier sous toutes les coutures.
Ce que nous racontent les bois de la charpente, c’est un millénaire d’histoire partagée entre les hommes, la société et les forêts. Les arbres abattus pour construire la charpente détiennent par exemple dans leurs cernes un enregistrement de ce qu’était le climat quand ils ont poussé.
Ainsi, la destruction – déplorable – de la charpente de Notre-Dame offre une occasion unique d’accéder au climat du Moyen Âge en Île-de-France.
Quel temps faisait-il au Moyen Âge ?
Les chênes de la charpente de la nef et du chœur ont poussé au cours des XIe-XIIIe siècles, période concomitante à l’« optimum climatique médiéval » et pour laquelle il n’existe pas encore de données climatiques dans le nord de la France.
Dans les années 1990, une quarantaine de prélèvements par carottage (à la tarière de Pressler) ont été réalisés, mais les méthodes sont destructives et aucune autre étude n’aurait donc pu être entreprise depuis.
Cette phase de climat « optimal » correspond à une augmentation de la fréquence relative des épisodes chauds, principalement autour de l’Atlantique Nord, identifiée en 1965 par des documents historiques (littérature classique, registres administratifs et ecclésiastiques) et par l’étude de carottes de glace, de cernes et de rendements de récolte.
Aujourd’hui, cette période est appelée « anomalie climatique médiévale ». Ce terme, proposé par le chercheur nord-américain Scott Stine en 1994, nuance la première appellation : si cette période est bien caractérisée par des températures clémentes (de quelques dixièmes de degrés plus élevées que celles de 1960-1990) ou une plus grande aridité en Europe et d’autres parties du monde, elle ne s’est pas déroulée de façon synchrone et uniforme dans toutes ces régions, avec des zones vraisemblablement plus froides ou plus humides.
Températures moyennes globales depuis l’an 0. Ed Hawkins
En effet, le climat fluctue sous l’influence de facteurs externes au système climatique, aussi appelés « forçages » (intensité du rayonnement solaire, activité volcanique), mais aussi sous l’effet de sa propre dynamique. L’anomalie climatique médiévale est probablement due à une combinaison de ces causes de variations externes et internes.
[Près de 70 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]
Ces changements, par essence complexes, ont pu entraîner l’amplification ou l’atténuation de certains paramètres climatiques selon les régions, comme l’humidité relative ou la température.
Les cernes des arbres, ces archives naturelles
Nous ne disposons pas d’enregistrements météorologiques avant les périodes préindustrielles. Pour étudier le temps au temps des cathédrales, on utilise donc des enregistrements indirects, issus d’archives naturelles telles que les cernes du bois, les coraux, ou des carottes de glace ; puis il faut relier les observations de ces archives naturelles à des données climatiques instrumentales.
Ces dernières années, un certain nombre de reconstructions de température basées sur des archives naturelles comme les cernes d’arbres ont été réalisées. Mais les principaux épisodes climatiques au cours du dernier millénaire ne sont pas encore bien décrits, car il existe peu d’archives naturelles avec des résolutions temporelles très fines, à l’échelle de l’année ou du mois.
En étudiant les signaux climatiques enregistrés dans les cernes de croissance des chênes de Notre-Dame (largeur des cernes, densité du bois, composition isotopique de la cellulose), nous tentons de reconstituer les changements climatiques et environnementaux locaux et régionaux qui se sont produits pendant la croissance des arbres – cette discipline s’appelle la « dendroclimatologie ».
Ces études permettent aussi de mieux comprendre le chantier de construction de la cathédrale, les contextes social et économique de Paris, voire la croissance des chênes et des forêts dans leur cadre environnemental.
La croissance des chênes à la loupe
La largeur, la densité et la composition chimique et isotopique des cernes varient en fonction du climat. Les compositions isotopiques du carbone et de l’oxygène des cernes sont classiquement utilisés pour étudier l’évolution des climats passés, car ils ont été fixés lors de la saison de croissance. Ces compositions varient au cours des réactions métaboliques dans l’arbre et l’intensité des changements dépend des conditions environnementales et climatiques dans lesquelles s’effectue la croissance.
Par exemple, le carbone qui constitue la cellulose des arbres vient du CO2 de l’atmosphère. Il est assimilé au niveau des feuilles et intégré dans les sucres, qui vont eux-mêmes s’associer pour former des molécules de cellulose. Lors d’un été sec, l’arbre limite ses échanges gazeux pour ne pas se déshydrater, ce qui entraîne une augmentation du rapport isotopique du carbone des sucres, et par suite de la cellulose. Une valeur relativement élevée du rapport isotopique du carbone de la cellulose d’un cerne pourra donc indiquer que l’été pendant lequel l’arbre a formé ce cerne a été plutôt sec.
Selon l’espèce, la région et le milieu de croissance de l’arbre, les rapports isotopiques du carbone et de l’oxygène peuvent refléter la température atmosphérique, le stress hydrique, la quantité de précipitations ou encore la couverture nuageuse.
Comprendre comment le bois a brûlé
S’il est connu que la carbonisation modifie les propriétés physiques et chimiques du bois, on sait aussi que le degré d’altération de la matière varie en fonction du mode de combustion : la température, la durée du chauffage, la disponibilité de l’oxygène dans l’atmosphère, la forme et la taille de l’échantillon de bois, l’espèce et sa teneur en eau peuvent avoir un impact sur le processus de carbonisation.
Il est difficile de reproduire l’incendie d’une charpente en laboratoire, mais les processus de combustion et pyrolyse peuvent, eux, être reproduits et étudiés via des expériences.
Le développement récent d’outils analytiques pour caractériser l’intensité de carbonisation du bois brûlé pourrait permettre d’utiliser les isotopes du carbone et de l’oxygène des poutres calcinées de Notre-Dame – et plus généralement de charbons de bois – pour reconstruire le climat.
Coupe de bois de chêne archéologique, plus ou moins carbonisé en périphérie laissant apparaître les anneaux de croissance annuels. Alexa Dufraisse
Par exemple, la méthode du « paléothermomètre Raman » permet d’estimer les températures maximales atteintes lors de l’incendie de Notre-Dame autour de 1200 °C. En dessous de 400 °C, la méthode de spectroscopie infrarouge permet de sonder les différentes étapes de décomposition thermique des composants du bois.
Pour chacun de ces outils, une courbe de calibration entre température supposée atteinte et différence mesurée dans la signature isotopique du bois peut être réalisée expérimentalement à partir de bois brûlés. Ces calibrations vont nous permettre, dans les prochaines années, de « corriger » les valeurs isotopiques, et ainsi de remonter à la variabilité naturelle du climat lors du long chantier de construction de Notre-Dame.
Luca Cortinovis ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Nous croyons à la libre circulation de l’information
Reproduisez nos articles gratuitement, sur papier ou en ligne, en utilisant notre licence Creative Commons.
Republier cet article
Machiavel (1469-1527) dans une scène imaginaire avec Borgia. Dans son traité politique, « Le Prince », Machiavel considérait Borgia comme un exemple du nouveau dirigeant. Shutterstock
Quel rapport les politiques entretiennent-ils à la vérité ? La question est vaste mais on peut entamer une amorce de réponse en revenant sur l’« affaire Taha Bouhafs » qui a agité la dernière campagne des élections législatives.
Le 10 mai 2022, le « journaliste-militant », annonçait sur Twitter se retirer de la course à la députation dans la 14e circonscription du Rhône. Pour expliquer son retrait, il accusait alors un système fait pour « broyer », lui interdisant « d’exister politiquement ».
Il est vrai que les nombreuses polémiques entourant Taha Bouhafs avait fait le bonheur de ses détracteurs : accusations de communautarisme, d’antisémitisme, « exubérance » – lorsqu’on le voyait agiter un masque de Marine Le Pen au bout d’une pique dans une manifestation en 2016 –, rien ne manquait pour servir la propagande adverse.
Accusations de violences sexuelles
À partir du 11 mai, le paradigme change. On apprend dans la presse qu’une enquête avait été ouverte quelques jours plus tôt par le comité de suivi contre les violences sexistes et sexuelles de LFI contre l’ex-candidat, mis en cause par une femme l’accusant de violences sexuelles. La veille de son retrait, Taha Bouhafs est mis au courant de cette accusation. A-t-il été désinvesti à cause de cette plainte ? S’est-il retiré, comme il le dit dans son communiqué, à cause du racisme ambiant, ou alors pour étouffer l’affaire ?
Le 5 juillet, le jeune militant publie sur Twitter sa vérité : le 9 mai, on le pousse – par l’intermédiaire de la députée de la France insoumise Clémentine Autain – à se retirer en lui intimant de justifier cela par les attaques incessantes dont il fait l’objet depuis l’annonce de sa candidature. Il demande une procédure contradictoire pour se défendre de l’accusation de violences sexuelles ; on la lui refuse, car on serait obligé dans ce cas de l’exposer médiatiquement, ce qui ne va pas dans son « intérêt ». En somme, selon lui, on l’a incité à cacher la vérité car elle serait mauvaise pour tout le monde.
Si Clémentine Autain dément le jour même sur Twitter – ne répondant pas réellement aux points soulevés par Taha Bouhafs mais critiquant le rapport du système à la parole des femmes –, le mal est fait. Le tapis est soulevé, le scandale apparaît : peu importe la vérité effective, une formation politique a voulu manipuler les faits pour ne pas s’exposer, répondant ainsi à l’éternelle exigence politique de paraître plutôt que d’être. Le 8 mai, Clémentine Autain confirme à demi-mot, s’étonnant qu’il eût fallu dire simplement la vérité aux Français.
La construction d’une image
À tête reposée, lorsque nous sortons des arcanes de la vie politique, il apparaît aisé de critiquer et de se scandaliser devant les manœuvres politiciennes qui émaillent l’actualité. Un ministre se mettant à faire des vidéos sur TikTok, des députés refusant de serrer la main de certains collègues « infréquentables » ou encore un président acceptant un « concours d’anecdotes » avec deux célèbres youtubeurs, ce ne sont là que des exemples récents de l’immuabilité de cette nécessité politique : plaire, ou a minima conforter sa base.Concours d’anecdotes à l’Élysée. YouTube.
Clémentine Autain, par cette petite phrase, ne fait qu’énoncer une réalité banale pour un acteur de la chose publique. Toute vérité est-elle bonne à dire ? Pas sûr. Le philosophe Blaise Pascal écrivait bien que « dire la vérité est utile à celui à qui on la dit, mais désavantageux à ceux qui la disent, parce qu’ils se font haïr », a fortiori lorsqu’on commence à gravir les marches du pouvoir.
Un prétendant aux responsabilités se doit donc d’œuvrer à ne se servir de la vérité qu’avec parcimonie, sous peine de se desservir. Ainsi, Clémentine Autain choque en faisant l’erreur de dire tout haut ce que le public sait tacitement : on lui vend des idées, une direction, mais aussi une image et un récit. Le politique dit ce qu’il doit dire pour obtenir et conserver le pouvoir. Il peut sincèrement se draper dans une vision vertueuse de son action, mais viendra obligatoirement le moment où les intérêts supérieurs de la chose publique vont lui imposer l’usage de l’illusion politique afin d’éclipser une vérité effective nuisible.
[Près de 70 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui.]
La nécessité de paraître
Si le politique se sent obligé d’agir de la sorte, c’est qu’il a conscience de l’émotionnalité et de l’affectivité des gouvernés. Il faut absolument parler à ses instincts, répondre à ses désirs, sonder ses attentes. En ce sens, le contrôle du message que l’on transmet est indispensable si l’on souhaite pouvoir façonner le cadre dans lequel les électeurs/sujets vont s’engager.
Le philosophe et sociologue Pierre Ansart énonce ainsi que la gestion des passions politiques par le contrôle des mots et des discours :
« Selon une intuition constante des gouvernants, il y a, en quelque sorte, un pouvoir des mots et le contrôle des mots constitue une forme de pouvoir et l’un de ses instruments. Il s’agit, en particulier, d’atteindre, à travers cet élément accessible, l’insaisissable des attitudes affectives ».
Dans notre cas d’espèce, le choix de la part de La France insoumise de motiver le retrait de Taha Bouhafs par la vague de racisme et d’acharnement médiatique à laquelle il est confronté, plutôt que d’énoncer ouvertement que l’accusation de violences sexuelles dont il fait l’objet est la cause principale de cette décision, est symptomatique de cette volonté de contrôle du message politique. Il est en effet bien plus « positif » pour le parti de Jean-Luc Mélenchon de dire que seules les discriminations sont à l’origine de cet échec ; ainsi, on montre à sa base que des moteurs de l’action politique pour lesquels elle s’est mise à soutenir le mouvement, à savoir l’antiracisme et la lutte contre l’islamophobie, ne sont pas des luttes vaines ou abouties.
Le politique se donne l’obligation de paraître pour plaire à ceux qu’il est amené à dominer. Dans la réalité de la chose publique, beaucoup considèrent que ce sont les sentiments, plus encore que les idées, qui animent le corps civil, le mettent en mouvement. En ce sens, il est bien plus aisé de manipuler l’opinion en créant une illusion politique plutôt que d’imposer une vision qui, même si elle est juste et va dans l’intérêt commun, pourrait faire figure de contrainte dans l’esprit des gouvernés.
Pouvoir des mots
Chaque époque a ses mœurs et son propre climat politique. La nôtre n’a, dans les jeux de pouvoir, qu’une violence symbolique : « Les mots sont des armes ». Il n’est plus acceptable de nos jours – hormis chez certains groupes radicalisés d’extrême droite ou parmi la mouvance antifasciste – que les affrontements politiques prennent la forme de lutte armée, de ratonnades ou d’intimidations.
Généralement, tout fait divers sur une agression de militant entraîne une condamnation quasi unanime de la scène politique – bien que cela soit à relativiser selon la nature partisane des militants agressés. Les hommes et femmes politiques ne se livrent bataille qu’au travers d’une guerre logorrhéique sans fin, le vainqueur étant celui qui parvient à capter l’attention médiatique le plus fréquemment. Aujourd’hui, l’acmé de l’immoralité politique est atteinte lorsqu’un élu se réclamant d’une probité sans faille se retrouve empêtré dans un scandale de corruption.
À l’époque de Machiavel, la réalité du quotidien est bien différente et le cynisme emprunte des voies ô combien plus tortueuses. Il ne s’agit plus simplement de manipuler l’opinion en substituant telle ou telle information, il faut infléchir la volonté des peuples par l’usage de méthodes beaucoup plus radicales.
L’un des exemples les plus célèbres date de la Renaissance et repose dans l’un des faits d’armes de César Borgia (1475-1507), fils de pape et aspirant tyran.
Machiavel nous conte cet événement dans le chapitre VII du Prince. Souhaitant pacifier les territoires de Romagne qu’il avait nouvellement acquis, Borgia plaça comme plénipotentiaire l’un de ses bras droits, Rimirro de Orco, avant de partir vers d’autres conquêtes. Connaissant la nature sadique et impitoyable de son lieutenant, il l’enjoignit à user de tous les moyens possibles pour soumettre cette population réputée indomptable. Rimirro ne se fit pas prier et administra « efficacement » la région, usant d’une violence non restreinte et se créant de fait de nombreux ennemis las de subir ses cruautés.
C’est dans cette configuration que revint son maître quelques mois plus tard. Voilà ce qui s’ensuivit : « Et puisque [César Borgia] savait que les rigueurs passées avaient engendré quelque haine à [l’égard de Rimirro], pour purger les esprits de ces peuples et les gagner tout à fait il voulut montrer que, si quelque cruauté s’était ensuivie, elle n’était pas née de lui, mais de la cruelle nature de son ministre. Et tirant occasion de cela, un matin, à Cesena, il le fit mettre en deux morceaux sur la place, avec un billot de bois et un couteau ensanglanté à côté de lui : la férocité de ce spectacle fit demeurer ces peuples en même temps satisfaits et stupéfaits ». Ce faisant, Borgia usa du monstre qu’il avait créé à son avantage. Il avait beau être la véritable cause des souffrances de son peuple, on ne vit finalement en lui que le bienfaiteur les ayant libérés de la poigne de fer du ministre. L’assassinat symbolique permit à son action politique de s’exercer avec une efficacité qu’il n’aurait pu avoir qu’à grand-peine sinon ; ce n’est pas pour rien qu’au moment de sa chute quelques années plus tard, et ce malgré son emprisonnement, les forteresses romagnoles lui restèrent fidèles jusqu’à l’extrême limite.
Demeure une volonté de plus en plus prégnante ces dernières années, l’aspiration des citoyens à une vie politique plus accessible, ou en tout cas moins opaque. C’est dans cette optique, par exemple, qu’a été créée en décembre 2013 la Haute Autorité pour la transparence de la vie publique, organe administratif chargé de contrôler le patrimoine et les éventuels conflits d’intérêts ou fraudes de responsables publics. Par ce biais, François Hollande répondait à une légitime aspiration du public, marquée notamment cette année-là par les ravages de l’affaire Cahuzac.
Plus récemment, au début de la pandémie en 2020, un autre scandale avait entouré les annonces du gouvernement concernant l’inutilité supposée des masques pour empêcher la propagation du virus. N’aurait-il pas été plus opportun de dire aux Français qu’il n’y en avait juste pas assez pour palier à la crise, au lieu d’affirmer par la voix du porte-parole du gouvernement qu’ils n’étaient pas nécessaires pour se protéger ? Tout le monde sait pourtant qu’on pardonne facilement à celui qui dévoile honnêtement ses carences ; bien plus qu’à celui qui se trouve devant les méfaits accomplis. Machiavel, dans ses Discours, rappelait cet axiome cicéronien : « Les peuples, quoiqu’ignorants, sont capables d’apprécier la vérité, et ils s’y rendent aisément quand elle leur est présentée par un homme qu’ils estiment digne de foi ». La confiance, ça se mérite.
François NicolleEnseignant chercheur – ICD Paris, ICD Business School
Ziyed GuelmamiEnseignant-chercheur en marketing, Institut Mines-Télécom Business School
Déclaration d’intérêts
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.
Nous croyons à la libre circulation de l’information
Reproduisez nos articles gratuitement, sur papier ou en ligne, en utilisant notre licence Creative Commons.
Republier cet article
L’utilisateur se retrouve sans le savoir dans une sorte de purgatoire où son expérience est rendue volontairement frustrante, aux antipodes de la promesse initiale des plateformes. Shutterstock
Aujourd’hui, malgré une réputation encore sulfureuse, les applications constituent un moyen crédible de rencontrer des partenaires pour de nombreux Français.
À titre d’exemple, près d’un quart des Français ayant trouvé un partenaire depuis la fin du premier confinement l’a rencontré sur une application de rencontre.
Pourtant, ce type de plates-formes suscite encore de la méfiance pour les non-utilisateurs, mais aussi pour les utilisateurs. Ces derniers vivent parfois ces applications comme des espaces de frustration et parfois de souffrance. Au-delà du lieu commun du « supermarché de l’amour », nous proposons d’examiner les raisons pour lesquelles les applications de rencontre peuvent aliéner ou objectifier leurs utilisateurs.
Un design d’application exploitant le désir amoureux
Quel que soit leur concept (à l’exception des applications de slow dating proposant volontairement peu de profils dans une logique qualitative) et, leurs spécificités, les applications de rencontre visent à faciliter et à accélérer les rencontres. À l’instar des réseaux sociaux, leur enjeu économique fondamental est l’acquisition, la rétention et la monétisation de leurs utilisateurs. Et comme pour les réseaux sociaux, la démarche business sous-jacente à ces plates-formes revêt de graves conséquences.
Ainsi, dès l’inscription, les applications simplifient l’accès à leur vivier de célibataires : il suffit souvent d’un compte Facebook ou d’un numéro de téléphone, et d’une image pour exister sur la plate-forme. Les utilisateurs étant peu guidés et conseillés, la qualité des profils s’en ressent.
Selon l’étude que nous avons menée dans le cadre de notre ouvrage « Applications de rencontre. Décryptage du néo-consumérisme amoureux », seulement 59 % des profils masculins proposent une description et un tiers d’entre eux proposent une description ou biographie de plus d’une phrase. La pauvreté du contenu de nombreux profils (ou leur aspect très artificiel) implique que l’on s’y attarde moins, qu’on ne les prend pas au sérieux. En conséquence, l’être humain derrière le profil s’avère beaucoup moins visible. Notons que ce phénomène est moins prégnant sur les sites de rencontre traditionnels (où les frais d’inscription supposent une plus grande élaboration du profil) et sur certaines applications encourageant les utilisateurs à répondre à un grand nombre de questions pour alimenter leur profil.
Algorithmes secrets
Ce premier problème n’a pourtant qu’une influence toute relative sur le désir des utilisateurs, promis à la rencontre d’une abondance de célibataires. Une ou deux photos peuvent suffire à susciter l’envie de rencontrer. Ici, la nécessité des applications à retenir leurs inscrits peut s’avérer nuisible. Nul ne sait comment sont conçus les différents algorithmes de suggestion de profils, seulement, si l’on se fie à l’expérience des utilisateurs telle qu’elle est racontée, on se rend compte que les applications distillent les profils pertinents au compte-goutte et qu’une lassitude tend à s’installer. Ce sentiment suscite une moindre implication dans la démarche de dating, un moindre intérêt dans chaque profil proposé, et, conséquemment, la multiplication de comportements peu constructifs, voire antisociaux.
Enfin, la nécessité de monétiser les profils prometteurs contribue également à faire des applications de rencontres des machines à créer de la frustration. Il s’agit pour ces plates-formes d’amoindrir la performance naturelle de ces utilisateurs pour les encourager à opter pour des options payantes (pour mettre en avant son profil, pouvoir aimer un nombre illimité de profils ou envoyer un message non sollicité, etc.). Ce système permet aux applications de rencontre de figurer parmi les plus rentables au monde.
[Près de 70 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui.]
L’utilisateur lambda, attiré par les applications pour leur gratuité apparente, se retrouve donc sans le savoir dans une sorte de purgatoire où son expérience serait rendue volontairement frustrante, aux antipodes de la promesse initiale des plates-formes, en proie aux problèmes d’estime de soi que l’on peut imaginer. On observe ainsi nombre d’utilisateurs s’accrochant désespérément à la moindre mise en contact et certains autres développant de l’agressivité.
Un système fécond de comportements antisociaux
La conception (le design) des applications de rencontre, ainsi que la nature même du cyberespace, favorise les comportements antisociaux et tend donc à déshumaniser les rencontres en ligne. Nous abordons ici quelques exemples parlants qui nous ont été relatés dans le cadre de notre étude.
Tout d’abord, parmi les critères d’adoption des applications de rencontre, deux aspects sont régulièrement évoqués : s’engager dans une logique d’homophilie ou s’ouvrir à de nouveaux horizons. Si cela semble contradictoire, nos recherches démontrent que ces deux approches aboutissent sur un comportement de recherche similaire : une hypercritérisation.
D’après notre étude, 73,8 % des répondants se considèrent plus sélectifs en matière de critères sur les applications que dans la vie hors ligne. Cette hypercritérisation correspond à une tendance très prononcée à focaliser son attention sur des critères conçus comme des préférences personnelles mais souvent découlant du système des applications tels que l’âge, la taille, la couleur de peau, des cheveux, le métier, le niveau d’études, la religion, la qualité de l’orthographe, etc.
Cette hypercritérisation va souvent de pair avec une hypersélectivité. Un utilisateur pourra donc considérer que le moindre élément d’un profil est rebutant et disqualifier ainsi chaque profil non conforme, à tout moment. Ce phénomène, s’il peut paraître bénin ou légitime, tend à vider la démarche de rencontre de son sens, à la rendre bien plus artificielle et à instaurer la fameuse atmosphère de « prêt-à-jeter » tant décriée sur les applications. Paradoxalement, l’hypercritérisation et l’hypersélectivité constituent le revers de la médaille d’une trop grande abondance de profils.
Violence du ghosting
En conséquence, le ghosting s’est imposé comme un acte de violence normalisé et intériorisé par les utilisateurs. Ce terme issu de l’anglais « ghost » (fantôme) désigne le fait de ne plus donner de nouvelles à quelqu’un de manière subite et définitive, sans raison apparente. Selon notre étude, 53 % des hommes et 80 % des femmes admettent l’avoir déjà fait lors de leur activité de dating. Il est intéressant de noter que le ghosting se pratique aussi après une rencontre « en réel » suite à des échanges sur les applications de rencontre. Il ne s’agit donc pas seulement d’un problème de design des applications ; le système d’abondance qu’elles ont instauré altère également les interactions humaines hors du monde virtuel. Plusieurs éléments viennent favoriser cette pratique sur les applications : la consommation cyclique des plates-formes (les utilisateurs s’inscrivent et se désinscrivent au gré de leur situation amoureuse), l’incitation à flirter avec plusieurs personnes à la fois, la décontextualisation des rencontres (c’est-à-dire qu’aucun contexte social ne consolide le lien établi entre deux personnes), la mauvaise perception – paradoxale – que l’on a des autres utilisateurs sur ces plates-formes (c’est le cas de 54 % des répondants de notre étude), le fait d’être soi-même régulièrement victime de ghosting et de vouloir « rendre la pareille ».
La problématique de l’hypercritérisation présente également des cas plus extrêmes, par exemple la fétichisation, notamment des minorités. De nombreux témoignages ainsi que les travaux du chercheur français Marc Jahjah mettent en évidence ce phénomène sur les applications. La fétichisation consiste dans ce cas à ne plus considérer son interlocuteur comme un individu à part entière, mais à l’assimiler à une catégorie, un stéréotype, basé sur des critères visibles comme la couleur de peau, la taille, une partie de son corps (seins, mains, pieds, cheveux, sexe, etc.). Ici, l’humain est donc réduit à l’un de ses attributs : il s’agit donc d’une forme d’objectification qui contribue à alimenter le sentiment de déshumanisation et de marchandisation sur les plates-formes de rencontre.
Quitter les applications pour réhumaniser la rencontre en ligne ?
La lassitude (la « dating fatigue ») est sans doute le plus grand mal qui ronge le monde des applications aujourd’hui. Si ces plates-formes semblent satisfaire leurs utilisateurs au début de leur activité, ce sentiment semble décroître au fur et à mesure du temps, ce qui amène logiquement les utilisateurs à quitter ces plates-formes. 88 % de nos sondés déclarent avoir déjà désinstallé toutes leurs applications de rencontre. Cependant, parmi eux, seuls 31 % l’ont fait car ils avaient rencontré une personne qui leur convenait. Les 69 % restants ont quitté les applications par lassitude, pour leur caractère chronophage ou suite à une mauvaise expérience. Ces chiffres ne surprennent pas, étant donné que la frustration sur les applications de rencontre fait partie intégrante de leur modèle d’affaires « freemium ».
En guise d’alternative, les ex-utilisateurs, notamment les jeunes, se tournent de plus en plus vers les réseaux sociaux comme Instagram pour faire des rencontres. Sur ces plates-formes, les échanges sont perçus comme plus authentiques, et donc, plus humains.
Nous soulevons donc le rôle essentiel que les utilisateurs ont à jouer pour contribuer à réhumaniser les rencontres en ligne, mais soulignons surtout la responsabilité des applications qui se doivent de proposer une conception éthique de l’expérience utilisateur si elles souhaitent se pérenniser. Un mouvement s’opère déjà chez les plates-formes pour intégrer des dispositifs de sécurité et pour lutter contre les pratiques antisociales mais leur modèle d’affaires semble encore limiter leurs options.