Bien qu’à Londres, l’Institut Courtauld soit installé sur le Strand, en plein cœur de la ville, le nom de son bienfaiteur est assez largement ignoré. Ce qui est moins connu encore, c’est son amitié non seulement avec l’économiste John Maynard Keynes mais aussi avec son épouse, Lydia Lopokova. Il l’a connue lorsqu’elle dansait encore pour Diaghilev. D’ailleurs, si Courtauld n’avait pas été marié à Elizabeth, plus couramment surnommée Lil, il l’aurait peut-être épousée ! En effet, l’industriel n’était pas seulement collectionneur de tableaux. Il aimait aussi les femmes et les voitures de luxe. Plus tard, il revendra d’ailleurs sa Rolls Royce à Keynes.
Le groupe de Bloomsbury
Samuel Courtauld est l’héritier d’un magnat du textile. Il a arrondi sa fortune en se spécialisant dans la viscose ce qui lui permet de satisfaire ses caprices de collectionneur et de fréquenter les salons. Son attirance pour l’art le rapproche du Groupe de Bloomsburyqui réunit des intellectuels, Keynes, bien sûr, mais aussi des écrivains comme Virginia Woolf ou E.M. Forster, des artistes comme Vanessa Bell et Duncan Grant – dont certaines peintures sont exposées à l’Institut dans la salle dédiée au Groupe- ou des critiques d’art comme Clive Bell et Roger Fry peintre lui-même, qui dès avant la guerre avait fait connaître les post-impressionnistes à l’Angleterre. C’est lui qui avait convaincu Courtauld d’acheter les Cézanne aujourd’hui présentés à la Fondation Louis Vuitton.
Une réunion à Garsington Manor : Lady Ottoline Morrell, Mme Aldous Huxley, Lytton Strachey, Duncan Grant et Vanessa Bell.National Portrait Gallery, Londres.
C’est sans doute au 46, Gordon Square, chez Keynes, que l’industriel commence à courtiser Lydia Lopokova à l’occasion d’une réception donnée en l’honneur de Diaghilev. Pourtant l’économiste comptait bien profiter de cette invitation pour renouer avec la ballerine qu’il avait commencé à approcher quelques mois auparavant avant qu’elle ne disparaisse mystérieusement et réapparaisse à cette occasion. En fait, Courtauld en entraînant Lydia dans de longues virées dans ses voitures de course, lui permettait de rendre jaloux un Maynard Keynes qu’elle trouvait trop hésitant. Est-il sérieux quand il lui écrit en septembre 1923, deux ans avant leur mariage, « je vais voir Lil et nous aurons ensemble une sérieuse discussion sur vous et Sam Samuel Courtauld » ?
Mais c’est Maynard qu’épousera Lydia. Il se rapprochera de Courtauld et son épouse de Lil. Quand Keynes est absent, à Cambridge ou à l’étranger, ce sont les Courtauld qui la distraient. Quand elle danse à Paris, le couple fait le voyage pour promener la danseuse esseulée à Longchamp et lui faire connaître les meilleurs restaurants de la capitale. Quand elle est lasse de la fréquentation de Bloomsbury, où les amis les plus proches de Maynard Keynes, Virginia Woolf et sa sœur Vanessa Bell lui font bien sentir qu’elle n’est pas à sa place, c’est chez eux qu’elle se réfugie. Quand elle a besoin d’argent pour financer ses spectacles, c’est vers le magnat du textile qu’elle se tourne, même si après la crise de 1929, sa fortune n’est plus aussi certaine.
La mort brutale de Lil en 1931 est un coup dur. C’est à ce moment-là que Courtauld commence à faire don de sa collection à la Fondation qui porte son nom. Fondation où l’on organise des conférences et, bientôt, où l’on enseignera l’histoire de l’art. Anthony Blunt est l’un des intervenants les plus brillants de la Fondation : tout en se spécialisant dans la peinture classique française, et tout particulièrement, Nicolas Poussin, il défend presque fanatiquement la peinture moderne.
Espions de Cambridge
C’est un grand amateur de Picasso, un ami de Lydia, rencontré à Rome en même temps que sa première épouse, Olga Khokhlova, avec qui elle partageait la scène. Blunt était lui aussi très proche de Bloomsbury et de Keynes qui l’avait introduit dans son cercle d’intimes. Il rêvait de devenir le directeur de la Fondation et le deviendra effectivement après la guerre. On apprendra bien plus tard qu’il était un des cinq espions de Cambridge et qu’il avait organisé l’exfiltration vers l’Union soviétique de ses amis Guy Burgess et Donald Maclean.
En 1941, lorsqu’à Washington, Keynes est chargé de négocier les prêts-baux qui aideraient l’Angleterre à financer la guerre, le secrétaire au Trésor, Henry Morgenthau, sans doute aiguillonné par son assistant Harry Dexter White, s’étonne de voir la délégation britannique conduite par un théoricien bénévole plutôt que par un diplomate ou un haut fonctionnaire du Trésor. Renseigné par ses agents, il soupçonne Keynes d’être missionné par Samuel Courtauld pour saboter le rachat d’American Viscose qu’impose le gouvernement américain, prêt à racheter tout ce que les Anglais possèdent comme préalable à leur aide.
Keynes disparaît en 1946 et Samuel Courtauld l’année suivante, peu de temps après qu’Anthony Blunt ait pris la direction de la Fondation qu’il dirigera jusqu’en 1974. C’est en 1979 qu’à la Chambre des Communes, Margaret Thatcher dénoncera l’espion.
Chercheur et directeur du Centre d’études de la neige (Centre national de recherches météorologiques, Météo-France – CNRS), Météo France
Déclaration d’intérêts
Les travaux présentés dans cet article ont été impulsés sur les fonds propres de l’Irstea Grenoble – UR LESSEM et du Centre d’étude de la neige (UMR CNRM) et se sont prolongés dans le cadre de la thèse de P. Spandre, financée par la région Rhône-Alpes. Le programme de recherche Adamont a été financé par le GICC et le projet Prosnow est soutenu par la Commission européenne dans le cadre du dispositif H2020. Ces travaux ont également reçu le soutien des Labex OSUG et ITEM ainsi que du CDP Trajectories. Ces programmes de recherches sus-cités impliquent directement des partenaires socio-économiques qu’il s’agisse de collectivités locales ayant la charge du service public des remontées mécaniques ou de sociétés, parfois des SEM, qui ont reçu la gestion de ce service par délégation de la collectivité.
Les travaux de recherche menant à cette contribution ont été co-financés par la région Rhône-Alpes (thèse P. Spandre), le projet GICC Adamont, le projet INTERREG POCTEFA Clim’Py, le projet IDEX université Grenoble Alpes Trajectories, le projet LabEX OSUG@2020, le projet européen Prosnow (H2020, convention n°730203) et le contrat Copernicus C3S SIS European Tourism et un contrat avec le département de l’Isère/Isère Tourisme portant sur la faisabilité climatique de la neige de culture dans les stations de sport d’hiver en Isère.
Partenaires
Canon à neige dans la station pyrénéenne de Font-Romeu, en 2016. Raymond Roig/AFP
Le temps du développement intensif des stations de sports d’hiver, impulsée dans les années 1960 par le « Plan neige », est aujourd’hui révolu. À cette période, l’aménagement de nouveaux sites primait sur les préoccupations relatives à l’enneigement, et les services de l’État privilégiaient l’équipement des sites d’altitude pour construire des stations dites « en site vierge », comme La Plagne, les Arcs ou Tignes.
Dans leur sillage, de nombreuses stations de moyenne montagne ont vu le jour, jusque dans les années 1980, de manière plus diffuse et avec des formes d’aménagement variées. Ces dernières se sont révélées plus exposées à la variabilité naturelle de l’enneigement.
Développement controversé
Cette dynamique d’équipement touristique de la montagne soutenue par les pouvoirs publics (locaux et nationaux) a été, dès son origine, un sujet de controverse entre des acteurs porteurs d’une vision « aménagiste » et ceux davantage orientés vers la préservation de l’environnement.
Dès les années 1970, différents ouvrages ont remis en cause la pertinence de ce choix d’aménagement. La neige empoisonnée (1975) de Danielle Arnaud montre ainsi les limites du modèle économique de la station intégrée, tandis que Bruno Cognat souligne dans La montagne colonisée (1973), l’impact des conditions d’enneigement dont sont tributaires les stations de sports d’hiver.
À la fin des années 1970, les oppositions se cristallisent dans « l’affaire de la Vanoise » qui voit s’affronter les promoteurs de la station de Val Thorens et les défenseurs du jeune Parc national de la Vanoise, créé en 1963. Ce conflit a été fondateur : il a entériné l’idée selon laquelle le développement des stations par les « aménageurs » et la préservation de l’environnement revendiquée par les « protecteurs » étaient définitivement opposés et inconciliables.
À la fin des années 1980, la succession d’hivers « sans neige » a contribué à relancer ces débats, notamment suite aux rapports Lorit (1991) et Pascal (1993), qui critiquent les choix d’implantation des stations de sports d’hiver. La question de la « garantie neige » devient alors centrale. Le développement des techniques de gestion de la neige dans les domaines skiables commence à se développer jusqu’à devenir des outils ordinaires.
Originellement dédié au confort des skieurs, le damage contribuera à son tour au maintien du manteau neigeux et à la répartition de la neige sur le domaine skiable. Et ces dernières années, le développement d’outils de mesure de hauteur de neige – associées aux travaux de profilage et de lissage des pistes – a permis d’améliorer la « skiabilité », y compris en conditions de moindre enneigement.
Enfin, la neige de culture a pris une part croissante dans la gestion des domaines skiables. On désigne ainsi la production de billes de glace d’un diamètre de quelques dixièmes de millimètres, par pulvérisation de micro-goutelettes d’eau qui se solidifient avant d’atteindre le sol, et dont la consistance est proche de celle de la neige damée. Initialement utilisée en palliatif en cas de déficit d’enneigement, elle est devenue un moyen systématique de préparation des pistes en amont de la saison hivernale, permettant aux exploitants de réduire les risques d’enneigement insuffisant, et d’exploiter au mieux les chutes de neige ultérieures.
Le déploiement de l’ensemble de ces techniques a occasionné de nouveaux investissements, vus comme une nécessité pour les partisans du développement des stations « aménageurs » ou une fuite en avant pour les « protecteurs ».
La menace climatique
Le changement climatique a relancé ces dernières années les débats : pour les « protecteurs », le développement des pratiques de gestion de la neige apparaît comme une hérésie au regard des moyens et ressources naturelles (l’eau principalement) mobilisées pour une activité qui paraît à terme condamnée. Les « aménageurs », eux, mettent en avant le savoir-faire et la capacité de gestion de la neige pour soutenir un secteur critique pour les territoires de montagne.
Les observations effectuées par le Centre d’études de la neige au Col de Porte, à 1325 m d’altitude dans le massif de la Chartreuse (Alpes du Nord), montrent que la hauteur moyenne de neige sur la période 1990-2017 a baissé de 40 cm par rapport à la période 1960-1990. Des observations analogues sont rencontrées en moyenne montagne dans l’ensemble de l’arc alpin.
Les projections climatiques relatives à l’enneigement naturel pour le XXIe siècle ont depuis longtemps mis en évidence les conséquences néfastes du changement climatique sur l’enneigement en moyenne montagne, c’est-à-dire pour les gammes d’altitude les plus proches, actuellement, de la limite pluie/neige moyenne.
Si la raréfaction des conditions d’enneigement naturel est avérée, la généralisation et l’amélioration des techniques de gestion du manteau neigeux ont toutefois permis aux gestionnaires de domaines skiables de composer avec un enneigement réduit. Cette situation renforce encore l’opposition entre les deux visions de l’aménagement de la montagne évoquées plus haut.
La communauté scientifique s’est saisie de ces problématiques pour mieux comprendre les relations entre les enjeux socio-économiques liés au tourisme en montagne et l’évolution du climat.
En France, des travaux de recherche ont récemment été menés à ce sujet, associant le Centre d’études de la neige (CEN) et le Laboratoire écosystèmes et sociétés en montagne (LESSEM).
Ces laboratoires ont par exemple développé une méthode d’estimation de l’enneigement des domaines skiables ; celle-ci croise des informations sur l’organisation spatiale et l’infrastructure des domaines skiables (réunies dans la base de données « BD Stations ») grâce à l’outil « SAFRAN–Crocus » qui modélise les conditions météorologiques et d’enneigement en montagne.
La combinaison de ces outils permet de calculer, à l’échelle d’un domaine skiable donné, un indice synthétique de fiabilité de l’enneigement (sur une base quotidienne et agrégé à l’échelle de la saison touristique hivernale). La mise en œuvre de tels outils permet également de calculer la consommation d’eau nécessaire pour la production de neige de culture.
La disparition du ski ?
Après avoir étalonné la méthode sur la base des années passées (de 1958 à 2015) et avoir comparé ses résultats à la fréquentation des domaines skiables, celle-ci a été mise en œuvre en utilisant des projections climatiques, obtenues par ajustement des projections climatiques régionales à l’aide d’une méthode développée spécifiquement pour les zones de montagne.
Ceci permet de calculer la fiabilité de l’enneigement des stations de sport d’hiver, en fonction des scénarios climatiques (réduction, modération ou accroissement des émissions de gaz à effet de serre) et des perspectives d’équipement en neige de culture dans les domaines skiables.
La première application de cette méthode a été conduite sur le territoire du département de l’Isère pour analyser l’impact du changement climatique sur les domaines skiables des 23 stations du département. Cette opportunité permettra d’étendre les calculs à l’échelle de l’ensemble des Alpes et jusqu’à la fin du siècle.
Les résultats à l’échelle de l’Isère montrent qu’il existe une corrélation forte entre la fréquentation des domaines skiables et les conditions d’enneigement naturel. Ils montrent aussi qu’avec les taux actuels de couverture moyenne en neige de culture (environ 30 % des surfaces de pistes équipées), la neige de culture a un impact significatif sur la couverture neigeuse des domaines skiables.
Produire de la neige de culture implique une consommation d’eau. Celle-ci est allée croissante, suivant le rythme d’extension des surfaces équipées. Dans l’étude que nous avons conduite, cette évolution se poursuit jusqu’en 2025, période à partir de laquelle le besoin en eau continue de croître alors que le taux d’équipement se stabilise.
Dans tous les cas, les conditions réelles d’enneigement n’ont qu’un impact indirect sur la consommation d’eau. En effet la plus grande partie de la neige produite l’est en avant-saison avant de connaître le besoin réel permettant de compenser un éventuel déficit de neige naturelle. La production est donc très peu variable d’une année à l’autre, et le volume total d’eau mobilisé est directement lié à la surface de piste équipée de neige de culture.
De manière générale, tout comme la plupart des effets du changement climatique, à l’échéance de la première moitié du XXIe siècle, les différences entre les scénarios d’émissions de gaz à effet de serre du GIEC importent peu. En effet, les concentrations actuelles de gaz à effet de serre dans l’atmosphère et les émissions actuelles de gaz à effet de serre déterminent d’ores et déjà l’évolution des prochaines décennies.
Les projections indiquent un accroissement de la fréquence de retour des années avec un enneigement naturel défavorable (celui rencontré une année sur cinq), atteignant une année sur trois en milieu de XXIe siècle. Les résultats de simulation pour un taux de couverture moyen de 40 % des surfaces en neige de culture indiquent qu’en milieu de siècle les conditions d’enneigement des années les plus défavorables seront comparables aux conditions d’enneigement des années défavorables du début du XXIe siècle, sans neige de culture.
Au-delà de 2050, les différences entre les scénarios jouent un rôle beaucoup plus fort. Alors que dans le scénario où l’humanité atteint la neutralité carbone en milieu de XXIe siècle la situation se stabilise aux niveaux atteints en milieu de siècle, dans le cas de la poursuite de la croissance des émissions de gaz à effet de serre, la neige de culture ne constituera plus, pour une majorité de stations – excepté celles de plus haute altitude – une parade efficace à la réduction drastique de l’enneigement naturel, qui pourra atteindre 80 % en moyenne par rapport aux conditions du début du XXIe siècle.
Avec le réchauffement climatique, la quantité d’eau nécessaire à maintenir l’activité des stations de ski va augmenter de manière considérable d’ici 2050. Jusqu’à quand les sports d’hiver resteront…
franceinter.fr
See Samuel Morin’s other Tweets
Encore beaucoup d’inconnues
La question des ressources hydriques, en matière de disponibilité ou de coût, reste très variable d’une station à l’autre, comme l’ont bien montré des travaux de recherche présentés en 2010 et 2015.
L’étude menée pour Isère Tourisme indique qu’avec les projets d’installation de retenues collinaires (stockage d’eau) – réalisées spécialement à cet effet, et les prélèvements dans les barrages hydro-électriques, directement dans les cours d’eau naturels ou dans le surplus du réseau d’adduction d’eau potable –, le risque de conflit d’usage pourrait être marginal. Mais cette question reste encore assez inexplorée alors qu’elle se trouve au cœur même de l’opposition entre « protecteurs » et « aménageurs ».
Les premiers dénoncent une pression irraisonnée sur une ressource elle-même potentiellement menacée par l’évolution du climat alors que les seconds développent la notion d’emprunt temporaire de la ressource utilisée pour la fabrication de neige avant d’être restituée au milieu naturel lors de la fonte.
À l’heure actuelle, aucune étude scientifique prenant considération l’ensemble des usages de l’eau et leurs interactions dans une perspective de co-adaptation n’existe. Des recherches à l’échelle d’un bassin versant intégrant la diversité des usages (eau potable, usages agricoles, protection contre les incendies, loisirs estivaux, etc.) s’avèrent nécessaires pour éclairer ces questions.
Aujourd’hui, si des travaux récents permettent de mesurer de plus en plus précisément les atouts et les limites de la neige de culture pour accompagner l’adaptation des stations des sports d’hiver à la variabilité et au changement climatique, il convient de décliner ces recherches à l’échelle de chaque station.
Les résultats scientifiques doivent par ailleurs être complétés par des analyses socio-économiques complètes, notamment concernant l’influence de la neige de culture sur le modèle économique des stations, et au final le prix des forfaits et l’attractivité touristique.
À l’image des questions transversales soulevées par l’allocation de la ressource en eau, le changement climatique nous invite à dépasser les clivages historiques pour repenser le développement et l’aménagement de la montagne dans sa globalité.
Directeur de recherche à l’INRA, économiste, Agro ParisTech – Université Paris-Saclay
Plus que de diminuer leur consommation de viande, les carnivores sont prêts à privilégier une viande produite dans de meilleures conditions environnementales. Shutterstock
Omniprésence de la viande dans nos assiettes, plats ultra-transformés, sucreries industrielles… Nos régimes alimentaires sont régulièrement pointés du doigt par la science. La célèbre revue médicale The Lancet a publié le 16 janvier dernier un long article à propos des conséquences de notre alimentation sur l’environnement et la santé.
Les auteurs y lancent un appel à changer radicalement nos habitudes : il s’agit à la fois d’améliorer la santé des populations et de préserver l’environnement, qui rétroagit fortement sur la production alimentaire. Ils préconisent essentiellement de baisser la consommation de viande, de produits sucrés et de préparations industrielles au profit des fruits et légumes, de graines et noix, ainsi que des légumineuses (pois, lentilles…).
Au-delà de la réduction importante des maladies chroniques, ces changements auraient des impacts significatifs sur le portefeuille des ménages. Partant de la dépense hebdomadaire moyenne d’une famille française, une étude publiée par le WWF en 2018 montre qu’un panier flexitarien – dans lequel on réduit fortement la part des protéines animales au profit de protéines végétales – lui coûterait 21 % moins cher que son panier actuel.
Taxer la viande, une méthode inéquitable
Ces études mettent tout particulièrement en évidence les avantages substantiels liés à la réduction de la consommation de viande. Cependant, la capacité des consommateurs à y renoncer est souvent contrariée par des habitudes bien établies.
Selon le Credoc, la consommation de viande des Français a toutefois baissé de 12 % au cours des dix dernières années. En 2007, les Français mangeaient en moyenne 153 grammes de produits carnés par jour, contre 135 grammes en 2016, ce qui correspond à une baisse moyenne de 18 grammes en dix ans.
Dans ce contexte, certains scientifiques préconisent l’imposition d’une très forte taxe sur la viande, difficile à mettre en place concrètement. Des prélèvements élevés sur la viande, produit relativement cher, posent aussi des problèmes d’équité, avec le risque d’exclure les consommateurs les plus modestes. Manger de la viande en quantité modérée est bénéfique pour la santé, la viande apportant toute la gamme des acides aminés, tandis que les plantes manquent de vitamines B12.
Disposé à payer pour de la qualité ?
La campagne d’information à destination des consommateurs est une autre manière de les sensibiliser, même si son effet s’avère généralement modeste. L’efficacité d’une telle démarche repose sur une bonne connaissance des perceptions des consommateurs et de leur réaction à l’information. Des questionnaires et des études expérimentales permettent de déterminer avec précision leurs préférences.
L’économie expérimentale place un groupe d’individus dans une situation où leur comportement réel est simulé (si c’est en laboratoire) ou influencé (si c’est sur le terrain) afin de révéler leurs inclinations ou leurs propensions à payer pour des produits de différentes qualités. Par rapport aux autres méthodes de détermination des préférences, la méthode expérimentale en laboratoire présente l’avantage de la précision et du contrôle de l’information révélée aux consommateurs.
Il est ainsi possible d’identifier dans quelles conditions les participants sont prêts à dépenser une somme plus élevée : cette « disposition à payer » va par ailleurs évoluer en fonction des nouvelles données qu’ils reçoivent. Ces indicateurs offrent une idée des changements potentiels qui pourraient survenir sur les marchés, sans pour autant refléter les conditions réelles dans les magasins.
Steak de bœuf ou steak de soja
Cette méthode permet par exemple d’évaluer ce qui potentiellement ferait infléchir les carnivores convaincus. En novembre 2015, une équipe de chercheurs a mené à Dijon une expérience sur la viande. 124 participants ont été sélectionnés au hasard, sur la base de la méthode du quota – qui permet d’obtenir un échantillon représentatif des groupes d’âge et du statut socio-économique de la population de la ville.
Steak de soja.Shutterstock
Dans un premier temps, les individus se voyaient proposer deux steaks de bœuf haché et deux steaks de soja, représentant une alternative végétale proche de la viande. Ils indiquaient alors leurs intentions d’achat pour différents prix, permettant de mesurer leur disposition à payer selon les produits. À cette étape, ils ne disposaient d’aucune information précise.
Dans un second temps, on informait les participants sur l’impact des différents produits sur la santé et sur l’environnement : ils actualisaient alors leurs choix. À la fin de l’expérience, de nouvelles intentions d’achat étaient indiquées, après que la viande de bœuf initiale eût été remplacée par de la viande de bœuf vendue avec un Label Rouge et accompagnée d’explications sur le cahier des charges de ce label.
Les jeunes plus sensibles aux substituts
On constate d’abord que la « disposition à payer » moyenne pour le steak végétal est inférieure mais relativement proche de celle pour le produit d’origine animale. Cela suggère qu’à l’avenir, la substitution entre les deux types de produits serait possible, notamment si le prix de la viande augmente fortement.
Les informations sur la santé et l’environnement, lorsqu’elles sont révélées, réduisent significativement les intentions d’achat de steaks de bœuf, et augmentent significativement celles de steaks à base de soja, même si ces déplacements sont relativement faibles, avec des variations relatives en valeur absolue inférieures à 8 %.
Il est à noter que les réactions aux informations concernant la « disposition à payer » pour le soja sont nettement plus élevées chez les jeunes consommateurs (+ 8,1 %) que chez les consommateurs plus âgés (+ 4,4 %). Cette sensibilité des jeunes participants confirme, à long terme, les possibilités de substitutions significatives de produits à base de plantes aux produits d’origine animale.
Les résultats sont présentés à l’aide de la figure suivante, où les trois étapes sont représentées en abscisse, et les dispositions à payer en euros sont représentées sur l’axe des ordonnées. Notes concernant la figure : Δ * désigne une différence significative à 5 % et Δ ** une différence significative à 1 % telle que testée par le test de Wilcoxon pour comparer un échantillon apparié des dispositions à payer.
Label rouge, le succès de la viande de qualité
L’introduction d’un steak de bœuf de haute qualité entraîne une augmentation statistiquement significative de la disposition à payer des participants pour le bœuf, alors que celle du soja ne change pas significativement. La figure permet de voir que cette augmentation de la « disposition à payer » pour la viande de bœuf labellisée est la plus importante par rapport aux autres variations.
L’effet positif du Label Rouge souligne la sensibilité des participants à la qualité de la viande de bœuf. Le cahier des charges de cette mention garantit des pratiques respectueuses des animaux, des prairies et de l’environnement.
Le débat évoqué plus haut ne devrait donc pas se focaliser uniquement sur la substitution entre produits animaux et végétaux, mais également s’intéresser au développement des labels et à la promotion de viandes de meilleure qualité.
Republier cet articleReproduisez nos articles gratuitement, sur papier ou en ligne, en utilisant notre licence Creative Commons.
Le 11 mars, la Direction générale de la Concurrence, de la Consommation et de la Répression des Fraudes (DGCCRF) a publié sur son site un avis de rappel de haricots surgelés contaminés par le datura (Datura stramonium). Plusieurs hypermarchés ont rappelé des lots suite à cette communication.
C’est la seconde fois en quelques mois que cette plante toxique fait l’objet d’alertes : en janvier 25 personnes avaient été intoxiquées en Martiniqueaprès avoir consommé de la farine de sarrasin contaminée qui avait fait l’objet d’un avis de rappel de la DGCCRF en novembre 2018. Retour sur les raisons qui sous-tendent la contamination de certaines denrées et pas d’autres.
Une plante particulièrement toxique
Botanistes, vétérinaires et médecins s’accordent pour définir le datura comme une plante particulièrement toxique. Cette toxicité (qui, comme c’est souvent le cas pour les « plantes à poison », lui confère également des vertus médicinales), provient du fait que toutes ses parties (fleur, feuille, graine, sève) contiennent d’importantes teneurs en alcaloïdes. Certains, comme l’atropine ou la scopolamine, sont utilisés pour la lutte contre l’asthme, les névralgies, les spasmes. Il s’agit d’antagonistes de l’acétylcholine, un neurotransmetteur qui joue entre autres un rôle dans l’activité musculaire et les fonctions végétatives (respiration, battements du cœur, salivation, etc.).
Ces alcaloïdes sont responsables des symptômes générés par l’intoxication au datura : augmentation du diamètre de la pupille (mydriase), hallucinations, tachycardie, confusion mentale, sécheresse des muqueuses. Il n’existe actuellement pas de valeurs seuil officiellespour la scopolamine et l’atropine dans l’alimentation. Chaque année, plusieurs dizaines de cas d’intoxication au datura sont recensés, généralement sans conséquence grave, les complications les plus importantes survenant lors de l’ingestion volontaire de datura (à visée récréative). Les cas recensés d’intoxication accidentelle mentionnent aussi l’ingestion par les enfants de graines issues du fruit de datura, une capsule épineuse assez esthétique et parfois présente dans les bouquets secs.
On soulignera que le datura n’est pas la seule plante adventice (se dit d’une espèce sauvage qui pousse dans les champs) toxique ou ayant un effet sur la santé ; la morelle noire est à la fois commune et donnée comme toxique. D’autres végétaux sont aussi suivis, notamment par les réseaux sentinelles, du fait de leur fort pouvoir allergisant. C’est notamment le cas de l’ambroisie à feuilles d’armoise ou de la berce du Caucase.
Une large aire de répartition
Le datura fait partie des plantes annuelles estivales que l’on trouve de façon sporadique dans presque toute la France, mais il se développe plus facilement dans le Sud. Cette espèce invasive, originaire d’Amérique centrale (Mexique), est en effet thermophile : elle apprécie les températures chaudes. Le datura pousse sur le bord des routes et les friches, mais il pénètre aussi les terres cultivées, où il peut devenir localement abondant s’il est mal maîtrisé. Et c’est là que le bât blesse.
Pied de Datura stramonium dans un champ de carotte en Allemagne. Lorsque la plante est développée, il n’est en général pas difficile de la repérer.Wikimedia Commons, CC BY
Dans les champs, le développement végétatif luxuriant du datura le rend concurrentiel des cultures estivales, notamment des maïs, sojas, tournesols et productions maraîchères. Le datura a ainsi pu profiter de la monoculture de maïs et du déploiement des tournesols pour progresser depuis le Sud (Nouvelle-Aquitaine, Occitanie, Provence) jusqu’en Poitou-Charentes, Centre et Val-de-Loire. Son aire de répartition s’étend maintenant jusqu’en Picardie et Nord Pas-de-Calais.
On pourrait supposer qu’avec le réchauffement climatique, les espèces printanières et estivales comme le datura trouvent plus régulièrement des conditions favorables à leur développement. Néanmoins, les suivis effectués ne corroborent pas ce sentiment ; si tendance il y a alors elle ne peut expliquer seule une augmentation des cas d’intoxication. Le problème ne tient pas tant à une densité beaucoup plus importante dans les parcelles qui étaient déjà contaminées qu’à une extension géographique du datura, ce qui engendre la sensation d’une situation en progression, plus préoccupante.
Comment le datura entre-t-il dans la chaîne alimentaire ?
En France, les lots problématiques retirés du marché concernent surtout des farines de sarrasin (aussi appelé blé noir) contaminées par des graines de datura, ainsi que des surgelés ou conserves de légumes polluées par des fragments de plante. Pourquoi ces deux familles de denrées alimentaires, assez différentes, sont-elles davantage touchées que d’autres ? La biologie et l’écologie du datura peuvent nous éclairer sur ce point.
Le datura apprécie les températures élevées, et ses germinations s’échelonnent entre le printemps et l’été. Parallèlement, elle est sensible au gel, ce qui lui interdit les cultures d’hiver. C’est pourquoi blé, orge et colza en sont généralement indemnes. Le datura affectionne en revanche les cultures semées entre avril et septembre. On le retrouve donc dans les cultures de soja, de tournesol ou de maïs, parfois à de fortes densités.
Comparaison de 5 graines de datura noires, crénelées et en forme de rein, à du sarrasin. Si la distinction visuelle est aisée, une simple grille peine à les séparer par tamisage.Agroécologie, Dijon, Author provided
Dans ce cas de figure, il ne pose généralement pas de problème sanitaire pour l’être humain, car les graines de soja, de tournesol ou de maïs excèdent très largement la taille des semences produites au sein de la capsule du datura. Les grilles utilisées pour la récolte font facilement le tri. De même, en culture de pomme de terre, la récolte concernant les seuls tubercules, il n’y a pas non plus de risque de contamination.
En cultures légumières, les choses se corsent. Le datura est en effet à floraison quand se fait la récolte de certains légumes verts. Les épinards, les haricots et flageolets sont plus particulièrement sujets à ce que des fragments de la plante, tous toxiques, soient inclus par inadvertance. Il peut alors s’avérer difficile de distinguer un fragment végétal de haricot d’un fragment de datura…
Extraction de la base de données Pestobserver comptabilisant les avertissements agricoles et Bulletins de la santé du végétal traitant des cultures légumières et dans lesquels le mot ‘datura’ apparaît.
En France, le sarrasin est également victime du datura, car il est semé du printemps à l’automne, souvent comme une seconde culture de fin de saison. S’il est récolté pour ses grains, il peut se retrouver synchrone avec la maturité du datura. La taille du datura devrait permettre de le repérer et de l’éliminer en amont de la moisson, mais la distinction devient d’autant plus difficile que les plantes sèchent. Le millet se retrouvera dans une situation similaire à celle du sarrasin, toutefois cette céréale reste relativement peu utilisée en alimentation humaine dans notre pays, et la couleur des graines diffère franchement.
Des intoxications en recrudescence ?
Il est difficile d’infirmer ou confirmer une recrudescence des problèmes d’ingestion involontaire de la plante toxique. Comme l’ensemble de la flore des champs, le datura fait l’objet d’observations, notamment au sein du réseau d’épidémio-surveillance végétale, service donnant lieu à des notes hebdomadaires d’information, plutôt à destination des professionnels. Il n’existe toutefois pas de plan de surveillance spécifique pluriannuel sur lequel s’appuyer pour objectiver l’état stable ou en recrudescence de la plante.
Savoir si les gens et les animaux s’intoxiquaient davantage autrefois mériterait une exploration plus poussée. Une chose est certaine : la surveillance de la qualité sanitaire de notre alimentation s’est fortement améliorée au cours des dernières décennies, notamment du fait de la multiplication des contrôles. La capacité démultipliée de détection amène, avec le principe de précaution, à retirer les lots potentiellement problématiques. Cette situation pourrait avoir entraîné l’apparition d’un biais de perception chez des consommateurs de plus en plus préoccupés par les atteintes potentielles à leur santé, notamment via leur alimentation.
Toutefois, l’intensification des pratiques agricoles et des échanges mondiaux, qui s’est accompagnée d’une augmentation des volumes, peut aussi avoir rendu plus aléatoire et difficile le tri en amont de l’arrivée à l’usine. Les usines de conserves sont équipées de trieurs optiques discernant bien les seuls légumes, mais rien ne ressemble plus à une tige de haricot qu’une tige d’une autre espèce végétale et les trieurs automatiques ne savent pas (encore) faire la distinction…
L’industrialisation en cours de l’agriculture peut intensifier ce risque, tout comme l’adoption généralisée du numérique peut venir le limiter, aux champs (grâce au développement de l’imagerie de détection des adventices dans le couvert végétal) comme dans la chaîne de conditionnement (grâce à un gain de sensibilité permettant de distinguer les impuretés botaniques).
Répartition du datura selon la compilation des données des conservatoires botaniques.siflore.fcbn.fr, Author provided (No reuse)
Des pratiques qui contribuent à entretenir les risques
Au-delà de l’extension d’aire « naturelle » du datura, certaines pratiques peuvent favoriser sa dissémination. Ainsi, l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail a constaté que 30 à 50 % des lots de graines de tournesol et de mélanges de graines à destination des oiselleries sont contaminés par du datura. Sans doute de peu d’impact sur les oiseaux, cette information est préoccupante, car ce sont autant de sources de dispersion récurrente et à longue distance dans l’environnement. Les mélanges pour jachère faune sauvage seraient aussi des sources de différentes contaminations botaniques.
Par ailleurs, malgré le risque d’intoxication, différentes espèces et variétés de datura sont également toujours proposées en jardinerie du fait de la qualité esthétique de la fleur. Certains sites de jardinage ont même pu aller jusqu’à proposer d’introduire sciemment le datura dans les parcelles maraîchères, dans l’espoir de contenir certains insectes ravageurs herbivores. Cette pratique, dont l’efficacité n’a jamais été avérée, a pu accroître le nombre de situations ou le datura s’est retrouvé en contact direct avec des cultures maraîchères destinées à l’alimentation.
Le 28 février 2019, le grand débat à Bollène (Vaucluse). Clément Mahoudeau AFP
Le lancement du grand débat et son prolongement au-delà du 15 mars 2019 ont donné à Emmanuel Macron l’occasion de lancer une opération massive de démocratie participative. En témoignent le succès – au moins sur le plan quantitatif – aussi bien du site officiel que des réunions locales organisées dans les municipalités, ou bien encore l’afflux de commentaires spontanés ou recueillis par des sites officieux comme « le vrai débat ».
Pour connaître les demandes des contributeurs en matière de démocratie, qui ont du répondre à un questionnaire (souvent assez mal rédigé) de 34 questions ouvertes, on a fait l’analyse d’un échantillon aléatoire de 600 contributions sur les 46 340 qui avaient été déposées sur le site officiel entre le moment de son ouverture et le 21 février 2019. Statistiquement, l’échantillon présente une marge d’erreur de 4 % avec un taux de confiance de 95 %.
Des problèmes méthodologiques importants
L’analyse des contributions est une affaire complexe. Comme on ne dispose d’aucune variable signalétique précise, on ne peut apprécier la représentativité ni des contributeurs ni de l’échantillon au regard de l’ensemble des 47 millions d’électeurs inscrits. Et c’est là que réside un premier problème politique puisque la restitution officielle des résultats ne pourra légitimer ni la politique d’Emmanuel Macron ni celle des gilets jaunes, ni même refléter la volonté réelle de l’ensemble des citoyens. On peut, néanmoins, estimer que l’on est en face d’un témoignage historique de grande importance puisque cette aventure participative nationale est la première du genre.
Le traitement de ces données a donc dû faire l’objet d’une attention méthodologique particulière de notre part. Tout d’abord, les contributions ont été codées ligne à ligne sans recours à des techniques lexicométriques dont la rapidité apparente s’accompagne d’énormes problèmes : absence de prise en compte des sans réponse, difficulté à restituer les nuances, impossibilité de restituer le sens caché de réponses prenant la forme de questions.
Ensuite, il a fallu écarter les fausses contributions qui ne répondaient jamais à aucune des questions pour se focaliser sur un thème obsessionnel sans rapport avec le questionnaire (du 80 km/h à l’euthanasie, en passant par la protection animale) et qu’on peut assimiler à une volonté de contester le principe même du questionnaire, comme les contributions multiples des mêmes auteurs qui entendaient sans doute fausser les résultats.
Enfin, last but not least, la restitution des réponses peut se faire soit en pourcentages valides, c’est-à-dire en écartant les sans réponse, soit en présentant la proportion de sans réponse. Celle-ci est toujours importante, passant d’un minimum de 11 % à la question sur le non-cumul des mandats à 65 % pour celle portant sur les moyens d’améliorer le civisme. Au total, seuls 9 contributeurs sur 600 ont répondu à toutes les questions.
De cette présentation peuvent découler des interprétations politiques très différentes : soit on met l’accent sur la volonté « majoritaire », qui n’en est pas une, soit sur l’incertitude ou la critique dans lesquelles sont les contributeurs. On a choisi ici la seconde solution.
Une démocratie représentative jugée immorale
L’ouverture du grand débat national n’a pas apparemment réconcilié les contributeurs et les élus. Néanmoins, cette critique porte bien plus sur le comportement des élus, leurs privilèges ou leur indifférence aux électeurs que sur le principe de la démocratie représentative elle-même.
À la question « en qui faites-vous confiance pour vous faire représenter dans la société ? », 26 % des contributeurs répondent « les élus locaux » (désignant généralement le maire), 10 % « les élus en général » et 8 % « les députés » en mentionnant le fait qu’ils connaissent leur circonscription. L’absence totale de confiance, renvoyant « aux citoyens seulement » ou « à personne » ne caractérise que 27 % des contributeurs (voir graphique ci-dessous). Le tropisme local est clair et revient d’ailleurs très souvent dans les réponses aux questions portant sur le renouvellement de la démocratie.
Du reste, à la question de savoir s’il faut donner un rôle plus important aux syndicats et aux associations, les réponses sont mitigées : 12 % ne savent pas, 48 % répondent positivement mais 40 % négativement. Et les associations inspirent bien plus confiance que les syndicats souvent caractérisés de manière très péjorative : « oui, s’ils s’occupent des salariés et pas de leurs intérêts », « les associations professionnelles apolitiques, pas les syndicats ».
Graphique 1 : En qui avez-vous confiance pour vous faire représenter ? (%).Enquête Luc Rouban/Cevipof (2019)., Author provided
Cela étant, la détestation du personnel politique est toujours là et reste fortement motivée par la fracture qui séparerait l’oligarchie élective de l’ensemble des citoyens, fracture souvent déclinée sur le registre moral. Si 70 % des contributeurs pensent que le non-cumul des mandats est une bonne chose, c’est généralement parce qu’ils estiment que cela permet des carrières et des cumuls de rémunérations injustifiables ou l’absentéisme en séance plénière à l’Assemblée nationale. De la même façon, 62 % d’entre eux voudraient que le nombre d’élus diminue.
Sur ce terrain, néanmoins, les réponses sont nuancées (7 % seulement répondent « tous ») et l’on s’aperçoit qu’une critique très forte s’est développée non seulement contre le personnel politique national mais encore contre les élus départementaux et régionaux. Le département est très souvent considéré comme inutile. On enregistre même des critiques à l’égard du personnel municipal et notamment des conseillers municipaux pléthoriques qui n’ont d’ailleurs plus beaucoup de pouvoir réel, surtout dans les petites communes.
En revanche, et contrairement à ce que l’on pouvait attendre, la suppression du Sénat n’est demandée que par 17 % des contributeurs et celle du Conseil économique, social et environnemental (CESE) par 18 %. La plupart des critiques visent surtout leur mode de recrutement ou la réduction de leurs effectifs en voulant les ouvrir davantage à la société civile.
Le traitement de la question portant sur les moyens de renouer les liens entre les élus et les citoyens a fait l’objet d’une recherche assez poussée en utilisant dix variables ayant chacune 26 modalités afin de restituer au mieux les réponses les plus fréquentes.
Les résultats montrent que trois thèmes se détachent : l’honnêteté morale, le respect de ses engagements, la transparence (16 % des réponses) ; l’écoute plus attentive des citoyens (12 %) ; la présence plus fréquente sur le terrain, la connaissance des réalités de la vie quotidienne (11 %). À cela s’ajoute des items visant plus particulièrement la moralité du personnel politique : qu’ils aient moins de privilèges (9 %), qu’ils n’aient pas de casier judiciaire, qu’ils soient condamnés comme les citoyens ordinaires (5 %).
Graphique 2 : Quels sont les élus dont il faut réduire le nombre ? (%).Enquête Luc Rouban, Cevipof (2019)., Author provided
La mise en place de procédures de démocratie participative, notamment par des sites Internet ou des budgets participatifs locaux est également évoquée, mais moins fréquemment (7 %). Les procédures de démocratie directe comme le référendum ou le référendum d’initiative citoyenne (RIC) sont citées par 9 % des contributeurs et l’idée de mettre en place des assemblées citoyennes tirées au sort par 4 % d’entre eux.
Le RIC en tant que tel, revendication centrale des gilets jaunes, n’est mentionné de manière systématique que par 4 % des contributeurs sur la base de trois questions portant sur les moyens de renforcer la participation des citoyens, d’améliorer la démocratie participative et l’engagement citoyen. Cela peut s’expliquer par la sociologie différente des gilets jaunes et des contributeurs au grand débat qui a pu être notamment mesurée dans le cadre des réunions locales, les seconds étant généralement plus diplômés et plus âgés que les premiers.
Un nouveau visage pour la Ve République
La série de questions portant sur les moyens d’améliorer la représentation ou de promouvoir la démocratie participative suscite des réponses qui viennent dessiner un nouveau visage à la Ve République.
Pour 46 % des contributeurs, il faudrait introduire au moins une dose de proportionnellepour améliorer la représentation des sensibilités politiques. On remarque que les solutions innovantes ne font pas vraiment recette : le changement complet du mode de scrutin (scrutin majoritaire à un tour ou jugement majoritaire) n’attire que 4 % des contributeurs, alors que le recours systématique au tirage au sort est encore plus rarement évoqué (2 %). Un tiers des contributeurs ne répondent pas à la question.
Les avis sont bien plus tranchés, en revanche, en ce qui concerne la participation électorale. L’argument de l’immoralité politique reste toujours en arrière-fond, mais 76 % des contributeurs demandent la reconnaissance du vote blanc. Pour 32 % des contributeurs, une proportion importante de votes blancs, qu’ils définissent de manière très variable, devrait pouvoir déclencher de nouvelles élections avec interdiction aux premiers candidats de se représenter.
À cela s’ajoute le fait que le tiers des contributeurs demandent que l’on passe au vote obligatoire. La lecture des propositions montre qu’il existe une volonté de s’émanciper de l’offre politique et de recentrer la vie démocratique sur la demande émanant des citoyens.
Du reste, c’est bien dans la formulation de cette demande que s’affirme la volonté de renforcer la démocratie participative, notamment au niveau local. On remarque dans de très nombreuses contributions une demande de pédagogie et de lisibilité de l’action publique jugée opaque, trop complexe, indéchiffrable.
La mise en place « d’une démocratie plus participative » appelle donc des réponses nuancées qui ne font pas systématiquement appel au RIC, mais plutôt à des référendums bien ciblés et encadrés. La démocratie directe n’est pas considérée comme une solution-miracle et de nombreuses contributions s’orientent plutôt vers des débats citoyens ou sur les possibilités qu’offre Internet pour donner son avis notamment sur des projets locaux.
Vers une démocratie illibérale ?
L’arrière-fond populiste et moralisateur reste, néanmoins, très présent dans la tonalité des contributions. Cette dimension autoritaire se retrouve avec encore plus de force dans les réponses aux questions portant sur le civisme, les valeurs de la République et l’immigration.
Si la défense des valeurs de la République appelle, pour plus d’un quart des contributeurs, un effort renouvelé d’éducation, autant de la part des parents que de l’institution scolaire, c’est souvent sur un registre critique à l’égard des communautés religieuses ou de la communautarisation de la société française. Plus de 20 % des contributeurs en appellent, d’une manière ou d’une autre, à « la fin du laxisme », demandent un service militaire ou civique, voire un serment d’allégeance aux valeurs républicaines, notamment de la part des immigrés.
Les réponses aux questions portant sur l’engagement citoyen recèlent souvent la même tonalité de contrainte civique. Mais, là encore, il faut se méfier du taux de sans réponse qui atteint 43 % pour la question sur les valeurs de la République et 49 % sur l’engagement citoyen. L’incertitude reste toujours la réponse majoritaire.
Les avis sont plus tranchés, mais aussi plus partagés, en matière de laïcité (34 % de sans réponse) et d’immigration (33 % de sans réponse). En matière de laïcité, les réponses sont réparties en deux groupes à peu près égaux. Le premier insiste sur le fait que l’État doit rester neutre et laisser la question religieuse dans la sphère privée, que l’éducation reste le meilleur moyen de compréhension et de tolérance, que la loi de 1905 suffit et que l’on n’a pas besoin de la modifier. Le second est plus ouvertement critique à l’égard de l’islam, condamne le port de signes religieux dans l’espace public, exige plus de fermeté face aux communautarismes.
Il en va de même en matière d’immigration, même si le centre de gravité est plus à droite de l’espace politique : 24 % des contributeurs demandent une immigration plus sélective laissant passer les réfugiés politiques mais pas les réfugiés économiques, une politique calée sur les besoins du marché du travail et sur la qualification des immigrés, alors que 20 % des contributeurs affirment qu’il faut arrêter toute immigration car celle-ci est jugée déjà excessive. Par ailleurs, 42 % des contributeurs répondent par l’affirmative à la question portant sur le fait de savoir s’il faut établir une politique de quotas en matière d’immigration. Seule une minorité défend l’idée d’un meilleur accompagnement des immigrés voire d’un accueil plus ouvert. On retrouve ici la structure des attitudes politiques que mesurent très régulièrement les sondages en matière d’immigration.
Graphique 4 : La politique migratoire souhaitée par les contributeurs (%).Enquête Luc Rouban, Cevipof (2019)., Author provided
Des réponses ambiguës et contradictoires
Il ressort donc de la lecture de cette première synthèse que le grand débat, notamment sur le terrain démocratique, peut se révéler être un jeu dangereux pour le gouvernement. Tout d’abord parce que la question méthodologique est décisive et que la restitution des réponses, comme leur interprétation, dépendent étroitement du taux de sans réponse et de sa prise en compte.
Sur bien des questions, l’incertitude demeure et seuls les contributeurs les plus radicaux ou les plus engagés ont parfois répondu – ce qui laisser toujours béante la question de savoir quelle est la représentativité réelle de ce grand débat.
Des réponses parfois contradictoires (ici, à Bollène, le 28 février).Clément Mahoudeau/AFP
Ensuite, parce que les réponses témoignent d’une insatisfaction de fond quant au fonctionnement de la Ve République sans proposer pour autant des solutions foncièrement cohérentes. Il en va ainsi, notamment, de la demande contradictoire qui associe la réduction du nombre des élus et la recherche d’un contact plus étroit entre eux et les citoyens.
Il est indéniable que bon nombre de réponses vont clairement dans le sens des propositions d’Emmanuel Macron, tant dans le domaine de la réduction du personnel politique que de la dose de proportionnelle à instiller dans les élections ou bien de la limitation du cumul des mandats dans le temps. Les réponses sont, par ailleurs, en retrait face aux demandes plus radicales de démocratie directe des gilets jaunes.
Le gouvernement risque donc d’être coincé entre décevoir un mouvement de contestation puissant, que confirme le succès du grand débat, et s’engager dans une politique de réforme institutionnelle allant bien au-delà de ses projections, qui appellerait une nouvelle décentralisation bien plus ambitieuse, une refonte du Sénat et du CESE et un retour, horror referens, à la pratique gaullienne du référendum, qui fait tant peur au personnel politique – qu’il soit de l’ancien ou du nouveau monde.
Le métissage de la famille royale britannique a été entériné officiellement avec le mariage du Prince Harry et l’Américaine Meghan Markle, un sujet qui a ravi la presse people. Daniel Leal-Olivas/AFP
Le récent attentat de Christchurch qui a fait cinquante morts et des dizaines de blessés s’inscrit dans la longue liste des crimes commis par les suprémacistes blancs.
Cette mouvance dont se réclame explicitement l’auteur, un homme de 28 ans, notamment à travers le manifeste de 74 pages qu’il a mis en ligne avant le carnage, fustige, sur fond de revendications identitaires, l’immigration voire la « colonisation » à laquelle l’Europe serait en proie de manière galopante. Derrière ces mots aux relents xénophobes, se cache une véritable phobie, celle du mélange, disons du métissage des peuples et des cultures.
Cette peur du métissage, essentiellement fondée sur du fantasme, est cependant soutenue par une longue tradition intellectuelle européenne sur laquelle les suprémacistes contemporains continuent de bâtir leur conviction.
Le métissage serait-il une synthèse contre nature ou une confluence harmonieuse des altérités ? Mot issu du latin mixtus, « mélangé », il est aujourd’hui passé du registre biologique pour rejoindre le domaine culturel, philosophique voire poétique, dépouillé ainsi de son répertoire identitaire. Il n’est pas un état, mais un processus qui a accompagné les découvertes, puis les conquêtes, la colonisation et les grands déplacements des populations à travers les guerres, les déportations, les migrations, etc.
« Métis c’est une création coloniale »
La peur du mélange qui caractérise les modes de pensée suprémacistes est gouvernée par la tendance à rapprocher la notion de métissage de celle de race. Cette peur est nourrie par l’argumentaire essentialiste qui accompagne depuis le XVIe siècle les différentes représentations du mot « race » et par conséquent le métissage.
En réalité, le terme « métissage », dans son utilisation première, renvoie à la différence physique et biologique. Évoquant au premier chef la reproduction physique, le métissage symbolise dans l’imaginaire racialisant l’union de deux êtres séparés par la différence de leurs apparences. Ainsi, par cet acte, ils rompraient la continuité des puretés originelles et fixes.
Cette idée de corruption trouve son élaboration dans le contexte colonial qui fait peser sur la notion de métissage un mode de catégorisation. « Métis c’est une création coloniale », fait dire le romancier congolais Henri Lopes au narrateur de son récit, Le Chercheur d’Afriquesparu aux éditions du Seuil en 1990.
Famille non identifiée, probablement à Osnaburgh House (Ontario/Canada). Ce portrait de famille illustre la rencontre de deux cultures. Le père porte un complet européen agrémenté d’une montre de poche. La mère, vraisemblablement métisse, tient son enfant installé dans une planche porte-bébé, un accessoire traditionnel des Premières Nations. Son châle est un reflet de la culture métisse ; plusieurs femmes et filles en portaient (1886).Robert Bel Library and Archives Canada/Flickr, CC BY-SA
Un « acte honteux »
L’installation des Européens dans les Tropiques via les sociétés esclavagistes coloniales n’ayant pas pu empêcher des unions mixtes, très tôt, ce mélange devient la cible d’une stigmatisation que révèlent déjà les chroniques du XVIIe siècle en ces mots : « désordre », « crime que déteste Dieu », « acte honteux »…
Ainsi l’idée de naissance d’individus bâtards, mixtes, dont il faut fustiger le caractère anormal, irrégulier, dégénérescent comme perte de la « pureté identitaire », reste historiquement liée « au statut imprécis, sans place prévue entre le colonisateur et le colonisé » comme le précise l’anthropologue et historien français Jean‑Luc Bonniol.
Code noir, ou Recueil d’edits, déclarations et arrêts concernant les esclaves nègres de l’Amérique, avec un recueil de réglements, concernant la police des isles françoises de l’Amérique et les engagés, édité en 1743.Royaume de France/Wikimedia
Ce statut de « trouble appartenance », pour lui donner plus de relief, est justifié par des arguments théologiques, tant le métis est le résultat impur d’une transgression : celle d’avoir goûté au fruit défendu de l’étranger/ère de race inférieure païenne et pécheresse issu·e de l’esclavage.
Ce métissage colonial fut d’autant plus considéré comme un péché qu’il s’est toujours produit dans des situations d’illégitimité et de clandestinité au point de conduire l’article IX du Code noir à décréter l’interdit, hors mariage, des relations sexuelles entre Blancs et Noirs.
Le puissant impact des théories raciales
L’héritage laissé par le contexte colonial, dont les suprémacistes s’en font encore aujourd’hui l’écho, connaît sa plus probante élaboration dans la construction qu’en réalisent certains tenants des théories raciales au XIXe siècle.
Ces mots de Joseph-Arthur Gobineau qualifiés de « péché originel de l’anthropologie » par Claude Lévi-Strauss, en donnent la dimension :
« L’homme dégénéré mourra définitivement, et sa civilisation avec lui, le jour où l’élément ethnique primordial se trouvera tellement subdivisé et noyé dans des apports de races étrangères, que la virtualité de cet élément n’exercera plus désormais d’action suffisante… »
Cet écho traverse encore la moitié du XXe siècle, à l’instar de l’influence qu’il eut sur le Dr Edgar Bérillon qui, dans la Revue de psychologie appliquée, publiait en 1927 un article sur « Le métissage : son rôle dans la production des enfants anormaux », article dans lequel il voyait dans le métissage une cause essentielle de dégénérescence physique et mentale ; ou encore le prix Nobel de biologie Charles Richet, membre de l’Institut, qui, au nom du progrès et de la civilisation, préconisait l’interdiction des unions entre Blancs et non-Blancs.
« Les quatre races d’hommes : la race blanche, la plus parfaite des races humaines, habite surtout l’Europe, l’ouest de l’Asie, le nord de l’Afrique, et l’Amérique », extrait d’un ouvrage inspiré des thèses racialistes d’auteurs comme Gobineau. « Le Tour de la France par deux enfants », manuel scolaire de G. Bruno (1877).Wikimedia
Conforter sa propre identité
Afin de conjurer le sens négatif du terme et faire évoluer les travaux sur les identités et par conséquent sur le métissage, certains anthropologues contemporains comme Jean‑Loup Amselle et François Laplantine, de même que certains biologistes (André Langaney et Albert Jacquard) ont révélé que toutes les composantes humaines sont, dès l’origine, intrinsèquement « mixées », métissées.
Ainsi, dans sa théorie des « branchements », Jean‑Loup Amselle considère qu’aucune identité, aucune civilisation ou culture ne peut prétendre à une pureté originelle, chaque composante pouvant se définir comme un patchwork de patchwork, un produit de tous les collages antérieurs. Il pousse à mettre au centre de la réflexion sur les identités l’idée d’une triangulation, c’est-à-dire le recours à un élément tiers pour façonner sa propre identité.
De ce fait, notre monde globalisé ne pouvant être perçu comme le produit d’un mélange de cultures elles-mêmes vues comme des univers étanches, l’anthropologue appelle à débrancher les civilisations ou les identités de leurs origines supposées. De manière efficace, le chercheur pose le postulat suivant :
« c’est en se pensant ou en se réfléchissant dans les autres que l’on conforte le mieux sa propre identité ».
« Ce qui nous sauve aujourd’hui dans un monde intolérant »
Parallèlement à l’Occident, dans d’autres contrées du monde comme dans les mondes créoles, l’existence du fait métis prend une dimension démographique, politique et culturelle exceptionnelle par rapport aux métissages postcoloniaux.
Dans les mondes créoles, le champ de création par métissage fut sans précédent puisque, de biologique, le processus affecta tous les domaines de la vie (le travail, les rythmes de vie, l’alimentation, l’habitat, l’habillement, les perceptions du monde, les rapports sociaux, les croyances, les arts, le langage, etc.) au point de constituer une nouvelle culture aujourd’hui reconnue comme patrimoine de l’humanité : la culture créole.
Gisèle Pineau, rencontre à la librairie Mollat, 2014.
La romancière et essayiste guadeloupéenne Gisèle Pineau, dans sa contribution « Écrire en tant que Noire », in Penser la créolité, illustre la manière dont le métissage comme culture ou comme identité peut être assumée :
« Nous n’avons cessé de mélanger nos races, et nos sangs avec les autres peuples échoués au Nouveau-Monde, Indiens, Orientaux, Européens, Chinois, et cetera… Nous sommes des bâtards et c’est peut-être ce qui nous sauve aujourd’hui dans un monde intolérant qui voit monter le fascisme et éclater de nouvelles persécutions racistes dans l’Europe démocratique […] Une nouvelle humanité s’est bâtie ici. Nous avons investi l’espace et ouvert l’horizon, enjambé la mer et mêlé les mondes en présence. »
En somme, c’est surtout parce que le métissage, au sens moderne du terme, demeure une « notion piège » qu’il faut mettre en garde contre son utilisation galvaudée qui, via le contexte des colonisations européennes dans lesquelles il prit corps, continue de servir de support aux idéaux de gradations, de stigmatisations et d’exclusions.
Professeur de droit public, Université de Lorraine
A Londres, le 23 mars 2019, des partisans d’un second référendum sur le Brexit. Niklas Halle’n / AFP
Après une impressionnante série de rebondissements, le 29 mars 2019 – échéance théorique du retrait du Royaume-Uni de l’Union européenne (UE) – ne sera pas la date du Brexit ! Le défaut d’approbation par la Chambre des communes de l’accord du 14 novembre 2018 relatif à un retrait ordonné du Royaume-Uni de l’UE et la demande d’un report du Brexit au 30 juin 2019 par Theresa May le 20 mars 2019 l’expliquent grandement.
De surcroît, la négociation de sortie de l’UE du Royaume-Uni se révèle être d’une extrême complexité et de nombreux qualificatifs ou d’éloquentes métaphores permettent d’en prendre la mesure. On a pu ainsi évoquer une négociation « amphigourique », autrement dit alambiquée, embrouillée, voire même incompréhensible. Sa dimension de farce burlesque et hypocrite lui vaut même parfois l’appellation de pantalonnade !
L’impuissance de la première ministre Theresa May face à la Chambre des communes est une évidence. En raison de leurs nombreux et profonds désaccords, une majorité de chefs d’État ou de gouvernement européens affirment, à juste titre, qu’ils ne savent pas ce que le Parlement britannique veut ou ne veut pas ! Le point de non-retour est quasiment atteint et la fatigue du Brexit se situe à un niveau si élevé que le premier ministre du Luxembourg, Xavier Bettel, a comparé le retrait britannique à la célèbre pièce de Samuel Beckett, En attendant Godot, et affirmé qu’il ne vient jamais !
Depuis le perfide référendum du 23 juin 2016, il n’est pas faux d’affirmer que le Royaume-Uni traverse une crise de régime sans précédent. Le Brexit représente une épreuve d’Hercule pour la démocratie britannique, qui doit maintenant vivre avec la concurrence de deux souverainetés, la souveraineté du Parlement et la souveraineté du peuple.
L’article 50-3 TUE prévoit un délai de deux ans après la notification de l’intention de se retirer pour l’approbation de l’accord de retrait, « sauf si le Conseil européen, en accord avec l’État membre concerné, décide à l’unanimité de proroger ce délai. » Après deux tentatives manquées, Theresa May n’avait guère d’autre solution que de demander un report du Brexit. Un premier meaningful vote rejetant l’accord de retrait est intervenu le 15 janvier 2019 (432 voix contre 202) aux Communes ; un deuxième le 12 mars 2019 (391 voix contre 242).
Après une négociation ardue ayant duré plus de sept heures, le Conseil européen des 21-22 mars 2019 a décidé d’« une prorogation jusqu’au 22 mai 2019, à condition que l’accord de retrait soit approuvé par la Chambre des communes » durant la semaine du 25 mars 2019. En cas de non-approbation, il a décidé d’une « prorogation jusqu’au 12 avril 2019 et attend du Royaume-Uni qu’il indique avant cette date une voie à suivre, en vue de son examen par le Conseil européen. »
Cette double date ne relève pas du hasard. Le 12 avril est l’ultime limite permettant au Royaume-Uni d’organiser les élections européennes des 23-26 mai 2019. On l’aura compris, le 22 mai est le dernier jour précédant ces mêmes élections. La France souhaitait retenir le 7 mai. Comme de nombreux autres États membres, elle ne veut pas que le Brexit « pollue ce scrutin sensible », au vu de la place que devrait occuper les partis europhobes et eurosceptiques dans le prochain Parlement européen. La menace d’une participation du Royaume-Uni aux prochaines élections européennes peut également être assimilée à une pression sur les députés, afin qu’ils se décident enfin à voter l’accord de retrait.
La première ministre britannique Theresa May, le 24 mars, à la sortie de l’église de Maidenhead (ouest de Londres).Adrian Dennis/AFP
Un troisième vote doit en effet être organisé le 26 ou le 27 mars, Theresa May ayant toutefois laissé entendre qu’il n’est pas certain, si aucune majorité n’existe pour approuver l’accord de retrait qui, de toute façon, ne peut plus être modifié. L’UE accentue donc la pression sur le Royaume-Uni, ce qui le place face à ses responsabilités.
Elle espère obtenir enfin la clarification politique tant attendue en le mettant face au dilemme suivant : la sortie ou les élections européennes ! Le 12 avril apparaît donc bien comme une date couperet fatidique pour le Royaume-Uni, qui aura à ce moment-là à assumer un no deal ou une demande de report long (et l’organisation des élections européennes).
« No deal » ou report long ?
Au fil des mois et des nombreux votes intervenus à la Chambre des communes, le risque d’un retrait désordonné du Royaume-Uni s’est accentué. Avec l’échéance du 12 avril 2019, le Royaume-Uni est contraint de s’exprimer avant cette date soit en faveur d’un report long du Brexit – qui devra être accepté par les 27 États membres –, soit sa sortie de l’Union se fera sans accord, deux longues années de négociations partant à vau-l’eau. Un report long du Brexit présente, de ce point de vue, l’avantage d’éloigner considérablement le risque de « no deal ».
Il ne peut cependant se justifier qu’avec une nouvelle approche du Brexit (un nouveau gouvernement, un second référendum ?), bref avec une nouvelle stratégie de sortie comportant par exemple le maintien du Royaume-Uni dans l’union douanière et une relation de long terme plus étroite.
L’UE ne peut pas accepter une extension longue sans garanties. Le Brexit a assez duré et l’éloigne depuis trop longtemps des vraies priorités permettant sa « Renaissance », à savoir une défense européenne renforcée, l’établissement d’une politique industrielle, des relations appropriées avec les États-Unis et la Chine, ou encore faire face aux défis technologiques dans le secteur du numérique.
Un report long – une durée de 9 à 21 mois est évoquée – implique que le Royaume-Uni précise impérativement avant le 12 avril 2019 s’il participe aux élections européennes de mai 2019, ce qui irait totalement à l’encontre du souhait des Brexiters de quitter l’UE. Le 12 avril est donc devenu la nouvelle date clé du Brexit.
À proximité du 10 Downing Street, à Londres, siège du bureau du premier ministre à Londres, le 23 mars 2019.Isabel Infantes/AFP
Le risque de no deal est pris très au sérieux au niveau de l’UE. La Commission européenne a d’ailleurs adopté un plan d’action d’urgence en décembre 2018. Il envisage une série de mesures dans plusieurs secteurs (Erasmus, pêche, transport, douanes…) en cas d’absence d’accord, dans le but de limiter les perturbations qui pourraient survenir. Le Parlement européen et le Conseil en ont déjà adopté une partie.
Après l’avoir envisagé en décembre 2018, le Conseil européen des 21-22 mars 2019 a demandé à nouveau de poursuivre les travaux sur les mesures de préparation et d’urgence, « en tenant compte de tout ce qui pourrait advenir ». Sous-entendu : notamment un no deal.
Révocation du Brexit ou nouveau référendum ?
Selon le Président du Conseil européen, Donald Tusk, toutes les options demeurent ouvertes pour le Royaume-Uni : un deal, un no deal, une extension longue des délais ou encore une révocation de l’article 50 du TUE. Le retrait du Royaume-Uni n’est donc pas la seule issue possible car, bien que l’article 50 TUE soit silencieux sur cette question, il peut révoquer son retrait, un second référendum pouvant éventuellement lui permettre de se maintenir dans l’Union.
Dans son arrêt d’Assemblée plénière du 10 décembre 2018, la Cour de justice de l’UE a en effet jugé que le Royaume-Uni pouvait révoquer unilatéralement, de manière non équivoque et inconditionnelle, la notification de son intention de se retirer de l’UE, une telle révocation mettant fin à la procédure de retrait et confirmant son appartenance à l’UE dans des termes inchangés.
L’article 50 prévoit en effet que l’État qui décide de se retirer « notifie son intention au Conseil européen », ce qui n’équivaut pas à une décision ferme et définitive. Le retrait de l’Union a un caractère volontaire et la souveraineté de l’État doit être préservée : un État ne peut être contraint de se retirer contre sa volonté.
Cette question de la révocation est, d’ailleurs, d’actualité outre-Manche. Une pétition « Revoke Article 50 and remain in the EU », qui a déjà recueilli presque 5 millions de signatures, demande au gouvernement britannique de mettre fin au processus de sortie de l’UE et le maintien du Royaume-Uni dans l’Union.
Elle vient complexifier davantage encore les débats au Parlement britannique et entend contrecarrer les résultats du référendum du 23 juin 2016, ce qui soulève un problème démocratique identique à l’organisation d’un second référendum, dont le résultat aboutirait à une absence de Brexit. En effet, les manifestations réclamant l’organisation d’un second référendum (un vote populaire) se succèdent à Londres, réunissant un nombre toujours plus impressionnant de participants.
Un Brexit sans bornes ni mesure
Le feuilleton du Brexit semble interminable ; il peut encore réserver de nombreuses surprises. Comme l’a à nouveau déclaré avec justesse Xavier Bettel, « on ne cherche pas une porte de sortie, mais une issue de secours » !
Il est vrai que les dangers inhérents au Brexit sont sans commune mesure. La sortie de l’UE du Royaume-Uni relève du même phénomène de crise démocratique et populiste que l’élection de Donald Trump aux États-Unis, ou la persistance de régimes illibéraux dans plusieurs États membres de l’est de l’UE. Elle représente tout de même une perte pour elle, à un moment où le couple franco-allemand peine à s’accorder pour sortir l’Union européenne de l’inaction.
Le Brexit est porteur d’un mouvement de fragmentation à la fois politique et territorial. Politique, car le risque d’implosion du parti Tory n’a jamais été aussi grand, d’autant plus que Theresa May semble en avoir complètement perdu le contrôle. Le Parti travailliste est de surcroît dans une situation similaire.
Territorial, car le risque de dislocation du Royaume-Uni s’est accru avec le Brexit. Non seulement l’Irlande opère un recul dans le temps, mais l’Écosse n’a pas remisé aux oubliettes son désir d’organiser un nouveau référendum d’indépendance. Nicola Sturgeon, première ministre de l’Écosse, n’a pas hésité à affirmer qu’« avec le Brexit, contre lequel nous avons voté, nous payons le prix de notre absence d’indépendance ».
Le Monde
✔@lemondefr
« Avec le Brexit, pour lequel nous n’avons pas voté, nous payons le prix de notre absence d’indépendance. » La première ministre écossaise @NicolaSturgeon démonte la stratégie et les résultats de la négociation du Brexit menée par Theresa May. https://lemde.fr/2XhQ9IN
Nicola Sturgeon : « L’Ecosse deviendra un pays indépendant »
La première ministre écossaise démonte la stratégie et les résultats de la négociation du Brexit menée par Theresa May. La Britannique est de retour à Bruxelles mercredi.
lemonde.fr
25 people are talking about this
Bien que le spectre du Brexit continue de hanter l’Union et ses États membres depuis le 23 juin 2016, le retrait britannique démontre par l’absurde que l’UE apporte beaucoup aux États qui en sont membres. La preuve en est que plus aucun leader eurosceptique ne veut la quitter.
Quoi qu’il en soit, la chorégraphie du Brexit reste inachevée, et il faut espérer, en référence au célèbre opus de Camille Saint-Saëns, que les dernières figures ne le transformeront pas en danse macabre fatale pour l’Union européenne.
agrégé de lettres modernes, docteur en littératures comparées (10e section CNU), Université Sorbonne Nouvelle, Paris 3 – USPC
Portrait du traducteur, Laurent de Premierfait, de l’ouvrage, Des Cas des nobles hommes et femmes, de Jehan Bocace. Vers 1495. Wikipédia, CC BY-SA
À la fin de l’année dernière, le programme DeepL a, grâce à l’intelligence artificielle (IA) et à l’apprentissage profond (deep learning), traduit en une douzaine d’heures seulement un ouvrage de théorie informatique de 800 pages.
S’il est légitime de s’interroger à cette occasion sur la possible concurrence entre l’homme et la machine sur le marché du travail intellectuel (comme on l’a déjà fait dans d’autres secteurs d’activité), le discours médiatique est très vite emphatique dès qu’il s’agit de relayer les avancées de l’IA. En l’occurrence, on a pu parler d’une « grosse râclée », expression qui préfère souligner la menace plutôt que l’exploit technologique, comme s’il était plus important de souligner la concurrence entre les traducteurs humains d’un côté et les concepteurs du programme de l’autre que de suggérer que l’humanité pourrait marquer là un point collectif.
Ailleurs, sous le titre « Traduction automatique, robots écrivains… voilà la littérature du futur ! » s’imagine un futur de plus en plus proche où, les humains étant dépossédés de leur créativité, l’otium studiosum propice à la traduction de la poésie ou à l’écriture des romans céderait sa place au désœuvrement et à la consommation passive des chefs-d’œuvre des IA. Et inversement, l’appel à la sobriété des spécialistes de l’IA eux-mêmes semble être devenu un genre en soi.
Les universitaires spécialistes des littératures étrangères sont, entre autres, des traducteurs. Nous avons dans notre cursus été formés à la traduction littéraire (à côté, et c’est important, d’autres pratiques, comme l’histoire culturelle ou le commentaire de texte) ; nous enseignons d’une manière ou d’une autre la traduction, nous publions des traductions sous une forme ou une autre, et c’est une activité que nous pratiquons aussi pour le plaisir.
Mais si nous sommes des professionnels de l’écrit, nous ne sommes pas, pour la plupart, des spécialistes de la traduction automatique. Une partie de l’inconfort lié à l’IA vient sans doute de cette relation asymétrique : le robot s’invite dans le champ de compétence d’experts humains et semble y exceller, alors que les experts humains du domaine concerné se sentent, eux, souvent incompétents pour parler du robot. Dans ce cas, l’IA est pour eux une boîte noire.
C’est cette relation ambiguë entre le traducteur et l’IA traductive que je voudrais explorer ici.
Trois raisons de s’inquiéter
Le traducteur littéraire est un professionnel de l’écrit parmi d’autres, et un bon point de départ pour comprendre de quoi les professionnels de l’écrit ont peur est l’article du Guardian, paru en février dernier, où Hannah Jane Parkinson décrit le frisson qui l’a saisie quand le logiciel expérimental GPT2 a composé un article de presse complet sur la base d’un paragraphe qu’elle avait écrit. Sa première réaction est ainsi :
(a) it turns out I am not the unique genius we all assumed me to be ; an actual machine can replicate my tone to a T ; (b) does anyone have any job openings ?
(a) Il semblerait que je ne sois pas, contrairement à ce que nous croyions tous, un génie unique : une simple machine peut reproduire mon style à la lettre ; (b) est-ce que quelqu’un recrute ?
Le point (a) décrit une blessure narcissique : alors qu’on admet traditionnellement que la créativité stylistique (le ton, le style) définissent des individualités littéraires, la machine (qui n’a a prioripas de personnalité) peut émuler assez facilement ce genre de qualités ; on retrouve là la crainte du « chômage créatif » exprimée dans l’article de Marianne cité plus haut.
Le point (b) évoque un chômage beaucoup plus littéral : les performances impressionnantes du robot-écrivain en font un candidat viable pour remplacer un certain nombre d’acteurs humains du secteur de l’écrit – journalistes, traducteurs ou écrivains.
Il existe, sur le cas de GPT2, un troisième problème (c), auquel H.J. Parkinson consacre la seconde moitié de son article : celui des fake news, puisque l’IA forge complètement ses citations et ses analyses. GPT2 sait écrire en anglais non seulement correctement, mais en reproduisant des habitudes stylistiques, ce qui est une des compétences de la journaliste ; en revanche, GPT2 ne sait pas vérifier ses sources et n’a pas de déontologie, ce qui sont d’autres compétences de la journaliste.
Pour résumer : l’activité de la journaliste met en œuvre un ensemble de compétences à des niveaux divers (linguistique, stylistique, cognitif, éthique), et l’IA est (très) performante sur un certaines d’entre elles (mais pas toutes) ; d’où la crainte, en partie justifiée, d’une concurrence créative et économique.
La concurrence économique de l’IA
La dimension économique de la concurrence de l’IA au travail humain est l’un des problèmes les plus immédiats et les plus sérieux ; c’est sur celui-ci que Sylvie Vandaele, professeur de traduction scientifique à l’Université de Montréal, conclut son analyse du phénomène.
L’inquiétude de S. Vandaele vient moins de la prise en main de la traduction-machine par le traducteur humain que de la dévaluation, en terme de reconnaissance professionnelle et financière, de sa compétence. C’est un cas particulier des conséquences économiques indésirables des progrès de l’IA que Kai-Fu Lee, par exemple, envisageait à l’échelle mondiale en 2017. En somme, la menace économique est la plus immédiate parce que la décision de remplacer le travail humain par le travail automatique peut être prise à court terme.
Sylvie Vandaele souligne aussi que le remplacement économique des traducteurs humains par les machines procéderait, entre autres, d’une incompréhension de la « complexité » de la traduction, c’est-à-dire de ce que représente l’expertise traductologique : en d’autres termes, la décision de remplacer précipitamment le travail humain par le travail machine négligerait certains facteurs, comme la compétence généralisée des travailleurs humains.
Blessure narcissique et généralisation abusive
Parce que les IA qui composent des textes (ou les traduisent) atteignent très rapidement des résultats coûteux (en temps et en effort cognitif) pour l’homme, on a spontanément tendance à les considérer comme des rivaux en termes de créativité linguistique. Il y a cependant, à en croire certains spécialistes de l’IA, de sérieuses raisons de considérer qu’il s’agit là d’une généralisation abusive.
Cette généralisation repose sur le malentendu de la boîte noire. Impressionnés par les résultats fulgurants de l’IA, nous lui prêtons les capacités qu’il faudrait à un humain pour atteindre les mêmes résultats avec la même efficacité. Ce faisant, nous négligeons que l’IA fonctionne d’une manière très différente de la cognition humaine, et que nous ne pouvons pas prêter aux machines nos propres processus mentaux : il faut donc ouvrir la boîte noire.
Rodney Brooks oppose ainsi l’expérience humaine du frisbee à ce que peut en dire une machine qui génère automatiquement des légendes pour des photographies (il commente les résultats présentés par cet article) :
« Supposons qu’une personne nous dise que telle photo représente des gens en train de jouer au frisbee dans un parc. Nous supposons spontanément que cette personne peut répondre à des questions comme “Quelle forme a un frisbee ?”, “À quelle distance en gros peut-on lancer un frisbee ?”, “Peut-on manger un frisbee ?”, “Un enfant de trois mois peut-il jouer au frisbee ?”, “Le temps qu’il fait aujourd’hui se prête-t-il bien à une partie de frisbee ?”
Les ordinateurs qui peuvent légender une image “Joueurs de frisbee dans un parc” n’ont aucune chance de répondre à ces questions. »
Impressionnés par la performance du logiciel, nous ne voyons pas, ajoute Rodney Brooks, ses limitations. Or l’IA en apprentissage profond a un domaine d’action très étroit ; elle est extrêmement performante sur des « champs clos », c’est-à-dire « un type de données extrêmement limité », dans les termes de Gary Marcus et Ernest Davis.
De manière plus imagée, Kai-Fu Lee propose de voir ces IA comme « des tableurs sous stéroïdes entraînés sur le big data, qui peuvent surpasser les humains sur une tâche donnée ». Une IA à qui l’on pourrait effectivementprêter des processus cognitifs humains serait une « IA généralisée », c’est-à-dire « un ordinateur doué d’une conscience de soi, capable de raisonner à partir du sens commun, d’acquérir des connaissances dans des domaines variés, d’exprimer et de comprendre les émotions, etc. ».
On est loin, en d’autres termes, des robots qui rêvent et écrivent spontanément de la poésie, parce que le traitement de données massives par la machine n’est pour l’instant pas comparable à l’expérience cognitive du monde par l’homme. Si la concurrence économique est un problème immédiat, la concurrence existentielle n’est pas encore là.
Une distinction fondamentale : performance vs compétence
Ouvrir la boîte noire permet ainsi de mettre le doigt sur la distinction fondamentale entre performance et compétence. On pourra difficilement contester qu’une IA qui traduit 800 pages en quelques heures soit performante, et même beaucoup plus performante qu’un humain (ou même une équipe de traducteurs humains) ; on peut douter, en revanche, qu’elle soit vraiment compétente : c’est un argument fondamental dans les appels à la sobriété de spécialistes de l’IA comme Rodney Brooks.
Pour revenir à l’exemple de ce dernier : l’humain est compétent pour parler du frisbee ; pas la machine. En termes de philosophie de l’esprit : l’humain, pour parler comme Umberto Eco, possède un « type cognitif » du frisbee dans son « encyclopédie » personnelle. L’IA qui a impressionné H.J. Parkinson du Guardian est performante pour reproduire le style de la journaliste, mais elle n’est pas compétente pour remplacer la journaliste, parce que l’IA ne sait pas distinguer une information sourcée ou une citation authentique d’une fake news ou d’un propos forgé. Bref, il manque aux IA un ensemble très diversifié de compétences (qui sont liées à d’autres dimensions de la cognition humaine, comme notre affinité pour le vrai) pour se substituer globalement à l’humain.
C’est, entre autres, cette compétence généralisée des travailleurs humains qui fournit la base de l’argument de Sylvie Vandaele pour défendre la traduction humaine. Outre le fait que l’IA elle-même est le produit de la compétence des informaticiens et linguistes qui ont travaillé à son élaboration, l’expertise traductologique humaine a été convoquée à toutes les étapes du processus automatique :
en amont du processus, il a notamment fallu élaborer « un dictionnaire de 200 termes spécifiques » des domaines mathématiques et informatiques, ce qui suppose une maîtrise a prioridu texte-source et des deux langues, pour introduire dans sa traduction cohérence et continuité au niveau du lexique le plus technique ;
pendant le processus lui-même, la machine travaille et « apprend » grâce à la compilation d’un impressionnant corpus de référence constitué de textes rédigés et traduits par l’homme. L’apprentissage profond est avant tout l’interprétation statistique d’un vaste échantillon du travail humain : sans cette masse de données, dont la qualité (et donc la compétence de ses auteurs humains) détermine la performance de la machine, l’IA ne serait pas aussi performante ; comme l’explique l’un des concepteurs du logiciel : « La performance de Deepl tient à son corpus très bien traduit ».
en aval du processus, il a fallu relire et corriger la traduction pour la valider définitivement, ce qui est un processus standard aussi pour la traduction humaine. Il a notamment fallu ajuster la ponctuation et « élargir le contexte ». Quoique ces modifications soit présentées comme « marginales », elles sont révélatrices : la ponctuation rythme le texte et, en fluidifiant la lecture, facilite son assimilation par le lecteur ; la notion vague de contexte renvoie, encore une fois, au fonctionnement « encyclopédique » (U. Eco) de la connaissance humaine. En d’autres termes, il a fallu réajuster le produit du travail machine pour qu’il s’insère au mieux dans le rythme et l’univers cognitifs humains, ce que l’IA est incapable d’évaluer.
Conclusion provisoire
Pour résumer : la compétence de la machine est, quand on ouvre la boîte noire, d’une nature différente de la compétence humaine ; et la performance de la machine repose, en dernière analyse, sur la compilation des produits de la compétence humaine. Le danger vient moins d’une concurrence existentielle immédiate d’une IA qui est très loin d’être généralisée que de décisions économiques… qui seront prises par des hommes.
Manifestation à Londres, le 23 mars, en faveur du maintien du Royaume-Uni dans l’UE. Niklas Hallen/AFP
Si l’article 50 TUE est devenu, avec le référendum britannique du 23 juin 2016, la disposition la mieux connue et sans doute la plus commentée des traités européens, un de ses passages est longtemps resté dans l’ombre.
Depuis la notification de l’intention du Royaume-Uni de quitter l’UE le 29 mars 2019, toute l’attention s’était portée sur le §3 de l’article 50 selon lequel « les traités cessent d’être applicables à l’État concerné à partir de la date d’entrée en vigueur de l’accord de retrait ou, à défaut, deux ans après la notification visée au §2 ». Ainsi, la fin de la phrase qui précise « sauf si le Conseil européen, en accord avec l’État membre concerné, décide à l’unanimité de proroger ce délai » » avait suscité peu d’intérêt.
Et pour cause : non seulement deux années de négociation semblaient suffisantes pour parvenir à un accord, mais surtout, la perspective du renouvellement du Parlement européen, en mai 2019, interdisait un report du Brexit au-delà de cette date, tant il était alors inconcevable d’envisager de nouvelles élections de députés britanniques au sein de cet hémicycle.
C’était compter sans les tribulations de la classe politique outre-Manche !
L’ultime bouée de secours
Lorsque le 12 mars dernier, soit 17 jours avant la date butoir, la Chambre des communes a voté contre l’accord de retrait auquel l’Union et le Royaume-Uni sont effectivement parvenus dans les temps ; puis, le lendemain, contre la sortie sans accord, la fin de l’article 50§3 est apparue comme l’ultime bouée de secours : le Conseil européen pouvait décider d’étendre la durée de deux ans stipulée par l’article 50 TUE avec l’accord du Royaume-Uni – accord qui fût donné par la Chambre des communes lors d’un troisième vote, le 14 mars dernier. Encore fallait-il que cette extension soit accordée par l’Union – ce qui a finalement été fait lors du Conseil européen qui s’est tenu jeudi 21 mars.
La décision unanimement adoptée par les vingt-sept États membres à cette occasion permet d’envisager un éclaircissement prochain de l’épais brouillard dans lequel est plongée l’aventure Brexit, sans toutefois le lever complètement.
Elle accorde une prorogation du délai jusqu’au 22 mai 2019, à condition que l’accord de retrait adopté au mois de novembre 2018 soit approuvé par la Chambre des communes la semaine prochaine. Si tel n’était pas le cas, une prorogation serait accordée uniquement jusqu’au 12 avril 2019, date avant laquelle le Royaume-Uni devrait « indique(r) une voie à suivre, en vue de son examen par le Conseil européen. »
Plusieurs scénarios sont donc désormais possibles.
Si l’accord de retrait est approuvé par la Chambre des communes
Dans cette hypothèse, le Royaume-Uni reste membre de l’Union, non jusqu’au 30 juin 2019 comme le demandait Theresa May, mais jusqu’au 22 mai, date à laquelle il devient un État tiers dans les conditions prévues par l’accord de retrait. La sortie serait alors ordonnée et moins brutale : une période de transition, durant laquelle toutes les règles de l’UE continueront à s’appliquer au Royaume-Uni, est envisagée par cet accord jusqu’au 31 décembre 2020 (renouvelable une fois) – temps jugé nécessaire à la préparation de la relation future entre le Royaume-Uni et l’Union européenne.
Le choix du 22 mai ne doit rien au hasard. Cette date correspond à la veille des élections européennes, élections auxquelles doivent participer les citoyens de tout État membre afin de désigner leurs députés. À moins d’une révision des traités – inenvisageable dans les délais qui s’imposent –, le Royaume-Uni doit donc être devenu un État tiers à l’Union avant le 23 mai prochain s’il souhaite éviter d’organiser l’élection européenne pour le peuple britannique. Ce dernier jugerait dans doute la démarche absconse trois ans après son vote en faveur d’un retrait de l’Union.
Theresa May, le 22 mars 2019, lors du Conseil européen à Bruxelles.Emmanuel Dunand/AFP
Après un premier rejet de l’accord de retrait par la Chambre des communes, le 15 janvier, puis un second le 12 mars 2019, c’est donc à un troisième vote, cette fois favorable à l’accord, que le Conseil européen conditionne l’extension du délai prévu par l’article 50 TUE jusqu’au 22 mai. Or, ce vote se heurte à deux difficultés, l’une concernant sa tenue même, l’autre concernant son résultat, au cas où il pourrait avoir lieu.
La tenue de ce vote, tout d’abord, ne va pas de soi. Le 18 mars dernier, en effet, John Bercow, le Speaker de la Chambre des communes, s’est opposé au projet de Theresa May de proposer pour la troisième fois l’accord de retrait à l’approbation des députés, en évoquant une règle de procédure de 1604, selon laquelle il est interdit de soumettre au vote une question ou un projet « substantiellement identique » à une question ou un projet sur le(la)quel(lle) les chambres se sont déjà prononcées au cours de la même session parlementaire.
Dans la mesure où le vote doit avoir lieu cette semaine, il est impossible, faute de temps, d’envisager tant de changer cette règle que de clore la session parlementaire en cours pour en ouvrir une nouvelle.
Dès lors, la seule possibilité d’éviter une nouvelle opposition du Speaker serait de prouver l’existence d’un changement substantiel entre l’objet du vote du 12 mars et celui de la semaine prochaine. Or, du côté de l’Union, il a toujours été affirmé qu’il ne saurait y avoir de réouverture de l’accord de retrait. Seul le texte rejeté le 15 janvier et le 12 mars peut donc être soumis au vote de la chambre dans les prochains jours.
Rien n’indique, en revanche, que la prorogation demandée par le gouvernement britannique et accordée par le Conseil européen jusqu’au 22 mai 2019 soit considérée par John Bercow comme un « changement substantiel » susceptible de permettre un nouveau vote la semaine prochaine.
Quand bien même un nouveau scrutin serait autorisé, la deuxième difficulté qui se présente est celle du résultat de ce vote : il y a peu de chance, en effet, que la prorogation accordée par le Conseil européen suffise à faire changer d’avis un nombre suffisant des 391 députés qui se sont prononcés contre l’accord de retrait le 12 mars, et ce malgré la pression mise sur la Chambre des communes par la menace d’une sortie de l’Union sans accord ou d’une sortie retardée, voire d’une absence de sortie.
Si l’accord de retrait n’est pas approuvé par la Chambre des communes
Dans cette hypothèse, le Conseil convient « d’une prorogation jusqu’au 12 avril 2019 » et attend que le Royaume-Uni « indique avant cette date une voie à suivre, en vue de son examen par le Conseil européen. »
Là encore, la date choisie ne doit rien au hasard puisqu’elle correspond à la date limite pour permettre au Royaume-Uni d’organiser éventuellement les élections européennes. Theresa May a fait savoir qu’elle n’était pas favorable à cette option qui irait, selon elle, à l’encontre de la volonté de retrait de l’Union exprimée par le peuple britannique en 2016.
Si le Royaume-Uni ne souhaitait pas participer à ces élections, la sortie sans accord serait inévitable au 12 avril. Si, au contraire, il décidait de participer à ce scrutin, il était contraint de solliciter du Conseil européen un nouveau report du Brexit, lequel ne serait pas accordé automatiquement et serait soumis à condition.
En effet, seule une révision de la stratégie britannique et l’affirmation de véritables choix – que le Royaume-Uni n’a pas su présenter jusqu’à présent – pourrait amener les Vingt-Sept à accorder cette prorogation supplémentaire. Les possibilités les plus diverses concernant ces nouvelles propositions britanniques sont envisageables, comme l’a indiqué le Président du Conseil européen, Donald Tusk, à l’issue du sommet européen.
Le plan politique britannique pourrait ainsi notamment consister en la programmation d’élections au Royaume-Uni, en de nouvelles propositions concernant la relation future et en la disparition de certaines lignes rouges britanniques qui ont été posées dans cette perspective, en l’organisation d’un nouveau référendum portant peut-être cette fois sur l’accord de retrait, voire en la révocation pure et simple de la notification du retrait qui, selon la Cour de justice de l’Union européenne, peut-être unilatérale, c’est-à-dire ne dépendre que de la seule volonté du Royaume-Uni.
À Londres, le 23 mars 2019, des manifestants réclament un nouveau référendum sur le Brexit.Niklas Halle’n/AFP
En tout état de cause, la prorogation devrait nécessairement être bien plus longue que celle accordée par le Conseil européen le 21 mars dernier. Par ailleurs, compte tenu des divisions et des tergiversations dont a fait preuve jusqu’à présent la classe politique britannique, on imagine aisément les difficultés du Royaume-Uni à présenter, avant le 12 avril, une ou plusieurs propositions susceptibles de convaincre les Vingt-Sept.
Le recours, au sein de la Chambre des communes, au vote indicatif sur des résolutions non contraignantes sera sans doute nécessaire pour espérer déterminer ce que souhaitent les députés britanniques concernant les différentes options possibles.
Deal, no deal, leave, remain… : tout reste encore envisageable, mais c’est – en tout état de cause – au Royaume-Uni qu’il revient de prendre une décision avant le 12 avril, et d’endosser enfin la responsabilité de ses choix, quels qu’ils soient.
Professeur honoraire (Sciences de l’éducation), Université Grenoble Alpes
Le 20 août 1672, dans une atmosphère d’hystérie collective, les frères Jan et Cornelis De Witt, que Spinoza aimait et admirait, sont massacrés.Haags Historisch Museum/DR
N’en déplaise au bon duc de Sully, haine et violence semblent bien devenir « les deux mamelles de la France ». Tous les samedis, la violence se déchaîne dans nos centres-ville. Et la haine envahit les réseaux sociaux. Est-il possible, et comment, d’interrompre cette course à l’abîme ?
Politiques et citoyens se déchirent entre partisans d’une répression accrue et défenseurs d’une liberté d’expression sans limites, lesquels d’ailleurs sont souvent, et tour à tour, les mêmes ! Écoutons Spinoza, qui eut le triste privilège d’affronter une situation pire encore, sa propre vie étant en jeu.
Spinoza et les monstres
Le 20 août 1672, dans une atmosphère d’hystérie collective, les frères Jan et Cornelis De Witt, que Spinoza aimait et admirait, sont massacrés. Dans son ouvrage Le clan Spinoza (Flammarion, 2019), Maxime Rovere décrit ainsi la scène (p. 416) :
« On se bouscule pour les voir, on leur arrache leurs vêtements, et à force d’onduler comme un océan en furie, la foule se découvre avide de les toucher, finit par leur ouvrir le ventre, puis se découvre avide de flairer leur sang, avide de s’en mettre sur elle. On parvient à suspendre les cadavres éviscérés au gibet… et on les frappe encore, encore et encore jusqu’à ce qu’ils perdent toute forme… »
Spinoza manifesta sa volonté de venir sur les lieux afficher deux mots : « Ultimi barbarorum » – les pires des barbares. On l’en dissuada en l’enfermant dans la maison de ses hôtes. Il ne put que crier en gémissant :
« Les monstres, les monstres… »
Faut-il haïr la haine ?
Que faire quand la haine s’empare des esprits ? Certes, les émeutiers des samedis jaunes ne sont pas encore parvenus aux confins de la barbarie. Mais, n’en doutons pas, ils sont capables de progresser.
Devons-nous, alors, les haïr, en réclamant vengeance, à travers des sanctions qui soient aussi violentes qu’exemplaires, sur l’air de : « pour un œil, les deux yeux ; pour une dent, toute la gueule ! » ?
Devant la barbarie, la tentation de faire guerre à la guerre est très forte. Sans doute, la Cité a-t-elle à la fois le droit – et le devoir – de se défendre. Toutefois, Spinoza va nous calmer, en nous faisant comprendre que la haine est toujours mauvaise, et que la haine ne peut qu’entraîner la haine.
« La haine ne peut jamais être bonne. » (Éthique, IV, 45)
Elle n’est « rien d’autre que la tristesse accompagnée de l’idée d’une cause extérieure. » (III, 13)
Or, « la tristesse est une passion par laquelle l’esprit passe à une perfection moindre ». (III, 11)
« Celui qui hait s’efforce d’écarter et de détruire la chose qu’il hait. » (III, 13).
Et :
« la joie qui naît de ce que nous imaginons une chose haïe détruite… ne naît pas sans quelque tristesse de l’âme. » (III, 47)
C’est pourquoi la haine ne peut qu’entraîner la haine.
« Celui qui imagine qu’un autre le hait et qui croit ne lui avoir donné nul motif de haine, le haïra à son tour. » (III, 40)
La haine l’entraîne dans une dynamique néfaste de colère et de vengeance :
« L’effort pour faire mal à celui que nous haïssons s’appelle colère (ira) ; l’effort pour rendre le mal qui nous a été fait s’appelle vengeance ».
Pour Spinoza, l’une et l’autre sont mauvaises. Mais alors, que nous reste-t-il ?
Serait-il mal de s’indigner ?
De grands et bons esprits nous ont invités à nous indigner devant les injustices. L’indignation serait une saine réaction, et le premier temps du combat destiné à les vaincre. Mais, pour Spinoza, l’indignation n’est, encore, qu’une forme de haine – « une haine envers quelqu’un qui a fait du mal à un autre. » C’est pourquoi elle « est nécessairement mauvaise. » Toutefois, il faut noter que, écrit-il dans la même proposition (IV, 51) :
« Quand, pour maintenir la paix sociale, le pouvoir suprême punit un citoyen qui a commis une injustice envers un autre, je ne dis pas qu’il s’indigne contre lui, car il n’est pas poussé par la haine à perdre ce citoyen, mais c’est le devoir qui le conduit à punir. »
On ne hait pas celui que l’on ne sanctionne que par devoir.
Nous entrevoyons là l’une des deux clés que propose Spinoza pour contrer la violence et la haine :
le devoir de raison, pour ce qui concerne l’action de la cité en direction des citoyens (l’action publique) ;
l’amour, pour ce qui concerne les rapports entre les hommes (les « sentiments » interpersonnels).
L’amour, plus fort que la haine ?
L’amour est l’exact opposé de la haine. Il est « la joie associée à l’idée d’une cause extérieure. » Et il se révèle finalement plus fort que la haine. Car « la haine doit être vaincue par l’amour (ou générosité) et non pas compensée par une haine réciproque. » (V, 10) Certes, c’est « non sans tiraillement de l’esprit » que ce « commandement de la raison » peut finir par s’imposer ! Mais :
« Qui vit sous la conduite de la raison s’efforce, autant qu’il peut, de donner amour (ou générosité) en échange de la haine, de la colère, du mépris, etc. qu’il reçoit d’autrui… Venger une offense par une haine réciproque, c’est assurément vivre dans le malheur. Au contraire, si l’on a à cœur de vaincre la haine par l’amour, on se bat avec joie et sécurité. » (IV, 46).
Si bien que « la haine qui est entièrement vaincue par l’amour se change en amour » (III, 44).
La violence maîtrisée par la force de la vertu ?
Dans l’État, il faut, de même, reconnaître « à la Raison plus de droits qu’à la haine et à la colère » (Traité théologico-politique, chap. XVI). Si l’amour est une des clés d’accès à la véritable liberté pour l’être humain, capable de connaître « la béatitude de l’esprit », le citoyen n’est pas tenu, en tant que tel, d’aimer les autres ! Il lui suffit de faire preuve de « la volonté constante de faire ce que commande la loi commune de la cité », autrement dit de faire preuve de cette « force (virtus) qui provient de la fermeté d’âme » (Traité politique, chap. 5, § 4).
La vertu conduit à privilégier les devoirs, puisque, « dans un État démocratique… tous conviennent d’agir par un commun décret », et de « donner force de décret à l’avis qui rallierait le plus grand nombre de suffrages » (TTP, chap. XX). Ainsi sera respecté le droit de « vivre dans la concorde et dans la paix », dont le souci est au « fondement » de la démocratie. Ici se rejoignent homme libre et cité libre, car « la béatitude n’est pas la récompense de la vertu, mais c’est la vertu elle-même » (V, 42).
La raison et l’amour sont-ils de nature à nous préserver de nouvelles barbaries ? On serait heureux de le croire. Mais hélas, en matière de barbarie, sans doute n’est-on à l’abri de rien. Et il serait bien présomptueux de prétendre éradiquer la haine. Mais il n’est interdit à personne d’essayer, pour sa modeste part, de commencer.
Le miracle peut venir de partout. S’il faut en croire Brassens, on a même vu la grâce toucher… des hommes d’église :
« Quand la foule qui se déchaîne
Pendit un homme au bout d’un chêne
Sans forme aucune de remords
Ce ratichon fit un scandale
Et rugit à travers les stalles
Mort à toute peine de mort ».
(« La messe au pendu », 1976)