« Neverland » ou l’enfance amnésique

 

Flora White, illustration pour « Peter Pan », 1914. Pinterest

Peter Pan est-il l’un des derniers exemples du culte de l’enfance qui a dominé l’ère victorienne ? La fable de J. M. Barrie dévalue l’expérience adulte, mais n’idéalise pas l’enfance pour autant. Tant dans sa pièce de théâtre (Peter Pan, ou la garçon qui ne grandirait pas (Peter Pan ; or, The Boy Who Wouldn’t Grow Up) que dans son roman, Peter et Wendy (1911), l’enfance dont on ne sort pas devient une forteresse régressive et dangereuse, marquée par la menace de la mort et de l’oubli.

Céline-Albin Faivre met en garde contre la traduction courante de « the boy who wouldn’t grow up » par « le garçon qui ne voulait pas grandir ». Elle préfère « le garçon qui ne grandissait pas », qui conserve l’ambiguïté de l’anglais entre vouloir et pouvoir.

Enfants perdus, enfants oubliés

À Neverland, « Pays du Jamais », la mort est inscrite partout et pas seulement comme un jeu. Elle est l’aventure suprême, consacrée par la célèbre phrase de Peter : « ce sera carrément une grande aventure de mourir » (« […] to die will be an awfully big adventure »).

Le caractère funèbre de Peter Pan, hommage au frère de l’auteur mort dans l’enfance, a été beaucoup commenté. Peter est peut-être le fantôme d’un fils disparu ou jamais né, et Neverland figurerait des limbes déchristianisés pour les enfants « perdus », c’est-à-dire décédés (l’anglais to lose porte la même ambiguïté que le français perdre). Le vol du héros l’apparente à l’ange psychopompe qui conduit au Ciel les petits morts, tel qu’Andersen, par exemple, a pu le décrire :

« Chaque fois qu’un bon enfant meurt, un ange de Dieu descend sur la terre, prend l’enfant mort dans ses bras, ouvre ses larges ailes […] ».

Dans le roman The Little White Bird (1902), où Peter Pan apparaissait pour la première fois, le deuil était plus explicitement suggéré : il était un nouveau-né « envolé » à l’âge de sept jours, et que sa mère pleurait.

Neverland, comme l’indique son nom, est un lieu de l’effacement, de l’oubli. Il l’est d’abord parce que les enfants perdus sont des enfants oubliés, qui n’ont pas été « réclamés » par leurs parents :

« Ce sont les enfants qui tombent de leur landau quand leur nounou regarde ailleurs. S’ils ne sont pas réclamés au bout de sept jours, on les envoie au loin au Pays du Jamais » (p. 72).

Les mères peuvent effacer le souvenir de leurs enfants et même les remplacer par des petits frères. Le détachement de la mère, qui a « fait son deuil » du fils perdu, signifie une disparition plus radicale et plus douloureuse que la mort même.

Sur l’île, les enfants oubliés deviennent à leur tour oublieux, à l’image de Peter, petit tyran frappé d’une sorte d’amnésie infantile permanente. Contrairement au Capitaine Crochet, qui n’omet ni ne pardonne rien, Peter est comme amputé de sa mémoire. Il oublie même ses compagnons et les jeunes Darling. Wendy devra lui redire sans cesse qui elle est :

« si jamais tu vois que je t’ai oubliée, répète simplement : “C’est moi, Wendy” encore et encore, et ça me reviendra » (p. 88).

L’amnésie contribue à l’insensibilité du personnage, qui paraît incapable d’attachement. Elle amène ses « sujets », Wendy notamment, à douter de leur propre existence. Surtout, et c’est le plus effrayant, la contagion de l’oubli gagne peu à peu les petits habitants de l’île. On retrouve ici un motif de Robinson Crusoé, la hantise de l’ensauvagement par l’effacement de la mémoire culturelle et du langage, autrement dit de l’humanité. Comme Robinson, les garçons perdus sont vêtus de peaux de bêtes, Peter porte un habit de feuilles mortes. La porosité des espèces et des règnes – humain, animal et végétal – accompagne la déshumanisation par l’oubli.

Wendy et le travail de remembrance

Neverland subvertit donc le culte de l’enfance : de refuge utopique, l’île se mue en lieu de réclusion, nouvel avatar de l’île-prison de Robinson. L’enfance même y devient une forteresse régressive, dont seule Wendy semble percevoir le péril. La violence sauvage des jeux sape les fondements moraux de la société humaine : attachement, conscience, mémoire et deuil. Sur l’île, la fratrie Darling, à son tour, est gagnée par l’oubli – les frères du moins, car Wendy devine la menace de l’effacement du lien mémoriel avec le passé, c’est-à-dire avec monde réel et les parents :

Ce qui la perturbait de temps en temps, c’était que John n’avait qu’un souvenir vague de ses parents, comme de personnes qu’il avait connues jadis, pendant que Michael était enclin à croire qu’elle était réellement sa mère. Ces choses-là lui faisaient un peu peur […] et elle tenta de fixer [she tried to fix] leur ancienne vie dans leur esprit […]. (p. 136)

« To fix », c’est à la fois fixer et réparer. Si Wendy échappe à l’oubli, ce n’est pas seulement qu’elle est l’aînée, mais parce qu’elle est une fille donc, selon les conventions de l’époque, habile à raconter et à coudre, deux activités liées de plus d’une manière. Wendy raccommode les mémoires comme elle reprise les vêtements. Ce travail féminin, quoique servile, l’investit du pouvoir de rassembler les membres de la famille par l’incitation répétée du « remember », à la fois remembrance et remembrement, car l’oubli est un démembrement barbare. Comme Alice qui, dans le terrier du lapin, éprouvait l’angoisse de désapprendre et se récitait ses leçons, Wendy, dans la maison souterraine, reconstitue l’école, lieu mnémonique, lieu de civilisation, et incite ses frères à écrire leurs souvenirs sur des ardoises improvisées :

“Quelle était la couleur des yeux de maman ? Qui était le plus grand, papa ou maman ? Maman était-elle brune ou blonde ? Vous répondrez, si possible aux trois questions.

” (A) Rédigez une dissertation d’au moins quarante mots qui fasse le récit de vos dernières vacances […].

“ Ou (1) Décrivez le rire de maman. (2) Décrivez le rire de papa. (3) Décrivez la robe de soirée de maman. (4). Décrivez la niche et son occupante.” (p. 137)

L’exercice, qu’on pourrait appeler un devoir de mémoire, offre une réponse à la fois dérisoire et tragique à la hantise de l’effacement. Quand les garçons ne savent pas répondre, ils doivent tracer une croix : « le nombre de croix que même John pouvait faire était vraiment épouvantable. » (p. 137) L’oubli des enfants dessine un cimetière d’adultes. Peter sait bien, d’ailleurs, qu’il lui suffit de respirer fort (autrement dit de vivre davantage) pour faire mourir les grandes personnes : « au Pays du Jamais, un proverbe dit que chaque fois que vous respirez, un adulte meurt » (p. 185-186). L’enfance amnésique efface les générations qui l’ont précédée.

« Ce sera carrément une grande aventure de mourir »

Or Wendy la couturière est une petite Parque (son second prénom est Moira) qui peut aussi trancher le fil de la vie : c’est elle qui incite les garçons perdus à se sacrifier plutôt que de se soumettre aux pirates :

« Je sens que j’ai pour vous un message de vos véritables mères, et le voici : “Nous espérons que nos fils mourront en vrais gentlemen d’Angleterre[12].” » (p. 224)

Ces valeurs patriotiques et viriles ont beaucoup inspiré Baden-Powell qui avait vu la pièce plusieurs fois en 1904. Il crée le mouvement des Boy Scouts en 1907 pour une génération qui deviendra celle des Tommies de la Grande Guerre. Barrie sera enrôlé par le War Propaganda Bureau et son « to die will be an awfully big adventure » se déclinera en devises guerrières. La phrase sera pourtant supprimée des représentations de la pièce en 1915, après la mort de George Llewelyn Davies, l’aîné des fils adoptifs de Barrie. En 1922 l’écrivain demandera pardon de ses mensonges, au nom de sa génération (Age), à la jeunesse (Youth) décimée, pour tous ces enfants qui ne grandiraient pas.

Ancrée dans l’histoire, la fable de Peter Pan marque donc la fin du culte nostalgique de l’âge tendre et annonce l’enrôlement de la jeunesse par les nations en guerre. L’enjeu de la fiction est peut-être moins l’éducation qu’une certaine conception de l’enfance, non seulement comme un âge mais comme état ou un éthos. Plus sujets à l’oubli, donc à l’ensauvagement, parce que plus proches de l’état natif ou naturel, les « enfants perdus » rendent sensibles les dangers d’une perte qui touche aussi les adultes : celle de l’identité narrative et de l’histoire, autrement dit de la mémoire individuelle et collective. L’île de l’enfance oublieuse pourrait bien être une allégorie politique et morale de notre fragilité.

Réserves d’eau souterraine : des cartes pour mieux comprendre la sécheresse

 

Le 31 juillet 2020 à Maisons-du-Bois-Lievremont, dans l’Est de la France, le Doubs est à sec. SEBASTIEN BOZON/AFP

Des périodes de sécheresse plus fréquentes et plus intenses, voilà l’une des conséquences du réchauffement climatique global dont la France souffre désormais chaque été. Un phénomène qui inquiète les agriculteurs et contraint les particuliers à un usage de l’eau restreint. En ce début août, 68 départements se trouvent ainsi en situation de restriction.

Le suivi scientifique de cette situation fait l’objet du Bulletin national de situation hydrogéologique qui, chaque début de mois, présente à l’aide de cartes commentées l’évolution mensuelle des ressources en eau pour la France métropolitaine.

Exemple de carte de situation des nappes. eaufrance

Parmi ces cartes, on trouve celle sur l’état des nappes d’eau souterraine fournie par le Bureau de recherches géologiques et minières (BRGM). On y distingue les grands ensembles hydrogéologiques et des indicateurs (sous forme de triangles et de carrés) du niveau de l’eau présente sous nos pieds.

Près de 3000 forages équipés suivent régulièrement l’évolution de ces niveaux d’eau souterraine et rendent possible une telle cartographie. Ces informations permettront de décider de mesures préventives, voire compensatrices, à prendre en cas de sécheresse.

Pour le mois de juillet, les relevés indiquent que, grâce aux fortes pluies tombées durant l’automne-hiver 2019-2020, le niveau de ces eaux est globalement haut… à quelques exceptions près. Les réserves du couloir rhodanien (Rhone-Saone) et de la plaine d’Alsace connaissent en effet une situation plus inquiétante, les derniers hivers, peu pluvieux, n’ayant pas permis de les approvisionner assez. Les calcaires de Lorraine et du Berry (Centre Val de Loire) accusent quant à eux la sécheresse de ces dernières semaines (toutes ces informations seront consultables dans le détail dans les prochains jours dès la mise en ligne du nouveau bulletin).

On le comprend, les régions françaises ne sont pas « égales » en matière de réserves d’eau souterraine. Certaines sont ainsi plus exposées que d’autres au risque de sécheresse hydrologique, avec des répercussions plus ou moins sévères sur les niveaux d’eau souterraine et par conséquent le débit des cours d’eau et des sources.

Rappelons que l’on distingue la sécheresse hydrologique de deux autres types de sécheresse : la sécheresse météorologique, caractérisée par un déficit prolongé de pluies ; la sécheresse dite « agricole », marquée par un déficit en eau des sols.

Ces réserves d’eau sous nos pieds

Pour bien comprendre les ressorts de la sécheresse hydrologique, il faut s’intéresser au comportement des aquifères, ces formations rocheuses ou sédiments qui contiennent les eaux souterraines.

Parmi les 6500 aquifères que compte la France, 200 sont d’importance régionale et possèdent une superficie comprise entre 1000 et 100 000 km2. Le plus important est celui de la Craie, dans le Bassin parisien, qui s’étend de la Normandie et des Hauts-de-France à la région Centre-Val de Loire. Les plus petits se situent dans les massifs granitiques (Bretagne, Auvergne) et ne font que quelques dizaines de kilomètres carrés.

Les eaux souterraines qui s’écoulent dans ces aquifères sont appelées « nappes ». Ce ne sont pas, comme certains se l’imaginent parfois, des lacs souterrains : l’eau qui y circule n’occupe que les vides laissés par la roche (pores, fissures, fractures). Les nappes qui évoluent à proximité de la surface, en connexion avec les cours d’eau, sont qualifiées de « phréatiques ».

Le cycle de l’eau souterraine. (BRGM TV/Youtube, 2012).

Les aquifères ont des comportements très différents en cas de sécheresse ou de période de fortes précipitations ; l’eau de pluie s’infiltre en effet plus ou moins partiellement au travers du sol pour atteindre les nappes, ce processus étant dépendant de la perméabilité du sol.

Au cours de la période que l’on appelle « recharge saisonnière » – qui s’étend en général d’octobre à avril –, le niveau de la nappe augmente. Au printemps puis en été, les eaux de pluie n’atteignent plus les nappes à cause de la reprise de la végétation et de l’évapotranspiration (l’eau qui passe depuis le sol dans l’air à l’état de vapeur). Quand les eaux souterraines s’écoulent vers leurs « exutoires », – sources, cours d’eau, mer –, cela entraîne la baisse du niveau de la nappe.

D’une région à l’autre

Les grands bassins sédimentaires – indiqués plus bas en vert pâle sur la carte de l’état des nappes pour juin 2020 –, comme les Bassins parisien et aquitain, comportent des roches comme la craie, le calcaire non karstique et le grès. Les eaux circulent lentement à travers les pores de la roche et les nappes se caractérisent par leur inertie. Elles ont donc des cycles très lents : il leur faut plusieurs épisodes de pluie pour devenir hautes mais elles pourront supporter plusieurs cycles de sécheresse avant d’atteindre leur bas niveau.

Ces bassins se caractérisent par des nappes de grande capacité : de larges volumes d’eau sont stockés dans des roches d’épaisseurs importantes et avec des bassins de plusieurs milliers de kilomètres carrés.

En cas de sécheresse, ces terrains ont donc une forte inertie ; le manque d’eau ne se traduit pas directement par une baisse du niveau de la nappe et de la réserve d’eau contenue dans le sous-sol. Les niveaux naturels de ces nappes dites « inertielles » dépendent essentiellement de la somme des recharges des hivers précédents.

Un cycle, qui comprend une montée jusqu’à un niveau maximum et une descente à un niveau très bas, peut durer 10 ans voire plus. Ainsi, la nappe inertielle peut soutenir les débits des cours d’eau et répondre aux demandes en eau durant une longue période, même pendant une longue sécheresse avec une pluviométrie très faible voire nulle. La nappe inertielle constitue de ce fait une solution potentielle face à une sécheresse météorologique et de sol durant l’été.

Dans ces grands bassins, un niveau (très) bas traduit un manque de recharge de la nappe depuis plusieurs années (symboles rouge et orange), comme en août 2006, après trois années de déficit de recharge (voir la carte ci-dessous).

Niveau des nappes d’eau souterraine au 1ᵉʳ septembre 2006 en France métropolitaine. eaufranceCC BY

Les petits bassins versants sédimentaires en Bretagne et dans les zones montagneuses (Alpes, Pyrénées) présentent des aquifères de plus faible extension ou moins perméables (en orangé pâle sur la carte) ; ils se caractérisent par une capacité plus faible comme réservoir en eau.

Ces nappes dites « réactives » répondent à un manque de pluies par un déstockage de l’aquifère en quelques semaines. Le niveau de la nappe peut alors atteindre un niveau très bas. Au contraire, en période de fortes pluies, ces nappes se rechargent plus rapidement et peuvent atteindre des niveaux (très) hauts.

En mai 2020, sur le pourtour méditerranéen et dans les Pyrénées, par exemple, les nappes ont bénéficié d’apports supplémentaires et certaines affichent des niveaux hauts à très hauts (voir la carte ci-dessous).

Niveau des nappes d’eau souterraine au 1ᵉʳ juin 2020 en France métropolitaine. eaufranceCC BY

Dans les roches granitiques – comme en Bretagne, dans le Massif central ou dans les massifs de calcaires (en rose sur la carte) –, les eaux souterraines s’écoulent dans les fissures et les fractures de la roche. Ces nappes réagissent alors rapidement aux pluies et à la recharge, et se vident aussitôt via les sources et les cours d’eau.

En juin 2020 (voir la carte ci-dessous), ces nappes ont particulièrement souffert de l’absence de précipitations, avec une situation qui s’est rapidement dégradée. Les nappes des calcaires jurassiques de Lorraine enregistrent par exemple des niveaux modérément bas à très bas (triangles jaunes, oranges et rouges sur la carte). Pour les sources des Causses du Quercy (nappe des calcaires karstifiés du Jurassique), les niveaux sont modérément bas localement, mais s’améliorent (triangle jaune vers le haut).

Niveau des nappes d’eau souterraine au 1er juillet 2020 en France métropolitaine. eaufranceCC BY

Évoquons enfin les grandes plaines alluviales (en bleu foncé sur la carte) avec leur écoulement et leur recharge rapides, liés à une faible profondeur de la nappe et une bonne perméabilité ; ici, les nappes sont directement en relation avec les cours d’eau. Un niveau bas de la nappe va donc baisser également l’apport d’eau souterraine vers les rivières. Les rivières peuvent ainsi tomber à sec ou leur température augmenter fortement sans l’apport de la nappe et de ses eaux fraîches (13-14 °C) en provenance du sous-sol.

En juin 2020, les niveaux des nappes alluviales d’Alsace ont par exemple vu leur situation se dégrader, avec des niveaux bas à très bas (triangle orange ou rouge vers le bas).

Une forte sollicitation estivale des nappes souterraines – liée à la fréquentation touristique et à l’irrigation – peut aggraver ce phénomène. Un arrêt ou une diminution des pompages est alors parfois indispensable, comme en été 2006, période particulièrement touchée par la sécheresse. En septembre 2006, 64 départements avaient eu au moins un arrêté de restriction des usages de l’eau en vigueur sur leur territoire, dont plus de la moitié avec des restrictions totales et le plus haut niveau de restrictions.

En fait, il s’agit d’une question d’anticipation. On peut anticiper la sécheresse d’une nappe inertielle plusieurs mois à l’avance et donc prendre les mesures adéquates, alors qu’il est difficile de prévoir la sécheresse d’une nappe réactive, car elle est très liée à la pluie.

L’espoir des anticorps antiviraux dans la lutte contre le Covid-19

 

Image de microscope électronique à balayage montrant le SARS-CoV-2 (orange) émergeant de la surface de cellules (vertes) cultivées en laboratoire. NIAID / FlickrCC BY-SA

Alors que la pandémie du Covid-19 due au virus SARS-CoV-2 progresse dans de nombreux pays et resurgit dans d’autres, nous ne disposons d’aucun traitement capable d’endiguer la multiplication du virus. Les vaccins représentent-ils la seule planche de salut ? Pas si sûr alors que de nombreuses questions se posent sur le degré de leur efficacité à prévenir l’infection, leur sécurité et leur acceptabilité par les populations.

Il est donc important d’explorer d’autres armes qui pourraient contribuer au contrôle de l’infection et de ses conséquences. L’immunothérapie s’avère particulièrement prometteuse à cet égard, en particulier celle qui repose sur les anticorps monoclonaux, ces armes ultra-spécifiques issues de la biotechnologie.

Les anticorps anti-SARS-CoV-2 pour neutraliser le virus

Le concept d’immunothérapie pour combattre les maladies infectieuses n’est pas neuf : il date de près de cent ans. Emile Roux en France et Emil von Behring en Allemagne en ont été les pionniers. Il reposait à l’époque sur l’injection de sérum préparé à partir du sang d’animaux immunisés contre le microbe.

Des milliers d’enfants ont ainsi été sauvés de la diphtérie parce que l’on a longtemps appelé la sérothérapie. Elle a aussi permis à Jules Bordet de mettre fin à l’épidémie de peste bovine survenue à la même période en Afrique du Sud.

La sérothérapie a évolué vers l’injection d’anticorps purifiés à partir du plasma de sujets immunisés (immunoglobulines hyperimmunes) puis d’anticorps monoclonaux obtenus grâce au génie génétique. Ces derniers sont apparus dès la fin des années 1990 dans la lutte contre les maladies infectieuses, avec une première indication dans la prévention de la bronchiolite du nouveau-né causée par le virus respiratoire syncitial.

Depuis l’épidémie de SRAS de 2003 liée au virus SARS-CoV-1 – cousin germain du virus SARS-CoV-2 – ils sont considérés comme des armes potentielles pour vaincre les épidémies causées par les virus les plus agressifs. Ainsi, un cocktail d’anticorps monoclonaux s’est révélé très efficace pour combattre le virus Ebola. Il devrait être approuvé cet automne par la Food and Drug Administration aux États-Unis.

Plusieurs observations suggèrent que des anticorps monoclonaux dirigés contre le virus SARS-CoV-2 devraient permettre de lutter contre la pandémie actuelle. La guérison d’une infection par ce virus est associée à la production d’anticorps neutralisants dans les 6 à 10 jours suivant l’infection.

Expérimentalement, des macaques infectés par le virus SARS-CoV-2 résistent à une infection ultérieure grâce à des anticorps de ce type. Et au cours de l’épidémie de SRAS en 2003 les personnes infectées par le virus SARS-CoV-1 ont développé une immunité protectrice.

Ces observations conduisent aujourd’hui au développement d’anticorps monoclonaux dirigés spécifiquement contre la protéine Spike du virus SARS-CoV2. Cette protéine membranaire permet au virus de pénétrer dans les cellules humaines en se liant à son récepteur ACE2. En fait, une course au développement industriel de ces anticorps se déroule parallèlement à la course aux vaccins. On y retrouve dans le peloton de tête la multinationale AstraZeneca et la firme Regeneron qui vient d’obtenir une aide de 450 millions de dollars du gouvernement américain lui permettant d’entamer des essais cliniques de phase III à large échelle.

Si certains anticorps neutralisent effectivement le virus et conduisent à son élimination de l’organisme, d’autres vont contribuer à aggraver les dommages qu’il cause, notamment en alimentant la surproduction de cytokines. Les avancées de la biotechnologie permettent aujourd’hui de sélectionner les seuls anticorps bénéfiques et de les produire en laboratoire pour en faire des médicaments capables d’une action antivirale immédiate dès l’infection identifiée.

Ainsi, non seulement ont-ils les meilleures chances d’être efficaces mais aussi d’être bien tolérés sur la base de leur profil de sécurité dans d’autres indications comme les maladies auto-immunes.

Les indications de l’immunothérapie par les anticorps anti-SARS-CoV-2

Ces indications sont potentiellement nombreuses et seront affinées au fur et à mesure des résultats qui proviendront des essais cliniques.

Les anticorps monoclonaux pourront être utilisés comme des agents antiviraux dans le traitement des formes sévères de la Covid-19 ou à une phase plus précoce de la maladie pour prévenir son aggravation ultérieure en réduisant la charge virale dans l’organisme de la personne traitée.

Les anticorps monoclonaux pourront également être utilisés en prévention de l’infection après une exposition au virus, par exemple, parmi les personnels soignants ou les personnes vulnérables.

L’immunothérapie en complément de la vaccination

Par rapport aux vaccins, les anticorps ont l’avantage d’une action antivirale immédiate qui ne dépend pas de la mobilisation du système immunitaire. Il faut d’ores et déjà s’attendre à ce que les vaccins n’aient pas la même efficacité chez tous les individus. Une des grandes questions actuelles, est de savoir si les vaccins agiront de la même manière chez les seniors que chez les sujets plus jeunes. Le vieillissement touche aussi le système immunitaire. Une étude récente montre que l’un des candidats-vaccins induit une réponse moindre chez les sujets de plus de 55 ans. Or ce sont eux qui sont les principales victimes des formes sévères du Covid-19. En fait, par rapport aux vaccins, les anticorps ont l’avantage d’une action antivirale immédiate qui ne dépend pas de la mobilisation du système immunitaire et l’immunothérapie pourrait donc s’avérer particulièrement intéressante dans la population plus âgée et venir ainsi en complémentarité du vaccin.

Les obstacles qui restent à franchir

Ils sont de plusieurs ordres. Tout d’abord, les anticorps n’agiront que pour une période relativement brève. D’où les efforts actuels pour augmenter leur durée de vie dans l’organisme. Se pose surtout la question des capacités de production industrielle pour faire face aux demandes puisque des dizaines de millions de personnes pourraient en bénéficier. Et enfin, les prix auxquels ces produits seront commercialisés risquent d’entraver leur accès. Comme pour les vaccins, les négociations entre les gouvernements, la communauté internationale qui s’est engagée dans l’accès universel à la santé et les sociétés pharmaceutiques promettent d’être serrées…

Stéréotypes sexistes dans le monde : le poids de la religiosité

 

Dieu réprimandant Adam et Eve, peinture, détail
La femme est-elle la source de tous les maux divins? ‘Dieu réprimandant Adam et Eve’ détail, peinture, Le Dominiquin (1581–1641). Wikimedia

Le Programme des Nations unies pour le développement (PNUD) a publié en début d’année son rapport 2020 sur la situation des inégalités femmes-hommes dans le monde.

Le bilan est loin d’être encourageant. En effet, si ces inégalités ont nettement diminué entre le milieu des années quatre-vingt-dix et le début des années 2010, le rapport souligne que le rythme de cette amélioration a franchement ralenti depuis.

Une vaste enquête sur les stéréotypes

Une des raisons avancées par le PNUD pour expliquer cette situation est la persistance de préjugés négatifs contre les femmes. En effet, ces préjugés peuvent réduire les chances de réussite des femmes de bien des façons. Le PNUD a donc mesuré l’intensité des stéréotypes sexistes dans le monde en se fondant sur une vaste enquête portant sur 75 pays représentant 81 % de la population mondiale.

Dans la moitié des 75 pays, plus de 91 % des personnes interrogées se disent d’accord avec au moins un des sept préjugés sexistes qui leur étaient présentés, par exemple :

« Les hommes font de meilleurs dirigeants politiques que les femmes ».

Cela est d’autant plus impressionnant quand on sait que les chiffres de l’étude incluent les réponses des femmes elles-mêmes.

Certains pays s’en tirent cependant bien mieux que d’autres. Ainsi, Andorre est-il le pays où on observe la plus faible présence de stéréotypes de genre, avec « seulement » 27 % de sa population qui reconnaît avoir de tels stéréotypes. Le Pakistan, lui, est en queue de peloton : 99,8 % de ses habitants ont au moins un préjugé sexiste !

L’islam, coupable idéal ?

Comment expliquer la très forte variation du niveau de stéréotypes sexistes entre les 75 pays sur lesquels se penche le rapport du PNUD ? S’exprimant dans une tribune du Journal de Montréal, la célèbre journaliste, romancière et féministe francophone Denise Bombardier soutient que ce rapport

« … confirme […] une corrélation que se garde bien de mettre en évidence l’organisme des Nations unies, à savoir le lien entre le poids de la religion et les préjugés à l’égard des femmes. Les pays musulmans se situent au sommet de cette liste infâme. En Jordanie, 99,3 % des gens nourrissent des préjugés. Au Qatar, 99,7 %, au Nigeria, 99,7 %, en Libye, 99,1 %, en Malaisie, 98,5 % et au Mali, 98,8 %. La prime de la honte est détenue par le Pakistan, où seulement 0,2 % de la population n’exprime pas de préjugés à l’endroit des femmes, selon les critères de l’étude ».

L’islam serait-il donc le coupable idéal pour expliquer la variance internationale du niveau de sexisme ? Nous avons voulu tester cette hypothèse en recourant à des méthodes plus rigoureuses que celle de Denise Bombardier, qui se contente de lister les 7 premiers pays sur 75 en termes de préjugés sexistes.

Développement et religiosité

Il ressort de nos analyses que les 23 pays majoritairement musulmans inclus dans l’étude affichent effectivement un niveau moyen de préjugés sexistes plus élevé que celui des 52 autres pays. On peut même ajouter que cette différence est significative, dans le sens où elle ne peut simplement résulter du hasard, comme le montrent les tests statistiques que nous avons effectués.

Cependant, le lien apparent entre islam et haut niveau de stéréotypes sexistes peut masquer un ou plusieurs autres facteurs plus importants, à commencer par le niveau de développement des pays considérés.

En effet, les pays où les stéréotypes sexistes sont le moins répandus (Andorre, Suède, Pays-Bas, Norvège, etc.) sont tous des pays ayant un haut niveau de développement, tel qu’il est mesuré par l’Indice de Développement Humain (un indice prenant en compte le revenu moyen par habitant, l’espérance de vie à la naissance et le niveau d’éducation moyen).

Mur des femmes, Sabarimala, Inde
Des manifestantes à Cochin, Kérala, en Inde. Elles ont érigé un « mur des femmes » le 1ᵉʳ janvier 2019 en soutien à deux femmes ayant bravé l’interdiction faite aux femmes de pénétrer dans le temple hindou de Sabarimala. AFP

Nos analyses statistiques confirment que s’il y a davantage de stéréotypes sexistes dans les pays musulmans que dans la plupart des autres pays, il existe une corrélation encore plus marquée entre ces stéréotypes et le niveau de développement : dans l’ensemble, moins un pays est développé, plus sa population a de préjugés négatifs contre les femmes.

Un autre élément remet en question la thèse de la culpabilité de l’islam. Comme Denise Bombardier le reconnaît elle-même, des pays non-musulmans, mais où le sentiment religieux est fort, figurent aussi en bonne place dans la liste des pays les plus sexistes. C’est notamment le cas du Zimbabwe, du Ghana, des Philippines ou de l’Inde. Il se pourrait dès lors que ce ne soit pas l’islam en particulier qu’il faille soupçonner d’être associé au sexisme, mais un fort sentiment religieux en général.

Pour tester cette hypothèse, nous avons attribué une note de religiosité à chacun des 75 pays en nous basant sur la même enquête que le rapport du PNUD. Plus cette note allant de 1 à 4 est élevée, plus la religiosité de la population du pays est forte. Comme l’illustrent les figures ci-dessous, les résultats de nos analyses sont clairs : sur l’ensemble des 75 pays, il existe une forte corrélation entre niveau de religiosité et sexisme.

Graphique montrant le lien entre religiosité et stéréotypes sexistes dans le monde.

Graphique montrant le lien entre religiosité et stéréotypes sexistes dans le monde. L.Cordonier, F. Cafiero, G.BronnerAuthor provided

Les facteurs qui comptent

Nous avons ainsi trois candidats possibles pour expliquer la variation du niveau de préjugés sexistes entre les 75 pays : l’islam, le niveau de développement des pays et leur niveau de religiosité.

Lequel de ces facteurs est le bon ? En l’état, il est impossible de trancher. En effet, ces facteurs sont tous trois corrélés entre eux : les pays majoritairement musulmans ont un niveau de développement moyen plus faible que les autres pays et un niveau de religiosité moyen plus élevé que ces derniers.

Dès lors, est-ce parce que l’islam y est majoritaire que certains pays affichent un fort niveau de préjugés sexistes, ou est-ce parce qu’ils sont par ailleurs moins développés et/ou plus religieux que les autres pays ?

Pour répondre à cette question, nous avons recouru à un modèle mathématique qui permet d’évaluer conjointement l’effet de plusieurs facteurs (islam, développement, religiosité) sur une même variable (niveau de sexisme).

Pour commencer, prenons comme indicateur du sexisme le pourcentage de la population de chaque pays ayant au moins un préjugé sexiste sur les sept testés. Dans ce cas de figure, nos analyses montrent que 64 % de la variance du niveau de sexisme entre les 75 pays s’explique par deux facteurs pris ensemble : le niveau de religiosité des pays et leur niveau de développement. Le fait que ces pays soient ou non majoritairement musulmans ne ressort pas comme un facteur influent.

Prenons maintenant comme indicateur du sexisme le pourcentage de la population de chaque pays ayant au moins deux préjugés sexistes sur sept. On observe cette fois que l’islam vient s’ajouter aux niveaux de religiosité et de développement pour rendre compte de la variance du niveau de sexisme entre les 75 pays. Ces trois facteurs pris ensemble expliquent alors 70 % de cette variance.

Plus de religiosité et moins d’éducation, c’est plus de sexisme

Nos différentes analyses montrent que, contrairement à ce qui a pu être dit, l’islam en tant que tel n’est clairement pas le grand responsable de la persistance des préjugés sexistes dans le monde.

En effet, indépendamment de la religion majoritaire des pays, c’est bien l’existence d’un fort sentiment religieux au sein de la population qui est le plus étroitement associé à un haut niveau de stéréotypes sexistes. Sans surprise, un faible niveau de développement – et, donc, d’éducation – est lui aussi lié à une forte prévalence de tels stéréotypes.

La militante pour les droits des filles à l’éducation et prix Nobel de la Paix, Malala Yousafzai ici en 2014. Dfid Uk/FlickrCC BY-NC-ND

L’islam, de son côté, n’est qu’un facteur qui vient s’ajouter à la religiosité et au niveau de développement lorsque l’on prend comme indicateur la part de la population des pays étudiés qui fait preuve d’un sexisme très marqué (c’est-à-dire, qui entretient au moins deux stéréotypes de genre sur les sept testés).

Il existe assurément quantité d’autres facteurs associés à la persistance des stéréotypes et préjugés sexistes dans le monde. Mais le manque d’éducation et l’intensité du sentiment religieux semblent jouer un rôle notable à cet égard. Il s’agit probablement là de deux importants freins au développement de sociétés à la fois plus égalitaires et fondées sur la connaissance plutôt que sur la crédulité.

Comment les allocations chômage encouragent la création d’entreprises

 

Après la réforme de 2002, le nombre de nouvelles entreprises a bondi de 25 %, passant de 14 000 à 18 000 nouvelles entreprises par mois selon l’Insee. Philippe Huguen / AFP

En France, avant 2002, tout chômeur qui lançait son entreprise perdait automatiquement ses droits aux allocations chômage, quand bien même il ne tirait que peu de revenus de son activité entrepreneuriale. Par ailleurs, s’il décidait d’arrêter son entreprise, celle-ci ne s’avérant pas rentable, il n’avait pas droit au reliquat de droits aux allocations.

Ces règles constituaient ainsi un frein à la création d’entreprise.

C’est pourquoi la France lançait en 2002 une réforme à grande échelle du système de l’assurance-chômage connue sous le nom de « Plan d’aide au retour à l’emploi (PARE) ».

La modification des règles a permis à tout chômeur devenu entrepreneur de continuer à percevoir des allocations de sorte à compléter les revenus tirés de l’entreprise jusqu’à concurrence des prestations complètes qu’il aurait perçues s’il était resté au chômage. Le système perdure jusqu’à ce que l’entreprise devienne rentable ou que la personne épuise ses droits. De plus, si elle arrête son activité dans les trois ans, elle a droit aux allocations restantes.

Dans une étude publiée en juin dernier, nous étudions l’impact de cette réforme qui visait à favoriser la création d’entreprise par les chômeurs. Nos résultats indiquent qu’une assurance-chômage bien conçue constitue une aide à faible risque et permet de stimuler l’entrepreneuriat.

Une assurance contre l’échec

En théorie, ce nouvel ensemble de règles présente deux avantages.

Premièrement, il offre à l’entrepreneur une assurance contre l’échec entrepreneurial. De nombreuses personnes ayant des idées prometteuses sont empêchées de démarrer parce qu’elles ne peuvent pas se permettre ou ne veulent pas risquer d’échouer, comme les personnes qui ont des enfants, un emprunt immobilier ou d’autres engagements financiers. Ainsi, offrir aux entrepreneurs une option de repli leur permet d’expérimenter de nouvelles idées.

Le deuxième avantage de la réforme est son faible coût budgétaire. Si les nouvelles entreprises s’avèrent rentables, peu d’allocations seront versées. Les caisses d’allocations chômage peuvent même économiser de l’argent si la réforme raccourcit les périodes de chômage.

Ces avantages théoriques sont confirmés par les données sur la création de nouvelles entreprises de l’Institut national de la statistique et des études économiques (Insee).

Évolution du nombre de créations mensuelles d’entreprises avant et après la réforme PARE. données Insee

La création d’entreprises a augmenté de 25 % après la réforme, passant de 14 000 à 18 000 nouvelles entreprises par mois.

Cependant, cette augmentation n’est pas suffisante pour crier victoire, car ces 4 000 nouvelles entreprises supplémentaires par mois s’avèrent parfois peu prometteuses, sans potentiel de croissance et de création d’emplois. Un esprit critique pourrait arguer qu’un chômeur ne fait pas forcément un bon entrepreneur.

Un levier créateur d’emplois

Pour répondre à cette critique et déterminer le potentiel de création d’emplois des nouvelles entreprises, nous distinguons les entreprises qui créent des emplois (en plus de celui de l’entrepreneur) des entreprises qui n’en créent pas.

Lorsqu’on fait cette distinction en comptabilisant les emplois au moment de la création de l’entreprise, on constate que le nombre d’entreprises créées avec au moins un salarié est stable après la réforme. Autrement dit, aucune des 4 000 nouvelles entreprises mensuelles n’a d’employés en dehors de l’entrepreneur lui-même.

Bien que ce résultat semble décevant, il est attendu. Les chômeurs ont généralement un faible capital et ont donc tendance à expérimenter leur projet à petite échelle. La bonne façon d’évaluer si ces nouvelles entreprises réussissent n’est pas de comptabiliser les emplois créés au moment du démarrage de l’entreprise, mais après quelque temps.

Nous répétons donc le même exercice en comptabilisant les emplois deux ans après la création. La situation est maintenant très différente. Le nombre de nouvelles entreprises comptant au moins un salarié au bout de deux ans augmente considérablement après la réforme, passant d’environ 3 500 à 5 000 par mois.

Cela signifie que les entreprises créées grâce à la réforme démarrent modestement, mais qu’une part importante finit par se développer et créer des emplois.

Nous trouvons des résultats similaires lorsque nous nous concentrons sur les nouvelles entreprises comptant au moins deux ou trois employés au bout de deux ans d’activité.

Création mensuelle d’entreprises avec des employés à la création (en bleu) et avec des employés au bout de deux ans (en rouge). Source : Insee. Données : Insee

Nous constatons également que ces nouvelles entreprises n’ont pas plus de risques de faire faillite et ne sont pas moins rentables relativement aux entreprises créées avant la réforme.

On peut tirer plusieurs enseignements de cette réforme.

Premièrement, l’expérimentation entrepreneuriale est essentielle. De nombreux entrepreneurs commencent petit, testent des idées ainsi que leur goût et leur capacité à être entrepreneur, et certains finissent par grandir. Offrir aux entrepreneurs une assurance contre l’échec est donc un outil puissant pour favoriser la création d’entreprise.

Deuxièmement, le coût fiscal d’une telle assurance n’est pas nécessairement élevé. Les caisses d’allocations chômage ne publient malheureusement pas de données permettant de faire un calcul précis du coût fiscal de la réforme. Cependant, nos estimations fondées sur les données disponibles indiquent que le coût de la réforme a été faible (10 000 euros par emploi).

Enfin, la réforme souligne qu’une bonne conception de l’assurance-chômage est essentielle. Un élément clé de la réforme est que le gouvernement n’a pas essayé d’agir comme un capital-risqueur en cherchant à identifier les entrepreneurs ou secteurs d’avenir.

En effet, les gouvernements font généralement de piètres capital-risqueurs par manque d’expertise et par risque de capture de l’action publique, processus visant à détourner les décisions publiques de l’intérêt général pour servir les intérêts d’un groupe ou d’individus donnés.

Au lieu de cela, le programme était ouvert à tous les chômeurs et l’expérience montre qu’il n’a pas attiré des entrepreneurs moins compétents ou moins ambitieux.


À lire aussi : Réforme de l’assurance chômage : la tentation de l’universalité


Face à la crise économique actuelle, il apparaît fondamental de conserver ce programme, en particulier dans un contexte de destruction d’emplois et d’incertitude croissante pour les entrepreneurs à la suite de la pandémie Covid-19.

Une assurance-chômage bien conçue reste un moyen efficace pour lutter contre ces deux problèmes, en aidant les chômeurs à créer des emplois pour eux-mêmes et pour les autres, et en encourageant la création de nouvelles entreprises.

La preuve par trois : La fragile harmonie économique de l’opéra

 

Le baryton grec Dimitris Platanias répète une représentation de Nabucco de Guiseppe Verdi, l’un des compositeurs les plus joués au monde, en 2018 à Athènes. Aris Messinis / AFP

La preuve par 3 : les experts de The Conversation déclinent 3 aspects d’une question d’actualité en 3 épisodes à écouter, à la suite ou séparément ! Dans cette série, François Lévêque, professeur d’économie à Mines ParisTech (Université PSL) vous fait découvrir les « Operanomics », ou toutes les spécificités économiques d’un secteur de l’industrie culturelle pas comme les autres. Vous comprendrez notamment pourquoi monter une représentation coûte de plus en plus cher, comment sont fixés les prix des places, et en quoi la gestion du répertoire lyrique représente un véritable casse-tête pour les directeurs d’établissements …

La fatalité des coûts croissants dans le spectacle vivant

Sur un peu plus d’un siècle, le coût par concert de l’Orchestre philharmonique de New York a progressé de 2,5 % par an contre 1 % pour l’indice des prix aux États-Unis. Ici, la soprano Deborah Voigt en représentation avec l’orchestre au Lincoln Center de New York en 2011. Theo Wargo/Getty Images North America/AFP

Pour l’opéra comme pour les concerts, les moyens d’améliorer la productivité n’existent pratiquement pas. Les établissements restent donc condamnés à augmenter leurs recettes.

 Listen on Apple Podcasts

Les subtilités tarifaires des places de spectacle

Vous pouvez assister à une représentation à l’Opéra Garnier pour 10 euros, un tarif subventionné par ceux qui payent jusqu’à 20 fois plus pour une meilleure place. Gzen92/WikimediaCC BY-SA

À l’Opéra Garnier, les prix s’échelonnent entre 10 et 200 euros. Cette discrimination tarifaire permet d’attirer un public plus large que si les prix étaient les mêmes pour tous.

 Listen on Apple Podcasts

Le casse-tête du répertoire lyrique

Malgré sa renommée, l’opéra Aida de Giuseppe Verdi reste relativement peu joué en raison de son coût. Ici, une représentation donnée au Real Teatro di San Carlo à Naples, en 2016. Carlo Raso/Flickr

La programmation constitue l’un des rares leviers à disposition des patrons des théâtres pour augmenter les recettes. Mais attention à ne pas dégrader la qualité artistique !

 Listen on Apple Podcasts

Quel avenir pour le tourisme culturel en France après la crise du Covid-19 ?

 

Devant la Joconde, le jour de la réouverture du Louvre, le 6 juillet 2020. La fermeture du musée a entraîné une perte de 40 milllions d’euros. François Guillot/ AFP

La France est une puissance de poids dans le domaine du tourisme culturel du fait de l’importance de ses musées, de ses monuments, de ses sites archéologiques et de ses festivals, aux côtés de ses autres atouts : les plages, les montagnes, les petits villages de caractère, les paysages, l’art de vivre (mode, viticulture, gastronomie, cafés, fêtes…).

Ceci contribue à lui assurer la place enviable de première destination touristique dans le monde, du moins en nombre de visiteurs (elle accueille près de 90 millions de visiteurs étrangers par an), à défaut de l’être en termes de recettes.

Une appréhension extensive de la définition du tourisme culturel, où la culture relève d’une approche large, permet d’estimer à environ 40 % la part des touristes culturels dans les flux touristiques internationaux selon l’OCDE, la Commission européenne et l’OMT (Organisation mondiale du tourisme). Les touristes culturels sont ainsi ceux qui visitent des sites culturels durant leur séjour (monuments, musées, centres anciens, sites archéologiques…) ou bien participent à des événements culturels (concerts, spectacles…).

La France, à l’instar de l’Italie, bénéficie bien sûr d’un très fort attrait culturel auprès de la clientèle internationale, même si ce n’est pas son seul atout.

Ainsi, se pencher sur l’avenir du tourisme culturel, c’est s’intéresser à l’avenir du tourisme en France. Nous souhaitons mettre en lumière à ce sujet des « signaux faibles » détectés dans nos recherches avant la crise du Covid-19, qui pourraient prendre une importance nouvelle pour ce secteur après la sortie de crise.

Une nécessaire remise en cause

Des études prospectives sont régulièrement conduites en Europe et dans le monde. L’une des approches habituelles pour obtenir des scénarios pour le futur repose sur la méthode Delphi. Cette méthode largement employée depuis les années 1950 aide à dessiner les futurs probables sur la base de l’établissement d’un consensus entre les experts interrogés ; mais aussi, depuis une quinzaine d’années, à identifier les divergences d’opinions parmi ces derniers.

Ce type de méthode sert à comprendre ce que les experts rejettent comme tendance et – à partir de là – à élaborer un scénario de rupture sur l’avenir du tourisme culturel.

Nous avons conduit une étude Delphi (en cours de publication) au long de l’année 2019, qui a permis de mettre en évidence l’existence de tendances largement écartées par les experts du tourisme et de la culture interrogés (soit 99 lors d’une première phase d’interrogation ; puis 76 au cours d’une nouvelle interrogation visant la consolidation des bases de consensus entre experts). Il est particulièrement intéressant de noter à cet égard que ceux-ci ne considéraient pas que les pandémies, ou encore une crise économique majeure, puissent affecter durablement le secteur du tourisme.

Il est probable que même si les experts interrogés (des professionnels du tourisme et de la culture, des responsables administratifs, des universitaires, des consultants, des journalistes) étaient conscients de ces tendances, ils ne semblaient guère en mesure d’envisager une remise en cause d’un modèle dominant de développement semblant présenter toutes les garanties de robustesse, compte tenu du fait qu’il n’a cessé de se développer avec succès depuis des décennies.

Dans ces conditions, pourquoi se préoccuper de changer de paradigme au profit de scénarios semblant non seulement peu vraisemblables, mais également risqués et incertains ? Autrement dit, pourquoi se préoccuper de changer si ce qui existe depuis longtemps semble avoir montré sa pertinence et son efficacité, malgré les alertes et les mises en garde de certains experts ?

Pour autant, n’est-il pas nécessaire pour un groupe professionnel – voire indispensable pour sa survie – d’envisager des modèles de développement alternatifs, même si ceux-ci peuvent apparaître comme peu probables, du moins si l’on se place dans l’état d’esprit du « business as usual » ?

Le « Flyskam » ou « honte de prendre l’avion »

S’agissant du tourisme, on peut penser que certaines tendances étaient déjà à l’œuvre avant la crise du Covid-19 et que leur importance devrait encore croître dans le futur. Nos travaux de recherche suggèrent qu’elles reposent sur la notion de vulnérabilité, dans ses différentes acceptions : en l’occurrence des tendances liées au réchauffement climatique, à la réduction de la biodiversité, à l’empreinte carbone excessive, aux migrations forcées, aux phénomènes de surfréquentation, aux pandémies, etc.

L’impact du tourisme sur le réchauffement climatique est désormais pris en compte par les voyageurs. En Suède, par exemple, le mouvement dit du Flygskam (la « honte de prendre l’avion ») milite pour des moyens de transport alternatifs à l’avion afin de réduire les émissions de CO2. Les liaisons aériennes domestiques s’en sont trouvées fragilisées.

Après la pandémie, il y a fort à parier que les facteurs sanitaires seront davantage pris en compte dans le choix des destinations et dans les modalités d’accueil des visiteurs.

Désormais, que ce soit pour des raisons médicales, politiques, économiques, ou militaires, il faudra sans doute, selon des constats à présent largement partagés, envisager une ouverture plus sélective des frontières, ce qui va à l’encontre de la notion traditionnellement véhiculée de « village planétaire ».

S’agissant du tourisme culturel, la crise du Covid-19 fait davantage prendre conscience que les limites en termes de capacité d’accueil semblaient presque atteintes dans des hauts lieux du patrimoine, à l’audience fortement mondialisée.

En France, par exemple, 80 % de visiteurs du château de Versailles étaient étrangers avant la crise sanitaire. La proportion était de plus de 70 % au musée du Louvre.

Dépendance excessive à la clientèle étrangère

Les crises liées au Covid-19 font ainsi apparaître une possible dépendance excessive à l’égard de la venue de clientèles étrangères présentant des risques de volatilité (pour des raisons économiques, de terrorisme ou de pandémie). Voilà qui pourrait remettre partiellement en cause le modèle économique dominant dans les grands sites de tourisme culturel.

Miser sur la clientèle étrangère était pourtant encouragé par les pouvoirs publics, dans l’objectif de limiter l’ampleur des financements publics pour les plus gros établissements muséaux et patrimoniaux, comme le musée d’Orsay ou le château de Chambord.

Le château de Chambord le 22 juillet 2020. Ludovic Marin/AFP

Ce modèle reposait sur un triptyque : augmentation du prix d’entrée ; développement des ressources propres (boutiques, restaurants, location d’espaces, mécénat) ; venue d’un nombre croissant de visiteurs provenant de destinations de plus en plus lointaines (Chine, Inde, Amérique du Sud, etc.). Or chacune de ces sources de revenus pourrait être fragilisée si la crise se prolonge.

Ce faisant, c’est l’idéologie de la croissance sans limites qui est interrogée, alors que le secteur touristique paraissait largement étranger à ce débat, malgré des discussions récentes autour de la notion de surfréquentation (voir les protestations d’habitants à Dubrovnik, Athènes, Prague, Venise, Barcelone… soumis à une pression touristique jugée insupportable en haute-saison).

Recherche de proximité et d’authenticité

La même analyse des « signaux faibles » issue de notre enquête Delphi sur l’avenir du tourisme culturel en France suggère par ailleurs un intérêt croissant pour les valeurs de proximité et « d’authenticité », qui favoriseraient des séjours moins éloignés du domicile et la découverte en profondeur et à un rythme moins soutenu des destinations touristiques.

Il s’agirait ici d’une réappropriation de « son » territoire, notion déjà encouragée par les offices du tourisme qui cherchent à faire des habitants d’un territoire les premiers ambassadeurs de celui-ci ; ce dont témoigne le mouvement des greeters (« hôtes »), à savoir des guides bénévoles ayant à cœur de faire découvrir leur ville « hors des sentiers battus ».

Cette tendance pourrait concourir au développement du tourisme domestique et à l’essor de sites n’étant pas classés, par exemple, au patrimoine mondial de l’Unesco.

Elle pourrait même favoriser la mise en tourisme de territoires qui le sont peu actuellement, car ils n’appartiennent pas aux espaces privilégiés par les visiteurs, tels que Paris, la Côte d’Azur, les châteaux de la Loire, la Provence, le Mont-Saint-Michel, etc. On pourrait donc – à l’image des « locavores », friands des produits locaux et des circuits courts comme les AMAP – assister à l’émergence de touristes explorant principalement leur territoire de proximité, sur un mode proche de l’excursionnisme (qui caractérise un déplacement hors de son domicile mais sans nuitée extérieure à ce dernier).

Ceci n’exclut pas du reste le recours aux outils numériques avant, pendant et après le séjour, même si la réalité virtuelle et les dispositifs immersifs ont montré – malgré leur attrait – un certain nombre de limites.

Voilà autant de mutations déjà à l’œuvre de façon plus ou moins souterraine, qui mériteraient une réflexion en profondeur des acteurs du tourisme français pour leur permettre de répondre au mieux à l’émergence de nouveaux besoins des visiteurs. Car dans le tourisme comme ailleurs, la notion de consommation locale est encore sous-estimée dans la production de services_._

Vers une réorganisation ?

En définitive, peut-être assistons-nous au début de la fin du grand récit de la mondialisation, telle qu’elle s’est construite en particulier depuis cinquante ans, celui de la liberté des échanges, de la consommation des ressources non renouvelables, de la dépendance à l’égard de certains fournisseurs, de la croissance infinie et du sentiment de toute-puissance à l’égard de la nature ?

Cette crise pourrait donner lieu à une réorganisation des activités productives au niveau local et national, sans doute dans le sens plus large d’une régionalisation des flux économiques.

Ce phénomène pourrait ainsi favoriser le développement de flux touristiques accrus à l’intérieur d’une même zone intégrée géographiquement et économiquement (Amérique du Nord, Amérique du Sud, Moyen-Orient, Asie), comme cela est déjà largement le cas en Europe.

Les modèles de tourismes alternatifs se sont certes développés plus lentement que l’émergence de classes moyennes capables d’accéder aux voyages internationaux (en Asie en particulier), qui ont largement contribué à la hausse du tourisme de masse au cours des dernières décennies.

Mais si, selon Pascal, « tout le malheur des hommes vient d’une seule chose, qui est de ne savoir pas demeurer en repos, dans une chambre », l’envie immémoriale de voyager pourrait ne pas s’éteindre, car elle repose sur le désir – profondément ancré dans les êtres humains – de la découverte, du dépaysement, de l’évasion et de l’oubli du quotidien. L’homme a assurément besoin de se décentrer. La question est de savoir quel sens il souhaite donner à ce besoin, qu’il est peut-être aussi possible d’assouvir au bout de sa rue.

L’Union politique européenne vaut-elle vraiment 750 milliards d’euros ?

 

Emmanuel Macron et Angela Merkel à Bruxuelles le 20 juillet
Derrière le plan de relance adopté pour et par les Etats membres s’affirme l’idée d’une véritable union politique fédérale européenne. JOHN THYS / POOL / AFP

Après un sommet marathon, les pays de l’Union européenne ont réussi à s’entendre in extremis mercredi 22 juillet au petit matin sur le plan de relance de €750 milliards comprenant 390 milliards de subventions et €360 milliards de prêts.

Durant le week-end, les négociations ont frôlé la rupture mais aujourd’hui chacun y trouve un satisfecit. Les frugaux – Autriche, Pays-Bas, Suède et Danemark – ont diminué le montant des subventions initialement fixé à 500 milliards et auront un droit de regard sur l’utilisation des fonds mais pas le droit de veto lors de l’adoption des plans de relance de relance nationaux. 70 % des subventions seront allouées sur 2021 et 2022 avec des dépenses qui pourront être engagées dès 2020.

La dette fédératrice de l’Europe

Finalement, comme pour les États-Unis en 1781, c’est la dette qui va pousser l’Union européenne vers davantage de fédéralisme à travers l’adoption d’un budget Européen contra-cyclique financé par des ressources propres. Les débats qui ont eu lieu jadis sont d’une étonnante actualité. Comme l’écrit Alix Meyer dans « Les paradoxes de la dette américaine » :

« les États-Unis naissent endettés… Adoptée en 1781, la première Constitution de la République américaine, les Articles de la Confédération, donne naissance à un État central très faible. Pour financer ses opérations et rembourser ses dettes, il doit notamment s’appuyer sur des contributions volontaires de la part d’États membres dont les finances sont elles-mêmes très affaiblies ».

La question de la fédéralisation des dettes des États devient centrale dans la construction des États-Unis.

Petite leçon d’histoire américaine

À partir de 1781, les fédéralistes et les anti-fédéralistes américains s’affrontaient avec des arguments qui font écho aujourd’hui aux questions de souveraineté et de centralisation des pouvoirs. Les anti-fédéralistes étaient alors incarnés par Thomas Jefferson, à l’époque secrétaire d’État de Georges Washington, et d’obédience démocrate tandis que les fédéralistes étaient conduits par Alexander Hamilton, de tendance plutôt républicaine. Des positionnements à l’inverse des étiquettes politiques européennes d’aujourd’hui.

Les anti-fédéralistes craignaient pour la souveraineté des États. Comme le rapporte Alix Meyer, ils voyaient dans la fédéralisaton des États :

« une machination funeste qui fait passer les intérêts des élites financières devant ceux du peuple. En effet, la dette doit être remboursée par les impôts qui sont payés par les citoyens tandis que les intérêts de cette dette viendront enrichir les spéculateurs qui prêtent leurs capitaux à l’État.

Thomas Jefferson déclarant : “la dette publique est le plus grand danger qui menace” (public debt is the greatest of the dangers to be feared) ».

Portrait de Thomas Jefferson,
Thomas Jefferson, qui sera le troisième président des États-Unis, considérer la fédéralisation des États comme « une machination funeste ». Ici vers 1800. Rembrandt Peale/Wikimedia

Il proposera d’ailleurs un amendement constitutionnel pour imposer l’équilibre budgétaire fédéral afin de réduire le pouvoir de l’État fédéral. Jefferson n’est pas opposé à la dette des États, il est opposé à la centralisation du pouvoir.

Il estime que l’État fédéral s’éloigne des intérêts du peuple et favorise l’émergence d’une oligarchie. Au contraire, Alexander Hamilton alors secrétaire au Trésor de George Washington, voit dans la fédéralisation des dettes des états un moyen d’asseoir la réputation de l’État américain et de lui permettre de se financer à moindre coût.

Il voit aussi dans la dette publique un moyen d’augmenter la masse monétaire et favoriser le commerce grâce à la création de la première Banque nationale, « First Bank of the United States » sur le modèle de la banque d’Angleterre.

Par ailleurs, la fédéralisation de dette publique est également un moyen de mieux contrôler les États à qui la Constitution avait enlevé le pouvoir d’émission de titre de crédit. Par la suite, les successeurs des fédéralistes défendront la dette publique au nom de l’investissement dans les infrastructures.

Emmanuel Macron, le Alexander Hamilton de l’UE ?

Comparaison n’est pas raison mais on ne peut s’empêcher de remarquer la similitude des débats et préoccupations qui ont animé la transformation des États-Unis en un véritable État fédéral et l’ambition européenne vers une Europe construite sur le même modèle.

Portrait de Alexander Hamilton
Macron-Hamilton ? Portrait d’Alexander Hamilton, farouche défenseur du fédéralisme et de la centralisation du pouvoir, par John Trumbull. Wikimedia

L’accord sur le plan de relance Européen est-il donc une étape nécessaire vers une Europe fédérale ? Il serait prématuré d’y voir une avancée significative sur cette voie.

En premier lieu, si les négociations ont laborieusement abouti à un accord mardi dernier, la route est encore longue avant qu’il soit définitivement entériné. Il doit être voté par le parlement Européen et les concessions faites pour y aboutir sont loin de faire l’unanimité.

La question des rabais

Parmi les concessions importantes figurent les rabais, remises faites aux pays contributeurs nets au budget Européen.

Avec le Brexit beaucoup pensaient que les rabais allaient enfin disparaître. Instaurés par Margaret Thatcher hostile à une Europe fédérale à travers sa phrase historique : « we want our money back », les rabais reflètent pour certains pays comme la France une approche de l’Union européenne utilitariste et non coopérative qui n’est pas à la hauteur des ambitions.

Margaret Thatcher, 1979.

Néanmoins comme à l’époque de la bataille entre fédéralistes et anti-fédéralistes, la question de la centralisation des pouvoirs est clef.

La France est naturellement encline à pousser vers une centralisation accrue des pouvoirs en particulier si elle y joue un rôle important. Les pays dits frugaux veulent s’assurer que les fonds empruntés par la Commission européenne seront utilisés à bon escient.

De l’attrait des subventions plus que des prêts

Dans cette bataille on retrouve une thématique récurrente dans les débats sur les finances publiques, celui du consentement à l’impôt.

Il n’est pas question pour les pays frugaux de se retrouver solidaires de dépenses publiques qu’ils ne cautionnent pas. Cette question animait déjà les premiers échanges de l’Eurogroupe en avril sur les mesures spéciales à prendre face au Covid-19.

L’accès au Mécanisme Européen de Stabilité (MES) qui permet aux pays de la zone euro en difficultés financières d’accéder à des lignes de crédit, était déjà conditionné à l’utilisation exclusive des fonds empruntés pour des dépenses liées au Covid.

Il est intéressant de noter qu’à ce jour, aucun pays n’a utilisé cette option pour la simple et bonne raison que les pays les plus durement touchés n’ont aucun mal à financer leur dette résultat de la politique monétaire ultra-accommodante de la BCE.

Pour les mêmes raisons, il est fort à parier que les pays de l’Union n’auront pas recours à l’enveloppe de 390 milliards de prêt du plan de relance. En effet, depuis les premières discussions sur les différentes modalités du plan de relance au sein de l’Eurogroupe, les « spreads » – l’écart de taux entre le pays le plus solide (l’Allemagne) et les autres pays de la zone euro – sur la dette souveraine des pays de la zone euro – se sont resserrés.

Du financement du plan de relance

Tout comme à l’époque de Jefferson et Hamilton la question de l’équilibre budgétaire était un point d’achoppement, Jefferson voyant dans l’équilibre budgétaire une manière de contenir le pouvoir central de l’État fédéral, la question du remboursement étant un point d’orgue des discussions au sein de l’Eurogroupe.

Les frugaux préféraient les prêts aux subventions, un moyen de contenir les dérives possibles. C’est pourquoi ils ont bataillé fort pour revoir à la baisse le volet subvention passant de 500 milliards à 390 milliards.

Reste à savoir désormais comment les financer en développant les ressources propres de l’Union européenne sachant qu’en pleine pandémie une augmentation des taxes n’est jamais bienvenue.

Qu’à ne cela tienne ! il suffit de mentionner la taxation d’activités perçues comme nuisibles pour mieux les faire accepter comme les services numériques (taxe Gafa) ou la taxe sur les transactions financières (souvent appelée taxe Tobin)serpent de mer qu’on ressort régulièrement depuis la crise de 2008, sans oublier de faire appel à la conscience écologique avec la taxe carbone et le renforcement du système d’échange de quotas d’émissions polluantes.

L’avenir nous dira si ce sommet Européen historique de part sa durée deviendra également historique parce qu’il aura marqué les balbutiements des États-Unis d’Europe à l’image de leurs cousins d’Amérique.

Enfants : lire des histoires favorise-t-il l’empathie ?

 

Dans certains cas, la lecture d’une histoire peut inciter un enfant à changer d’attitude. Shutterstock

Est-il possible de s’ouvrir aux autres tout en restant à l’écart d’un groupe ? La proposition peut sembler paradoxale à première vue. Elle l’est moins si l’on prend en compte le fait que, pour nouer des liens sociaux, il faut être capable de comprendre ce que les autres pensent et ressentent, et d’ajuster son comportement à la situation.

A ce propos, il a justement été démontré que la lecture de fictions littéraires aide les adultes à mieux identifier les émotions, pensées et sentiments exprimés par autrui.

Pourrait-on reproduire ces effets dès l’enfance ? Voilà qui ouvrirait de nouvelles perspectives pour éveiller et développer durablement les savoir-faire sociaux. À ce jour, seules quelques études ont été effectuées sur ce sujet mais les résultats obtenus sont très encourageants.

Approches positives

En ce qui concerne les enfants très jeunes à qui on lit un livre ou une histoire, on peut se reporter à l’article publié en 2014 par Kang Lee et ses collaborateurs dans le journal Psychological Science. Celui-ci relate une étude menée auprès de 266 enfants d’âge compris entre 3 et 7 ans. Objectif : déterminer si l’écoute d’histoires morales classiques peut influencer leur honnêteté.

Avant d’échanger avec chaque enfant individuellement, une expérimentatrice feignait de devoir s’absenter quelques minutes et le priait de ne pas se retourner pour voir l’objet qu’elle venait de poser sur une table. Quand elle revenait dans la pièce, elle lisait une histoire à l’enfant puis lui demandait s’il s’était retourné pendant son absence pour regarder l’objet.

Parmi les enfants qui se sont retournés, ceux à qui on a raconté l’histoire George Washington et le cerisier ont dit la vérité en plus grande proportion que ceux d’un groupe contrôle ayant écouté l’histoire Le lièvre et la tortue. À la surprise des auteurs de l’étude, les enfants ayant écouté les histoires Le garçon qui criait au loup et Pinocchio, deux histoires qui soulignent les conséquences négatives du mensonge, n’ont pas dit davantage la vérité que les enfants du groupe contrôle.

L’effet exclusif de l’histoire George Washington et le cerisier sur la réponse honnête serait lié au fait que cette histoire expose les conséquences positives de l’honnêteté (Le jeune George aurait abattu un cerisier que son père aimait beaucoup. Lorsque celui-ci s’enquiert de l’auteur de l’acte, l’enfant, ne pouvant supporter de mentir, se désigne. Et son père, touché par sa sincérité, ne le punit pas). La justesse de cette interprétation a été confirmée grâce à une seconde expérience à partir d’une version modifiée de l’histoire où sont mises en avant les conséquences négatives du mensonge. Cette version ne permet plus d’obtenir une proportion plus importante d’enfants disant la vérité par rapport au groupe contrôle.

Conditions réalistes

Dans une étude publiée en 2017 dans le journal Developmental Science, Nicole Larsen, Kang Lee et Patricia Ganea ont exploré les effets potentiels d’animaux anthropomorphisés dans les histoires. Ces personnages se comportant comme des humains pourraient-ils inciter de jeunes enfants à la générosité ?

Pour évaluer cela, il était demandé dans un premier temps à des participants de 4 ans à 6 ans de choisir dix autocollants parmi une centaine. On indiquait ensuite à chacun qu’un autre enfant du même âge n’avait pas été retenu pour l’étude – et, par conséquent, n’aurait pas d’autocollants. L’expérimentateur suggérait ensuite à l’enfant de donner quelques-uns de ses dix autocollants à celui qui en avait été privé, en les mettant dans une enveloppe pendant que l’expérimentateur regardait ailleurs.

La même procédure fut appliquée après l’écoute de l’histoire afin d’évaluer les éventuels changements de comportements. Il y avait trois conditions expérimentales :

  • une condition « animal » dans laquelle l’histoire racontait le comportement généreux d’un animal anthropomorphisé vis-à-vis d’autres (Petit raton laveur apprend à partager par Mary Pacard)
  • une condition « humain » dans laquelle la même histoire était racontée en remplaçant les animaux anthropomorphisés par des humains
  • une condition « contrôle » dans laquelle l’histoire portait sur des graines et ne relatait pas d’interactions humaines.

Les résultats de l’étude montrent que les enfants deviennent significativement plus généreux après avoir écouté l’histoire de la condition « humain » alors qu’ils le deviennent moins dans les deux autres conditions (« animal » et « contrôle »).

Ainsi, chez des enfants d’âge compris entre 4 et 6 ans, les histoires réalistes qui racontent des événements impliquant des personnages humains – dans lesquels il est plus facile de se projeter mentalement – sont plus à même d’exercer un effet significatif sur la générosité de ces enfants.

Lire et ressentir

Irina Kumschick et ses collaborateurs ont étudié en 2014 les effets sur les compétences émotionnelles d’enfants de 7 ans à 9 ans d’un programme d’entraînement autour de la littérature. Plusieurs dimensions relatives aux compétences émotionnelles ont été évaluées avant et après le programme d’entraînement : le vocabulaire émotionnel, les connaissances émotionnelles explicites, la reconnaissance des émotions dissimulées et la reconnaissance d’émotions mélangées.

Le programme d’entraînement, intitulé « LIRE et RESSENTIR », consistait à lire en plusieurs fois un livre choisi spécifiquement pour sa richesse émotionnelle (Un mouton avec des bottes de M. Matten) et à effectuer des activités encadrées par des moniteurs, portant sur les différentes dimensions des émotions. Ce programme durait en tout huit semaines à raison de deux séances d’1h30 par semaine.

Comparativement à un groupe contrôle d’enfants n’ayant pas suivi ce programme, une amélioration significative des niveaux de vocabulaire émotionnel, de connaissances émotionnelles explicites et de reconnaissance d’émotions dissimulées a été mise en évidence sous l’effet du programme d’entraînement.

De plus, les garçons bénéficiaient davantage du programme d’entraînement que les filles en ce qui concerne la reconnaissance d’émotions dissimulées. Les auteurs de l’étude interprètent ce résultat comme reflétant le fait que les garçons auraient plus tendance à cacher leurs émotions pendant l’adolescence, ce qui les rendrait plus sensibles à cette dimension avant cette phase de leur développement.

Tous ces résultats montrent la pertinence d’utiliser la littérature pour enfants comme support du développement des compétences émotionnelles chez l’enfant.

Même s’il existe une pluralité de facteurs permettant de contribuer à l’émergence de compétences sociales et émotionnelles chez l’enfant, les résultats obtenus à ce jour suggèrent que la littérature pour la jeunesse permet d’améliorer significativement celles-ci. Si l’on souligne en général l’impact bénéfique de la lecture sur le développement du langage, le rayonnement de la littérature de jeunesse peut donc aller bien au-delà.

À quoi les premiers livres pour enfants ressemblaient-ils ?

 

C’est au tournant du XXe siècle qu’a émergé la littérature pour enfants telle qu’on la connaît, faisant la part belle à l’imaginaire. DarkWorkX from PixabayCC BY

Cela fait des siècles que les adultes écrivent pour les enfants. Parmi les différentes formes qu’ont pu prendre ces publications, il y en a peu qui puissent aujourd’hui nous paraître divertissantes. En effet, les œuvres destinées aux plus jeunes visaient avant tout leur progrès moral et spirituel.

Les enfants du Moyen Âge apprenaient à lire sur des tablettes de bois recouvertes de parchemin comprenant l’alphabet et une prière de base, en général le Notre Père. Dans le monde anglophone, les versions ultérieures de ces tablettes sont connues sous le nom de « hornbooks » (de « horn », la corne et « book », le livre), parce qu’elles étaient protégées d’une mince couche protectrice de corne.

A 1630 horn book. Folger Digital Image 3304CC BY-SA

Au XVIIe siècle ont été publiés des livres de spiritualité destinés spécifiquement aux enfants. Le révérend puritain John Cotton a conçu en 1646 un catéchisme pour enfants intitulé Milk for Babes, et republié en 1656 en Nouvelle-Angleterre sous le titre de Spiritual Milk for Boston Babes. Celui-ci contient 64 questions et réponses relatives à la doctrine religieuse, aux croyances, à la morale et aux bonnes manières. James Janeway (également un ministre puritain) a recueilli des histoires sur la vie et la mort vertueuses d’enfants pieux dans A Token for Children (1671), incitant parents, infirmières et enseignants à faire lire l’ouvrage « plus de cent fois ».

Ces histoires d’enfants sur leur lit de mort n’ont peut-être pas beaucoup d’attrait pour les lecteurs modernes, mais ce sont des témoignages importants sur la manière dont on envisageait la question du salut et dont on mettait les enfants au premier plan. Les légendes médiévales sur les martyrs chrétiens, comme sainte Catherine et saint Pélage, sont du même ordre.

D’autres ouvrages portaient sur les bonnes manières. Érasme a écrit un célèbre manuel en latin de savoir-vivre « à l’usage des enfants » (1530) qui leur délivre de multiples conseils, comme « Ne vous essuyez pas le nez sur votre manche », « Si vous remuez sur votre chaise, en vous asseyant sur une fesse puis sur l’autre, vous allez donner l’impression que vous êtes en train de péter. Donc veillez à ce que votre corps reste droit et bien équilibré ». Ce propos montre comment le comportement physique était considéré comme un reflet de la vertu morale.

Dans une société où la lecture à voix haute était une pratique courante, les enfants étaient également susceptibles de faire partie du public qui écoutait les romans d’amour et la poésie profane. Certains manuscrits comprenaient donc des poèmes courtois explicitement destinés aux jeunes enfants, en parallèle de romances, de légendes de saints, et de courts récits moraux et comiques.

Les enfants ont-ils une histoire ?

Le débat pour savoir si les enfants avaient dans le passé des besoins différents de ceux d’aujourd’hui a fait couler beaucoup d’encre. Le médiéviste Philippe Ariès a suggéré dans L’Enfant et la vie familiale sous l’Ancien Régime que les enfants étaient vus comme des adultes en miniature parce qu’ils étaient habillés de la même façon et que leurs routines et leurs apprentissages étaient complètement tournés vers leurs futurs rôles.

Mais il existe de nombreuses preuves que le développement social et émotionnel (ainsi que spirituel) des enfants suscitait autrefois l’attention des adultes. Les règlements en vigueur dans les écoles de la fin du Moyen Âge et du début des Temps Modernes montrent que l’on comprenait l’importance d’accorder du temps aux enfants pour le jeu et l’imagination.

Pieter Bruegel the Elder, Children’s Games, 1560. Wikimedia

Des archéologues travaillant sur des sites d’écoles aux Pays-Bas ont découvert des traces de jeux auxquels les enfants jouaient sans l’intervention des adultes et sans essayer de leur ressembler. Certains auteurs sur l’éducation suggéraient qu’il fallait rendre l’apprentissage plaisant. Cette vision progressiste du développement des enfants est souvent attribuée à John Locke, mais elle a une histoire antérieure si l’on examine les théories sur l’éducation du XVIe siècle, et même d’avant.

Certains des genres les plus imaginatifs que nous associons maintenant à l’enfance sont en fait apparus dans un tout autre contexte. À Paris dans les années 1690, le salon de Marie-Catherine Le Jumel de Barneville, baronne d’Aulnoy, réunissait des intellectuels et des membres de la noblesse.

Là, la baronne racontait des contes de fées, sous lesquels se cachaient des satires de la cour royale, avec une proportion non négligeable de commentaires sur la façon dont la société fonctionnait (ou ne fonctionnait pas) pour les femmes de cette époque. Ces histoires mêlaient folklore, événements d’actualité, jeux populaires, romans contemporains et récits romantiques anciens.

C’était une façon de présenter des idées subversives, sous couvert de fiction. Des romans du XIXe siècle que l’on associe aujourd’hui aux enfants étaient en fait des observations acérées de questions politiques et intellectuelles contemporaines. L’un des exemples les plus connus est celui du livre du Révérend Charles Kingsley publié en 1863 – Les Bébés d’eau : conte symbolique (The Water Babies : À Fairy Tale for a Land Baby) – une satire contre le travail des enfants et une critique de la science contemporaine.

La morale de l’histoire

Au XVIIIe siècle, la littérature pour enfants était devenue un secteur commercialement viable pour l’imprimerie londonienne. Le marché était surtout alimenté par l’éditeur John Newbery, le « père » de la littérature pour enfants. À mesure que croît le taux d’alphabétisation, la demande d’ouvrages pédagogiques se maintient. Il devient également plus facile à cette époque d’imprimer des images, ce qui peut attirer les jeunes lecteurs.

AU XIXe siècle, de plus en plus de livres pour enfants sont imprimés et les éléments moraux y restent très présents. Le développement de la patience et de la propreté de Katy est par exemple essentiel dans l’ouvrage de Susan Coolidge, What Katy Did, tandis que la fougueuse et franche Judy est tuée dans l’ouvrage d’Ethel Turner, Seven Little Australians. Certains auteurs ont réussi à allier sens du comique et leçon de vie, comme Pierre l’ébouriffé ou Crasse-Tignasse (Der Struwwelpeter, en allemand) de Heinrich Hoffmann.

Struwwelpeter (‘Shock-headed Peter’) in a 1917 edition. Wikimedia

Au tournant du XXe siècle, on assiste à l’émergence d’une véritable littérature pour enfants, avec des sujets sérieux qu’ils peuvent découvrir avec ou sans l’aide des adultes, souvent sur un fond de fantaisie. Les œuvres de Lewis Carroll, Robert Louis Stevenson, Mark Twain, Francis Hodgson Burnett, Edith Nesbit, JM Barrie, Frank L Baum, Astrid Lindgren, Enid Blyton, CS Lewis, Roald Dahl et JK Rowling se situent dans cette veine.

Les livres pour enfants contiennent toujours des leçons de morale. Ils continuent d’acculturer la génération nouvelle aux croyances et aux valeurs de la société. Cela ne veut pas dire que nous souhaitons à nos enfants de devenir des sorciers, mais que nous voulons qu’ils soient courageux comme les sorciers dont ils lisent les aventures, qu’ils se défendent les uns les autres et développent un certain ensemble de valeurs.

Nous avons tendance à penser que la littérature pour enfants offre des espaces imaginatifs aux enfants, mais nous sommes souvent myopes face à la longue histoire didactique du genre. Et en tant qu’historiennes, nous cherchons toujours à en savoir plus sur l’autonomie des enfants de l’époque prémoderne, et donc à mieux comprendre dans quels espaces pouvait se déployer leur imagination, au-delà des livres qu’on leur proposait pour apprendre à prier.