Directeur de l’École de Management Léonard de Vinci (EMLV), Pôle Léonard de Vinci – UGEI
L’heure est aux choix stratégiques forts pour tenter de rattraper le retard français sur certains pays étrangers. Gerd Altmann / Pixabay , CC BY-SA
Les données sont considérées comme le pétrole du XXIe siècle et l’intelligence artificielle (IA) comme une rupture technologique, avec des impacts significatifs en matière d’emplois et de création de valeur (aide au diagnostic, supports clients et assistants virtuels, publication autonome de contenus, etc.).
La combinaison des deux doit permettre de développer des innovations majeures car elles doivent en théorie être capables de reproduire trois grandes tâches cognitives : la perception de l’environnement, la compréhension d’une situation et la prise de décision.
Certains pays comme la Chine n’hésitent pas à investir massivement dans l’IA afin de faire un saut significatif dans la maîtrise des technologies et sortir rapidement d’un rôle « d’usine du monde ». Pour autant, et en paraphrasant la célèbre citation du « Nobel » d’économie Robert Solow, on est tenté d’affirmer en France que « l’IA est partout sauf dans les statistiques de productivité ». Les technologies basées sur l’IA semblent pleines de promesses mais en fin de compte, beaucoup d’entreprises et d’États hésitent à consentir les investissements nécessaires et à créer par exemple des fonds dans la transformation digitale des organisations.
« La valeur de la donnée », MOOC Culture Data, Learn Assembly.
Une logique de winner takes all ?
Les grandes entreprises et gouvernements européens ont pris conscience que les GAFA (Google, Apple, Facebook, Amazon) et les NATU (Netflix, Airbnb, Tesla, Uber) ont déjà une longueur d’avance dans le digital et sont les mieux placés pour bénéficier des apports de l’IA dans leurs futurs produits et services.
Ils ont imaginé une nouvelle architecture d’organisation en devenant eux-mêmes des marchés connectant une multitude d’acteurs en proposant de nombreux services. Leur stratégie a consisté à mettre en œuvre des plates-formes multifaces, pour la plupart basées aux États-Unis ou en Chine (Facebook, Alibaba, Baidu, etc.), leur conférant une position privilégiée en matière de collecte de données et de connaissances des marchés. Il existe ainsi un risque réel que ces entreprises accentuent encore plus leur position dominante grâce aux technologies de l’IA et que les entreprises européennes se retrouvent encore plus déclassées dans la course à l’innovation, notamment en France.
L’une des solutions dans le passé fut de créer des grands groupes européens au travers de coopérations industrielles entre plusieurs pays, comme ce fut le cas pour Airbus dans le secteur aéronautique, mais le retard accumulé par les entreprises en Europe semble trop important pour recourir à ce type de stratégie. La création d’un « champion digital européen » est une alternative qui prendrait par ailleurs beaucoup de temps, bien qu’elle puisse faire sens avec la complémentarité des compétences dans certains pays européens.
Enfin, il n’existe pas suffisant de licornes en France (entreprises technologiques valorisées plus d’un milliard de dollars) pour miser uniquement sur ces dernières pour rattraper le retard vis-à-vis des GAFA et NATU, d’autant que les investissements en Chine et aux États-Unis dans les start-up dédiées à l’IA sont sans commune mesure avec ce qui est pratiqué en Europe.
Miser sur certains secteurs
Pour qu’une innovation se développe et s’impose sur un marché, il est nécessaire de comprendre quels secteurs sont « symbiotiques », c’est-à-dire dans lesquels les innovations se propagent le plus facilement grâce aux externalités positives générées.
Il est donc nécessaire de faire des choix politiques forts pour investir dans certains domaines. Le rapport de France Stratégie intitulé « IA : état de l’art et perspectives pour la France » paru en juin 2019 indiquait à ce sujet que les secteurs les plus avancés en matière d’IA étaient aujourd’hui la santé, les industries manufacturières, le transport et la logistique, l’énergie et environnement.
L’une des alternatives consiste donc dans le développement, non pas de champions nationaux voire européens, mais de plusieurs écosystèmes éventuellement spécialisés dans quelques secteurs avec des entreprises et des centres de recherche intégrant également les PME. Ce dispositif, qui peut s’apparenter à des clusters, peut être soutenu par un fond d’aide dédié à l’IA car les investissements sont très importants (Microsoft a investi 1 milliard de dollars dans une plate-forme d’IA dédiée à l’IA fortedouée de conscience et capable de comprendre ses raisonnements).
Toutefois, si l’on raisonne en écosystème, il est nécessaire également de prévoir plusieurs initiatives pour générer des synergies, par exemple :
des formations spécialisées dans les domaines technologiques concernés par l’IA (data scientists, coach d’IA, etc.) ;
une politique incitative d’attraction des talents, y compris pour des chercheurs étrangers (Visa Frenchtech, etc.), et de lancement de start-up par des chercheurs publics comme cela est prévu dans la loi Pacte ;
mettre en œuvre une économie de la data avec la création de bases de données, en lançant par exemple des appels à projets pour le partage de données entre acteurs privés parfois concurrents (exemple du Health Data Hub dans le domaine de la santé) ;
développer des infrastructures comme la 5G qui permettra de développer de nouveaux modèles économiques à partir du très haut débit, etc. ;
établir dès maintenant une forme de régulation spécifique au niveau européen des plates-formes pour permette de répondre aux différents enjeux (portabilité des données, interopérabilité des plates-formes, contrôle des investissements étrangers, etc.) ;
enfin, favoriser au maximum l’expérimentation à grande échelle des technologies liées à l’IA sur le territoire en fédérant un maximum d’acteurs (laboratoires de recherche, start-up, grands groupes, acteurs publics, etc.).
Au-delà d’une volonté publique affichée de soutenir les entreprises dans le développement d’innovations reposant sur l’IA, il apparaît comme urgent et nécessaire de procéder à des choix stratégiques forts et ciblés pour combler le retard déjà constaté avec certains pays étrangers.
Michel Albouy est un·e adhérent·e de The Conversation
Professeur senior de finance, Grenoble École de Management (GEM)
Certaines écoles créent des programmes doctoraux à l’intention des cadres en activité et font ponctuellement appel à des professeurs d’université pour les animer. Shutterstock
Depuis une interview donnée fin 2014 par Maurice Lévy au Financial Times, l’expression « uberiser » fait florès. La question s’est même invitée dans les débats de la dernière élection présidentielle, c’est dire. Selon Wikipédia, ce terme, tiré du nom de l’entreprise californienne de véhicules de tourisme avec chauffeurs, Uber, renvoie à
« un phénomène récent dans le domaine de l’économie consistant en l’utilisation de services permettant aux professionnels et aux clients de se mettre en contact direct, de manière quasi instantanée, grâce à l’utilisation des nouvelles technologies. Ce concept s’oppose en fait à celui connu depuis des générations, et particulièrement depuis les “trente glorieuses”, c’est-à-dire le monde fixe et réglementé du salariat ».
L’uberisation bouleverserait le modèle du salariat bien établi depuis les Trente Glorieuses dans des métiers de plus en plus variés. Même l’enseignement supérieur n’y échapperait pas. C’est ainsi que certains dirigeants de business schools, comme Bernard Belletante d’EM Lyon, n’hésitent pas appeler de leurs vœux l’uberisation des enseignants-chercheurs.
D’autres directeurs d’écoles en parlent lors de séminaires internes et la mettent en pratique à travers leurs sites Internet qui permettent à des vacataires indépendants de soumettre leurs offres de service.
Critères académiques
À en croire les avocats de l’uberisation des écoles de commerce, l’évolution est inéluctable. Au-delà du discours convenu sur le monde « qui change », et l’irruption des nouvelles technologies de l’information et de la communication qui ébranlent les modes classiques de transmission des savoirs, il existe de vraies raisons qui poussent les dirigeants de ces écoles vers une uberisation de leur corps enseignant.
La première est économique. Si l’on rapporte son salaire à l’heure de cours, un professeur permanent coûte cher. Notons qu’historiquement les écoles de commerce n’avaient quasiment pas de corps professoral permanent et faisaient appel à des professionnels de la gestion et à des professeurs de faculté, notamment en droit et en économie.
C’est avec la nécessité de développer la recherche académique, du fait des exigences des agences d’accréditation internationales (AACSB, AMBA, EQUIS), que ces écoles se sont mis à recruter des enseignants-chercheurs permanents au début des années 2000.
Mais cette politique se heurte aux contraintes de son financement. En effet, contrairement aux universités publiques, ces écoles doivent s’autofinancer et le coût de cette recherche se répercute sur les tarifsdemandés aux étudiants (de 13 000 à 16 000 euros/an, soit en moyenne 45 000 euros pour 3 années). L’autre levier consiste à augmenter les effectifs étudiants pour accroître les ressources financières.
Internationalisation
Le deuxième facteur qui pousse ces écoles à s’uberiser est leur internationalisation. En effet, en ouvrant des campus un peu partout dans le monde, il devient de plus en plus nécessaire de recruter pour des missions ponctuelles des intervenants sur place ou de les faire venir d’ailleurs. Ces intervenants peuvent être des consultants ou des professeurs d’universités étrangères.
Avec une marque reconnue à l’international grâce aux classements du Financial Times et avec la triple couronne (AACSB, AMBA et EQUIS) il n’est pas trop difficile d’attirer des intervenants titulaires de PhD venant du monde entier. Intervenir dans de telles écoles constitue un plus dans le CV.
L’uberisation peut même aller plus loin que l’animation de cours ou de séminaires. Il est ainsi possible de créer des programmes doctoraux à l’intention des cadres en activité (Executive DBA) sans professeurs permanents en ayant recours à des professeurs d’université qui cherchent à sortir ponctuellement de leur cadre institutionnel et arrondir leurs fins de mois.
On peut citer à cet égard le Business Science Institute du professeur Michel Kalika qui fait appel à plus de 100 professeurs d’université d’Europe, mais également d’Amérique du Nord, et d’Asie. D’autres business schools s’engagent dans cette voie qui permet de limiter au minimum les coûts fixes.
Le dernier facteur qui pousse à l’uberisation est d’ordre sociétal. Le travail indépendant correspond aujourd’hui à une demande d’autonomie. La possibilité de fractionner le travail « à la tâche » (gig economy) offre une multiplicité de choix aux consultants et enseignants pour structurer leur activité professionnelle indépendamment d’une relation salariale à une école.
Parades
Plusieurs freins risquent néanmoins de ralentir la course à l’uberisation des business schools. Le premier est d’ordre réglementaire. En effet, dans l’état actuelle de la réglementation, pour délivrer un diplôme reconnu par l’État au niveau master (comme le programme Grande école), les écoles doivent pouvoir justifier qu’au moins 50 % des enseignements sont réalisés par des professeurs permanents.
Ceci constitue à l’évidence une limite à l’utilisation d’enseignants vacataires uberisés. Une parade revient à recruter des enseignants non chercheurs faisant un maximum d’heures de cours et encadrant de nombreux vacataires.
L’autre frein vient des exigences des agences d’accréditation qui surveillent la production de recherche des business schools. Seuls les articles signés par les professeurs permanents au nom de l’école sont pris en compte dans leurs évaluations. Il faut donc bien conserver un minimum de professeurs permanents pour justifier d’une activité de recherche.
Afin de booster cette production, on incitera les enseignants de l’école à nouer des partenariats avec des collègues étrangers. Ces derniers participent de fait à l’uberisation de la business school. Autre parade complémentaire : spécialiser certains enseignants sur la recherche uniquement en les délivrant au maximum des charges d’enseignement.
Segmentation
Enfin, le dernier frein, et certainement le plus fort, est celui de la perte d’identité. Comment en effet développer une identité forte et un savoir spécifique sans professeurs permanents attachés à l’institution ? Bref, comment « faire école » avec uniquement des vacataires uberisés ? C’est ici qu’on retrouve la spécialisation des établissements en fonction de leur public.
Les établissements les plus prestigieux chercheront à développer des enseignements spécifiques à partir des recherches de leurs professeurs permanents, alors que les autres se contenteront de délivrer des enseignements standards sur la base de manuels écrits par les autres et délivrés par des vacataires.
Ceci étant, pour les étudiants qui ne chercheront qu’à accumuler des savoirs validés par des tests de compétence spécialisés (par exemple la comptabilité, la gestion commerciale ou des achats, etc.) ces écoles sans chercheur répondront à cette demande.
Si on prend au sérieux le risque d’uberisation, il devient urgent pour les enseignants-chercheurs en management de se positionner clairement par rapport à cette évolution. Le pire serait de vouloir s’en tenir au vieux modèle de l’universitaire qui fait un peu de tout : de l’enseignement (beaucoup parfois), de la recherche (souvent insuffisamment) et de l’administration (souvent obligé).
Dans le monde des business schools, les enseignants-chercheurs vont devoir se spécialiser : devenir des chercheurs reconnus au plan international pour justifier leur traitement ou alors devenir d’excellents pédagogues capables de développer des cours innovants et de coacher des équipes d’enseignants vacataires ubérisés.
Certains choisiront la voie du travail indépendant et chercheront à développer leur notoriété à partir des réseaux sociaux. Ce faisant, ils accompagneront l’uberisation des business schools.
Senior Professor, People, Organizations and Society, Grenoble École de Management (GEM)
Les accusations d’espionnage sont largement insuffisantes pour comprendre les désaccords entre la Chine et les États-Unis… Phol_66/Shutterstock
Dans un précédent article pour The Conversation, j’ai fait valoir que, à en juger par les guerres commerciales qu’il a lancées et qu’il est en train d’intensifier avec la Chine, le président des États-Unis Donald Trump ne passerait pas un examen de première année de premier cycle en économie (ou du moins pas la question de la théorie du commerce international). Essentiellement, j’ai montré qu’il (avec son équipe de conseillers dirigée par Larry Kudlow, le négociateur principal) fait preuve de peu de compréhension de la théorie de l’avantage comparatif des coûts qui se trouve au cœur de la compréhension des économistes du commerce international et, en fait, de tous les échanges interrégionaux depuis la fin du XVIIIe siècle.
Toutefois, il est possible de détecter une deuxième pomme de discorde plus obscure dans les négociations interminables entre les États-Unis et la Chine, qui est peut-être le cœur de la controverse actuelle de la guerre commerciale, mais qui a été beaucoup moins discutée, que ce soit dans les débats universitaires ou dans les médias. Il s’agit de la question du transfert de technologie et des droits de propriété intellectuelle.
Un nouveau champ de bataille
Actuellement, les négociateurs américains souhaitent que leurs entreprises puissent accéder au marché chinois sans que cela implique de transfert de technologies, ce que réclament leurs interlocuteurs. Comme l’écrit le quotidien britannique The Guardian en mai dernier, Washington craint en effet que la Chine « vole des technologies et fasse pression sur des sociétés américaines pour qu’elles divulguent leurs secrets commerciaux ».
Or, pour Pékin, le transfert de technologie constituerait une contrepartie en échange des bénéfices que feraient les entreprises américaines sur son territoire. Si elles veulent développer des affaires en Chine, elles doivent être prêtes à partager leur savoir-faire technologique avec les locaux ! Une position diamétralement opposée à celle des États-Unis qui n’ont pas du tout la même conception de la notion de propriété intellectuelle. Celle-ci revêt en effet pour les Américains un caractère inattaquable, voire inaliénable. C’est peut-être là que se situe le point de désaccord clé de la guerre commerciale sino-américaine.
La théorie économique des biens publics illustre bien combien les deux positions semblent inconciliables. L’un des exemples les plus clairs de ce que les économistes appellent des biens publics est justement la connaissance scientifique et technologique. Un bien public est un bien où, en raison de la nature même du bien, la consommation/utilisation d’unités du bien par une personne ou une entreprise n’empêche pas la consommation/utilisation des mêmes unités par d’autres consommateurs ou entreprises (par exemple, une autoroute ou un parc naturel). On contraste ces biens avec les biens privés où la consommation d’une personne ou d’une entreprise d’une unité du bien empêche toute autre personne d’utiliser la même unité (par exemple, un bonbon ou une opération dentaire).
La plupart des biens et services qui sont produits et vendus sur le marché sont des biens privés, les marchés (du moins dans des conditions de concurrence) sont en théorie assez efficaces pour obtenir une allocation optimale des ressources en ce qui concerne la production ces biens.
La production de biens publics divise
Mais en ce qui concerne l’affectation optimale des ressources à la production de biens publics, les économistes sont en désaccord assez intense depuis près d’un siècle. D’une part, il y a eu les néolibéraux (market fundamentalists) qui soutiennent qu’il vaut mieux confier la production de biens publics à des entreprises privées soumises à la discipline des forces du marché, même si presque tous ces biens publics sont par nature des monopoles naturels (une concession d’autoroute, une franchise ferroviaire) et que le producteur privé possède donc tout le pouvoir de marché néfaste d’un monopoleur (abus de position dominante).
D’un autre côté, il y a eu des économistes qui ont soutenu qu’un bien public est mieux produit sur une base collective par ou pour toutes les personnes qui peuvent profiter du bien une fois produit. Il peut s’agir d’un simple collectif de consommateurs. Par exemple, un club sportif pour des biens publics d’envergure limitée et locale ; ou pour des biens publics d’envergure plus large tels que l’environnement naturel, le réseau d’infrastructures de transport ou la défense nationale, une production du bien publique par l’État agissant au nom de ses citoyens. Même si le secteur public est susceptible de certaines inefficacités liées aux aléas politiques et de la corruption, il s’agit d’un monopoleur en principe bienveillant au service de la communauté et pas d’un monopoleur privé qui ne fait rien d’autre que maximiser ses rentes monopolistiques, ce qui en fin de compte n’est qu’une forme d’extorsion.
Il s’avère que ce contraste dans la façon de traiter les biens publics est l’un des points de friction les plus importants dans les négociations autour de la guerre de commerce entre la Chine et les États-Unis. La position des États-Unis est résolument liée à l’idée que les connaissances technologiques que possèdent les entreprises privées américaines sont une propriété intellectuelle (donc un bien privé en effet) que les Chinois s’efforcent de leur enlever par tous les moyens – qu’ils soient honnêtes ou moins honnêtes.
Les Chinois, pour leur part, considèrent la connaissance technologique comme un bien public qui doit être partagé collectivement par toute l’humanité, de la même manière que la connaissance de la physique, de la chimie et des mathématiques constitue un bien public qui est et devrait toujours être librement accessible à tous. Je laisserai aux lecteurs de former leurs propres opinions sur cette impasse. Mais ce qui est remarquable, c’est qu’au lieu des insultes et des accusations parfois farfelues de sécurité et d’espionnage qui circulent dans ce conflit commercial et qui esquivent la question centrale, il serait préférable et peut-être plutôt révélateur des présupposés idéologiques implicites des deux parties d’avoir un débat ouvert, transparent et serein sur ce qui est une question fondamentale de l’économie politique : l’allocation optimale des ressources en matière de la production des biens publics en générale et du savoir-faire technologique en particulier.
Une nouvelle forme de colonialisme ?
Pour conclure, je ne peux résister à une observation malicieuse. Les néo-libéraux sont les plus ardents défenseurs des droits de propriété privée à l’égard de la propriété intellectuelle dont ils considèrent le savoir technologique comme un exemple de premier plan. Mais dans cette même défense fondamentaliste du marché, de l’efficacité suprême de la propriété privée et des forces du marché, il est généralement supposé que tous les acteurs sur le marché soient… bien informés. En effet, dans les versions les plus poussées de ce conte de fées, ils sont supposés avoir des informations parfaites !
Si les acteurs économiques doivent agir avec des informations parfaites en ce qui concerne leurs décisions concernant la production (et même la consommation) de biens et de services, ils ont besoin d’avoir accès à toutes ces connaissances technologiques qui sont… jalousement retenues et gardées secrètes par les titulaires de droits de propriété intellectuelle. Cette retenue d’information clé dans une situation ou le coût marginal de diffusion serait pratiquement zéro représente une inefficacité des plus grossières dans l’économie mondiale actuelle. Donc peut-être les Chinois avaient-ils raison d’insister pour que, lorsque des entreprises étrangères viennent en Chine (ou ailleurs dans le monde), elles partagent pleinement leurs connaissances technologiques avec les autochtones. Après tout, cela est indispensable à l’allocation optimale des ressources, si vantée par les néo-libéraux fondamentalistes du marché.
Si l’on fait preuve d’un certain cynisme, on pourrait donc conclure que cette impasse ne concerne donc tant les droits de propriété et son lien avec une allocation efficace des ressources, mais révèle que les droits de propriété intellectuelle servent plutôt comme un outil de domination par lequel les entreprises des États-Unis et de nombreuses autres entreprises occidentales cherchent à conserver leurs positions dominantes historiques sur le marché mondial face à leurs rivaux des pays émergents, en refusant de partager leur savoir-faire technologique avec elles. Peut-être que le colonialisme et le complexe de supériorité occidentale dont il est issu ne sont pas vraiment morts, mais juste dans leur phase d’agonie terminale.
« Les centres commerciaux misent sur l’art pour attirer le chaland » titrait le 25 août 2018 un article du journal Les Echos. Ce sujet a été repris ces derniers mois par plusieurs médias tant les exemples se sont récemment multipliés.
Ainsi, le centre commercial Le Polygone (Cagnes-sur-Mer) accueille, depuis son ouverture, 11 œuvres au milieu desquelles les clients peuvent déambuler. Face à l’enseigne Uniqlo, le Collier doré est signé Jean‑Michel Othoniel. À côté du magasin Primark, l’œuvre Opencage a été imaginée par Céleste Boursier-Mougenot. Et Buren a conçu la pergola colorée entre les magasins La Grande Récré et Botanica.
Le centre commercial O’Parinor (Aulnay-sous-Bois) a accueilli entre septembre et octobre 2017 une exposition du Louvre sur le thème du mouvement et de la danse et continue de multiplier les initiatives artistiques à l’image de l’opération « Street-Art à O’Parinor » en novembre 2018.
Pour le centre commercial Muse (Metz), inauguré en novembre 2017, la dimension artistique a été, dès le début, une priorité en écho au Centre Pompidou installé à quelques dizaines de mètres. Elle s’est concrétisée par un parcours jalonné de quatre installations d’artistes reconnus ou émergents et par une expérience « phygitale-arty » baptisée « MuseèArt ».
Le Collier doré de Jan-Michel Othoniel au centre commercial le Polygone.
Un rapprochement initié par les fondateurs des grands magasins
Qu’il s’agisse de partenariats avec des institutions culturelles ou de commandes auprès d’artistes, qu’il s’agisse d’expositions permanentes ou temporaires, il convient de rappeler en préambule que ce mariage entre culture et commerce n’est pas nouveau. Comme le souligne Marzel, cette collaboration trouve son origine dans l’essor des premiers grands magasins, notamment français, à l’image du Bon Marché où Aristide Boucicaut décida d’exposer des œuvres d’art dès 1852 ou encore de La Samaritaine où plusieurs expositions de tableaux issus des collections d’Ernest Cognacq – son fondateur – furent proposées. Émile Zola évoque d’ailleurs ce phénomène dans son roman Au Bonheur des Dames (publié en 1883). Plus près de nous, au cours des années 1960, Christian Dior a également utilisé ses boutiques comme des lieux d’exposition en présentant les œuvres de Man Ray ou de Marx Ernst.
Le recours à l’art par le monde du commerce est donc une pratique ancienne, amenant en son temps Andy Warhol à prophétiser une hybridation totale du monde de la culture et du commerce : « All department stores will become museums, and all museums will become department stores » (« Un jour, tous les grands magasins deviendront des musées, et tous les musées de grands magasins »).
Une source de différenciation pour les centres commerciaux
Le regain d’intérêt actuel des centres commerciaux pour le monde de l’art s’explique principalement par une recherche (perpétuelle) de nouvelles sources de différenciation. Comme l’analysent Vukadin, Lemoine et Badot, la volonté d’hybrider la fonction commerciale d’un lieu de vente en y intégrant des dispositifs artistiques permet d’offrir des gratifications hédoniques au consommateur tout en créant une valeur symbolique pour le centre commercial.
C’est ce que reconnaît Éléonore Villanueva, directrice marketing & communication d’Apsys – foncière de développement qui gère 31 centres commerciaux
« Procurer de l’émotion, de l’enchantement, faire plaisir à nos visiteurs, les toucher, renforcer leur attachement aux lieux par le biais d’œuvres pérennes, de performances, est quelque chose que l’on met au cœur de nos centres. Nous voulons sublimer le parcours client, le surprendre. »
Ainsi, la mobilisation d’œuvres d’art peut être rapprochée de l’ensemble des techniques de marketing expérientiel destinées à maximiser la valeur perçue de l’offre par le consommateur et à procurer un avantage compétitif à l’enseigne. En mobilisant les œuvres d’art – ressource par nature inimitable – le centre commercial évite ainsi un enlisement dans le Big Middle, décrit par Levy et ses collègues qui conduit les enseignes – faute d’innovation – à une concurrence frontale susceptible de s’exercer principalement par les prix.
Pour les centres commerciaux, cette stratégie n’est cependant pas sans risque. Si la mobilisation d’œuvres artistiques peut donner de l’épaisseur au point de vente en diluant sa fonction commerciale, cette orientation stratégique peut conduire à assimiler le point de vente à un musée et à dégrader sa capacité à transformer le chaland en acheteur, comme le relèvent Vukadin, Lemoine et Badot.
Une action culturelle hors les murs
Si les objectifs semblent clairs côté centre commercial, qu’en est-il de la position de l’acteur culturel, qu’il s’agisse des musées qui prêtent leurs œuvres ou des artistes qui les exposent ?
Avec ce type d’opération, les institutions culturelles se situent dans le cadre d’une action culturelle hors les murs. Il s’agit donc pour ces acteurs de chercher des nouveaux publics afin de les inciter à fréquenter leurs institutions culturelles.
On retrouve ici un objectif classique de démocratisation culturelle. Les différentes actions menées par le Louvre témoignent de cet objectif. Ainsi en 2015, le Louvre-Lens a exposé ses œuvres en grand format au centre commercial Auchan de Noyelles-Godault. Et le musée a accompagné cette exposition d’un ensemble d’actions de médiation culturelle. L’expérience a été renouvelée en 2016 et 2017. Fin 2017, le Louvre a également proposé, au centre commercial O’Parinor, une mini galerie présentant des reproductions de tableaux et de sculptures avec pour objectif de faire connaître quelques grandes œuvres classiques à un public peu habitué des institutions culturelles parisiennes.
Afin d’inciter les visiteurs à fréquenter le musée, des billets pour le Louvre étaient offerts au terme de la visite de la galerie. Précision importante : le Louvre a choisi O’Parinor à Aulnay-sous-Bois pour sa première installation dans un centre commercial compte tenu des liens privilégiés entretenus avec la Seine-Saint-Denis dans le cadre du projet « Le Louvre chez vous » depuis 2015.
Du côté des artistes, les motivations sont similaires à celles des institutions culturelles avec la volonté de s’exporter hors des institutions culturelles. Ainsi, Le Bon Marché a accueilli du 16 janvier au 20 février 2016 la première exposition en France du chinois Ai Weiwei. « Il avait envie de présenter son art dans un lieu sans ticket d’entrée » s’était alors réjoui Frédéric Bodenes, directeur artistique du magasin. Et l’expérience a été renouvelée en 2018 avec l’artiste Leandro Erlich.
Cependant, ces initiatives ont cristallisé de nombreuses critiques, les détracteurs de ces opérations soulignant une marchandisation de la culture. Au-delà de ces critiques relevant d’une idéologie propre au secteur culturel, il n’est cependant pas interdit d’interroger ces opérations.
Questionner l’efficacité plutôt que la légitimité de ces actions
L’échec des politiques de « démocratisation de la culture » comme l’émergence de nouvelles pratiques culturelles ont obligé artistes et institutions culturelles à repenser leurs relations aux publics. Dans ce contexte, les nouvelles lignes de convergence entre les lieux à vocation culturelle et les centres commerciaux peuvent constituer une réponse possible permettant de toucher de nouveaux publics.
En rendant accessibles certaines œuvres, ces lieux peuvent contribuer à désacraliser des objets dont la consommation reste fortement marquée par des logiques de stratifications sociales. Il reste cependant à apprécier l’efficacité de telles opérations pour les acteurs culturels. Ainsi, si l’opération du Louvre à O’Parinor en 2017 a permis de toucher 5 250 personnes (rapport d’activité 2017 du Louvre), les informations communiquées par le Louvre ne permettent pas de savoir qui sont ces personnes. Permettent-ils de toucher de nouveaux publics ? Ou, au contraire, les individus sensibles à ces opérations ne sont-ils pas déjà des visiteurs assidus des institutions culturelles ? Et si ces opérations touchent de nouveaux publics, les incitent-ils pour autant à franchir les portes des institutions culturelles ? On voit alors que la question n’est pas tant de statuer sur la présence d’œuvres d’art dans un centre commercial que d’avoir une vision claire de l’efficacité de ces actions pour les acteurs culturels.
Espace, salles des marchés, haute-montagne… Cet été, Christophe Haag, professeur à l’EM Lyon Business School et chercheur en psychologie sociale, vous explique comment les émotions se propagent entre individus en milieu extrême. Au travers des témoignages qu’il a recueillis et analysés au prisme des dernières recherches scientifiques, vous découvrirez les cheminements inattendus de cette « particule de Dieu », ainsi que quelques astuces pour gérer ces émotions, bénéfiques comme toxiques, qui se diffusent d’un humain à l’autre en… 21 millisecondes seulement ! Interviews menées par Thibault Lieurade, chef de rubrique Économie + Entreprise.
Pendant les procès, les avocats de la défense sont soumis à une pression émotionnelle d’une intensité exceptionnelle. Surtout quand on s’appelle Fabrice Epstein, petit-fils de victimes de la Shoah, et que l’on doit défendre Pascal Simbikwanga, jugé en 2014 en France pour son rôle dans le génocide rwandais plus tôt, qui a fait près de 800 000 morts, 20 ans plus tôt. Mais l’émotion n’est pas que l’ennemi de l’avocat, c’est aussi son plus précieux allié. C’est ce que vous découvrirez dans le décryptage de sa dernière plaidoirie, après 6 semaines de procès.
Pour aller plus loin
L’avocat Fabrice Epstein en pleine lecture du livre « La contagion émotionnelle »…
… dont vous pouvez lire les bonnes feuilles ci-dessous
Conversation France
✔@FR_Conversation
Bonnes feuilles : l’émotion, le virus le plus contagieux sur Terre http://bit.ly/2MDcnDS
« Procès Simbikangwa : le génocide rwandais devant la justice française » (Reportage Euronews, février 2014).
Un grand merci à toute l’équipe du Scandle, 68 rue Blanche dans le IXe arrondissement de Paris, pour l’accueil dans son studio, à Jennifer Gallé pour la lecture du témoignage, et à Julian Octz pour le visuel du podcast.
Premier vice-recteur et professeur d’égyptologie, Université de Liège
Campus de l’Université de Stanford (États-Unis), sur la deuxième marche du podium du QS 2020. Shutterstock
Chaque année, les rankings des universités fleurissent, suscitant le même émoi que la parution des grands guides gastronomiques. Qui sera dans le « top 50 » ? Avons-nous progressé ? Où en sont les universités voisines (amies, néanmoins concurrentes) ? Ces interrogations agitent les responsables des établissements d’enseignement supérieur.
En fait, ces classements tiendraient davantage des grandes bourses mondiales que sont le Dow Jones ou le CAC 40 que du Michelin ou du Gault-Millau. En effet – car c’est bien le modèle dominant –, les universités sont évaluées en fonction de leurs produits (les formations et les résultats de la recherche), de la qualité de leur personnel et de leur capacité à attirer les financements, ce qui se traduit par la qualité (intellectuelle et financière) et la quantité de la clientèle (comprenez les étudiants) qui franchiront les portes de l’établissement.
Dans ce grand marché de l’éducation, les rankings viennent périodiquement dessiner une cartographie de l’éducation à usages multiples, à l’adresse des étudiants, des chercheurs, des responsables d’université et des décideurs politiques.
Signalons d’emblée qu’ils ne sont pas les seuls repères, puisque se multiplient aujourd’hui les labels et accréditations de toutes sortes, souvent spécialisés par domaines, qui certifient la qualité de l’enseignement dans certaines filières. Celles qui s’occupent des grandes écoles de commerce, comme AACSB ou EQUIS, sont les plus connues.
Quatre sources phares
Les jugements portés sur les rankings en Europe, notamment dans les pays latins, sont souvent sévères. Il faut dire que, globalement, les universités françaises, belges, italiennes ou espagnoles, n’y brillent guère.
Trois classements jouissent d’une audience mondiale :
Tous mesurent la qualité de la recherche (parfois de l’enseignement) en se fondant essentiellement sur des indices bibliométriques, des données quantitatives fournies par les universités, sur des enquêtes de notoriété et sur la présence de personnalités dont l’excellence a été reconnue par l’obtention de prix prestigieux (Nobel, médaille Fields).
Si quelques critères sont spécifiques à certains classements, la différence se fait surtout sur leur pondération :
Comparatif des critères de classement.
Partout, on voit que la notoriété est un élément important, pesant lourdement sur le résultat final (respectivement 50 %, 33 % et 40 %). La recherche ensuite est un facteur déterminant par rapport à l’enseignement. Enfin l’internationalisation est directement prise en compte par le QS-WUR, à hauteur de 30 %.
La recherche est essentiellement évaluée par des indicateurs bibliométriques (Web of Scienceou Scopus). Première réflexion, tous les domaines ne sont pas couverts. Les sciences humaines sont moins représentées ; de manière générale, les publications en anglais se taillent la part du lion. C’est particulièrement vrai dans le domaine des sciences et techniques et des sciences du vivant.
Seconde réflexion, les revues font elles-mêmes l’objet d’un ranking, au sommet duquel trônent Nature et Science, dont le classement, largement influencé par les grands éditeurs commerciaux (Elsevier, Springer, Wiley, etc.), est lui-même critiqué (par exemple, Scopus est directement contrôlé par Elsevier, par ailleurs partenaire du classement QS-WUR !).
Les rankings classent les universités en bloc, ce qui n’a pas beaucoup de sens. Aussi a-t-on vu apparaître des classements par domaines, ce qui affine un peu l’analyse, sans répondre toutefois aux critiques que l’on peut faire sur l’usage des indicateurs bibliométriques).
À ces trois rankings très médiatisés est venu s’ajouter un quatrième, dont on parle moins, U-Multirank, soutenu par l’Union européenne. Ce classement se positionne ouvertement comme une alternative aux rankings traditionnels auxquels est reproché – fort justement – de ne se préoccuper que des universités de recherche à vocation internationale.
U-Multirank n’entend pas produire un palmarès des meilleures universités. Il cherche plutôt à situer chaque établissement en fonction de cinq grands critères : enseignement et apprentissage, recherche, transfert de connaissances, orientation internationale, et engagement régional.
Risques de dérives
En dehors de l’émotion passagère lors de leur publication, à quoi peuvent bien servir les rankings ? On distinguera ici, à tout le moins, quatre catégories de « consommateurs » : les étudiants, les chercheurs, les responsables d’université et les décideurs politiques.
Si les étudiants de premier cycle choisissent le plus souvent leur université en fonction d’un critère de proximité géographique, la perspective change en master et en doctorat. De fait, la notoriété d’un établissement, l’accréditation de certaines formations apparaissent comme une garantie d’un diplôme de qualité, qui sera reconnu et valorisé sur le marché de l’emploi.
Les chercheurs en début de carrière sont guidés dans leurs choix par des considérations fort semblables. Faire partie d’une équipe renommée est un atout pour la construction du CV personnel, une promesse aussi d’un accès plus facile à des publications bien « rankées ». Pour un enseignant-chercheur, contribuer au ranking de son institution signifie en fait améliorer son propre ranking. Ceci l’amènera donc à porter son attention sur ce qui sert à marquer des points, ce qui peut déboucher sur des stratégies de publication.
En dehors du choix de la revue (importance du facteur d’impact), des dérives plus inquiétantes se font jour. Ainsi, pour accroître le nombre de citations, il est plus intéressant de publier des « guidelines » dans un domaine général ou un article sur un thème à la mode que de s’intéresser à des sujets pointus et originaux qui ne touchent qu’un nombre restreint de spécialistes. La pression des rankings pourrait ainsi en venir à conditionner le choix des thèmes de recherche.
L’intérêt de l’enseignant-chercheur à soigner son ranking est parfois motivé par le souci de rejoindre à terme un établissement prestigieux. Une sorte de mercato scientifique se met ainsi progressivement en place où des chercheurs de valeur essaient de rejoindre des établissements de renom, et où des universités moyennes essaient d’améliorer leur classement en recrutant des chercheurs renommés.
Les responsables d’universités, présidents et recteurs, peuvent faire un usage interne et externe des rankings. En dépit des critiques – justifiées – qu’on peut leur adresser, les rankings sont tout de même l’indicateur de quelque chose. On peut donc les utiliser comme des thermomètres. Cela posé, de même qu’on peut être gravement malade avec une température normale à 36,7°, de même une température élevée n’indique pas forcément (même rarement) la nature précise du mal.
Le classement invite donc à se poser des questions, sans qu’on sache toujours très bien lesquelles. Il y aura d’autant plus intérêt à le faire qu’il est possible d’analyser la tendance sur plusieurs années : classement stable, en hausse ou en baisse.
En externe, les rankings entrent dans la stratégie des universités pour nouer des partenariats, attirer des étudiants et des financements. Il sera donc stratégique de s’allier avec des universités mieux classées pour bénéficier d’un effet d’entraînement, ou à tout le moins avec des établissements situés dans la même zone de classement. L’analyse de la composition des réseaux d’universités qui viennent récemment de recevoir le label d’université européenne est révélateur des stratégies mises en place par les institutions.
Panel de stratégies
Si les universités font régulièrement la moue devant les résultats des rankings – surtout si elles ne sont pas dans le haut du classement –, la plupart sont tout de même bien forcées de s’en préoccuper. Pour ce faire, il faut d’abord comprendre les paramètres du calcul et évaluer la maîtrise que l’on peut en avoir. Le tableau ci-dessous vise à donner une idée de la marge de manœuvre possible :
Enjeux et difficultés des classements.
Les universités ne maîtrisent pas de la même manière tous les paramètres qui entrent en compte dans les classements. Par exemple, les institutions ont la main sur le recrutement des enseignants-chercheurs, beaucoup moins sur l’encadrement (ratio staff/étudiants) dans la mesure où les contraintes financières limitent fortement les ambitions, et elles n’ont que très peu de prise sur les enquêtes de notoriété.
Une institution peut donner une orientation forte en matière de publication, mais ce sont en définitive les chercheurs qui s’aligneront ou non sur cette politique. Dans ce dernier cas, on pourrait assister à des conflits potentiels. Prenons par exemple l’« Open Access », qui vise, entre autres choses, à contrer la suprématie (financièrement ingérable) des grands groupes de l’édition scientifique.
La valorisation des publications en Open Access par une institution pourrait aller à l’encontre des préoccupations des individus, soucieux de la construction de leur carrière personnelle, ce qui passe toujours par la publication dans des revues à haut facteur d’impact, lesquelles sont contrôlées par les grands éditeurs (Rentier 2019).
On peut escompter que certaines mesures auront un effet assez rapide sur les classements, tandis que d’autres, plus structurelles, ne peuvent produire des résultats qu’à moyen, voire à long terme. C’est typiquement le cas des recrutements des nouveaux chercheurs. En revanche, les enquêtes de notoriété peuvent être influencées par une communication ciblée de la part des universités et par un lobbying plus agressif.
Enfin, un mot pour terminer sur l’influence des rankings sur les décideurs politiques. Dans la mesure où les classements cumulés de toutes les universités d’un pays peuvent donner une idée générale du niveau national de la recherche et de l’enseignement, les gouvernements gardent un œil sur les rankings, même s’il est difficile de se prononcer sur leur influence sur les politiques nationales.
En conclusion, en dépit de leur faible valeur scientifique, il est illusoire d’imaginer que les rankings vont (rapidement) disparaître du paysage académique. Les intérêts financiers à promouvoir certains modèles d’université, certaines formes de recherche sont trop importants pour être facilement contrecarrés.
Promouvoir d’autres types de classement, d’autres formes d’évaluation pourrait utilement contrebalancer le pouvoir excessif des rankings mondiaux. Mais il y faudrait mettre beaucoup de moyens et de compétence si l’on veut rendre justice à tous les types d’activités – pas uniquement la recherche – qui font une université.
Est-on vraiment prêt à fournir cet effort pour dégager un modèle original d’université, celui d’une université au carrefour de la science, de la culture et de la société ? C’est là un défi majeur posé à la classe politique européenne si elle veut être à la hauteur des attentes de la société (voir Winand 2018).
Par le jeu des intonations, le parent aide l’enfant à se repérer dans l’histoire qu’il lui raconte. Shutterstock
Quand un parent décide de partager un album ou un recueil de contes avec un très jeune enfant, il ne se contente pas de lui lire un texte à voix haute. Au fil du récit, il va souligner par le jeu des intonations les moments importants de l’histoire ou expliquer le sens de certains mots nouveaux. Et, même si le livre présente des illustrations éclairant l’histoire, on voit bien que ce rituel place la langue écrite au centre de l’attention de l’enfant en âge pré-scolaire.
Cette pratique qui, au premier abord, peut paraître exclusivement « ludique » a en fait une forte incidence sur le développement du langage et sur l’apprentissage de la lecture qui se mettra en place au CP.
Tout d’abord, la fréquence de ces lectures partagées à la maison influence le développement de certaines compétences liées à la langue écrite. À partir des renseignements réguliers glissés lors de cette activité, les enfants peuvent renforcer les bases essentielles aux pratiques de lecture et d’écriture mises en place à l’école.
Une des compétences est celle qu’on appelle « sensibilité à l’orthographe ». Il s’agit d’une aptitude précoce permettant à l’enfant de comprendre les caractéristiques et l’organisation de la langue écrite. Cela anticipe ce qui sera ensuite explicité pendant la scolarisation. Pour donner des exemples, c’est ce qui permet de reconnaître que la langue écrite française est « linéaire », qu’elle se développe de gauche à droite, et, qu’entre deux mots écrits, il y a un espace blanc.
Associer des signes au sens
Ces caractéristiques peuvent apparaître évidentes. Mais elles doivent être maîtrisées avant de pouvoir pour aborder une nouvelle modalité de communication complètement différente de l’oral, et à laquelle un enfant n’est pas du tout familier.
La sensibilité à l’orthographe ne comprend pas seulement des jugements sur les régularités orthographiques de la langue, mais aussi des compétences comme la capacité d’associer une suite de lettres à un sens. Pendant l’acquisition de la langue orale, un enfant d’environ 20 mois peut déjà associer un objet présent dans la situation de communication à la séquence de sons qui le désigne – par exemple appeler « chat » un chat qu’il est en train de voir à un moment donné).
Associer un sens à une séquence de signes sur le papier est une tâche bien plus complexe, pour plusieurs raisons. D’abord parce que cette séquence évoque un élément absent de l’environnement immédiat de l’enfant. De plus, cette suite de lettres manque d’iconicité : cela veut dire que, contrairement à un dessin, elle ne reflète pas forcément les caractéristiques de l’objet qu’elle désigne.
Dans les activités de lecture partagée, l’adulte aide l’enfant à établir et à consolider le lien entre une séquence écrite et un sens, mais également à faire la différence entre un dessin et une production écrite. Cette pratique anticipe une compétence nécessaire pour apprendre à lire et à écrire en primaire : comprendre qu’un mot écrit est porteur d’une signification et que le rapport avec cette signification n’a pas la même nature que ce qui a lieu avec un dessin.
Enrichir son vocabulaire
De plus, au fil de ces lectures, l’enfant va fréquemment rentrer en contact avec des mots qu’il n’a jamais entendus précédemment, et qui correspondent à des réalités parfois bien éloignées de son quotidien – comme le mot « requin », dans un livre sur les animaux de la mer). L’adulte, en explicitant le sens de ce mot inconnu, aide l’enfant à élargir son vocabulaire. La lecture partagée devient donc aussi un support pour le développement du lexique et ce développement a des conséquences sur les activités de lecture à l’école primaire.
En effet, Cain et collaborateurs (2004) ont montré que les enfants ayant des difficultés à comprendre un texte écrit à l’école primaire sont ceux dont le vocabulaire est très réduit. La lecture partagée devient donc un outil qui permet de façon indirecte aux futurs élèves de mieux réussir dans les tâches de compréhension d’un texte écrit.
Il ne faut pas oublier que, dans ces moments de partage autour d’un livre, l’enfant n’est pas autonome face aux pages écrites. L’enfant doit donc d’abord comprendre les productions orales de l’adulte pour comprendre l’histoire. Plusieurs recherches ont montré que le lien entre compréhension orale et écrite est très fort chez l’enfant, avant et pendant l’école primaire. Ces études ont montré que la capacité de comprendre une histoire racontée à l’oral prédit le niveau de compréhension d’un texte écrit.
Plus un enfant est capable de saisir une histoire racontée à l’oral, mieux il se repérera dans une production écrite quand il se retrouvera seul face à un livre. Ces résultats, comme beaucoup d’autres, rappellent que l’éducation à la lecture commence bien avant le CP, à travers des interactions de la vie quotidienne et des efforts réguliers autour de la compréhension orale.
Maître de conférence en neuropsychologie, Université de Strasbourg
Êtes-vous comme Montesquieu, qui assurait n’avoir « jamais eu de chagrin qu’une heure de lecture n’ait dissipé » ? Kaboompics
Nos motivations à lire sont diverses. Nous lisons des fictions populaires pour nous distraire, des fictions littéraires pour l’esthétique de leurs tournures, des textes documentaires pour enrichir nos connaissances, qu’elles soient académiques ou techniques, ou des ouvrages de développement personnel, dans un but explicitement énoncé par leur désignation même…
Une chose est sûre : si l’on en croit la 3e édition du baromètre « Les Français et la lecture », publiée le 13 mars par le Centre National du Livre, la France aime lire : 88 % de ses habitants se déclarent lecteurs, avec une nette prédilection pour le roman.
Pourtant, si de nombreuses études scientifiques se sont penchées sur les effets, à plus ou moins long terme, de la pratique de la méditation ou de la musique sur le cerveau, on connaît mal ceux de la lecture. Étonnamment, ils n’ont pas fait l’objet de beaucoup de recherches. La plupart des travaux existants se sont en effet attachés à décrire ce qui se passe dans le cerveau au moment où on lit, ou à identifier les structures cérébrales nécessaires à la lecture.
Il a toutefois été clairement démontré que la lecture procure des bienfaits considérables, en particulier sur la pensée, même si à ce titre, toutes les catégories d’ouvrages ne se valent pas. Retour sur quelques enseignements marquants des rares études existantes.
Kidd et Castano ont montré que le simple fait de lire un extrait d’une fiction littéraire (autrement dit, un ouvrage récompensé par un prix et/ou écrit par un auteur de référence, comme Patrick Modiano ou Jean‑Marie Gustave Le Clézio), permet d’obtenir par la suite de meilleures performances en « théorie de l’esprit » que le fait de lire un passage tiré d’une fiction populaire (tel qu’un ouvrage faisant partie des meilleures ventes).
La théorie de l’esprit se définit comme la capacité à attribuer à autrui des pensées, des intentions, des émotions, et être ainsi à même de comprendre et de prédire le comportement des autres. Durant leurs travaux, Kidd et Castano ont évalué cette aptitude grâce au test d’interprétation du regard qui consiste à sélectionner le mot qui correspond à la pensée, à l’intention ou à l’émotion exprimée par le regard d’un individu.
La littérature permet de mieux comprendre les émotions d’autrui.iam Se7en/Unsplash
En plus de cet effet à court terme de la lecture, les auteurs ont montré qu’il existait une corrélation positive entre l’expérience de la lecture chez les sujets, mesurée à partir d’un test de reconnaissance d’auteurs, et la performance au test d’interprétation du regard, ce qui suggère cette fois-ci un effet à long terme de la pratique de la lecture sur la théorie de l’esprit.
Il est donc clair que la lecture d’une œuvre littéraire a des conséquences positives, mais comment ces dernières s’expliquent-elles du point de vue neurologique ?
Ces résultats sont intéressants, mais ne renseignent pas vraiment sur les effets de la lecture de textes littéraires sur le cerveau. À ce jour, une seule étude a exploré cet aspect : celle de Berns et de ses collègues, publiée en 2013 dans la revue Brain connectivity. Les auteurs ont demandé à un groupe de sujets sains, des étudiants de l’université Emory, où travaillaient les chercheurs, de lire chaque soir pendant neuf jours 30 pages du roman Pompeii : A Novel, de Robert Harris. Leur activité cérébrale au repos était ensuite systématiquement mesurée le lendemain matin. Ce protocole visait à déterminer si l’impact de la lecture sur le cerveau durait dans le temps.
Les résultats montrent que, pendant cette période de lecture de neuf jours, la connectivité fonctionnelle entre le cortex préfrontal médian et la jonction temporo-pariétale avait augmenté. La communication améliorée entre ces deux régions (impliquées, comme nous l’avons vu, dans la théorie de l’esprit) pourrait expliquer pourquoi les compétences des lecteurs de romans augmentent au regard de cette fonction.
Les modifications cérébrales qui résultent de la lecture perdurent même une fois le livre refermé.Tuấn Vỹ/Unsplash
Aller plus loin, pour optimiser les bienfaits de la lecture
La lecture semble donc capable d’améliorer certaines capacités cognitives importantes pour la vie en société. Ces résultats très intéressants restent toutefois encore parcellaires, et appellent des recherches complémentaires.
Une étude idéale associerait des mesures cognitives de la théorie de l’esprit à des mesures cérébrales fonctionnelles et anatomiques. Celle-ci viserait à mettre en évidence les effets à court et à long terme de la lecture sur la théorie de l’esprit, ainsi qu’à mieux définir la signature cérébrale associée.
Mieux comprendre les mécanismes cérébraux qui sous-tendent les effets bénéfiques de la lecture sur le cerveau permettrait de rendre ces approches plus efficaces, voire d’en inventer de nouvelles.
Research Professor, Anthropology and Sociology, Graduate Institute – Institut de hautes études internationales et du développement (IHEID)
Un membre « repenti » du gang MS-13 suit un cours universitaire à San Salvador, en mars 2019. Si certains criminels deviennent ensuite chercheurs, des chercheurs côtoient parfois les criminels le temps d’une recherche… Marvin Recinos/AFP
J’étudie les gangs d’Amérique centrale et plus particulièrement du Nicaragua, depuis plus de 20 ans. En 1996, à 23 ans je suis devenu membre d’un gang nicaraguéen : pendant un an j’ai participé à ses activités, souvent illicites.
Les recherches que j’entreprends depuis maintenant plus de 20 ans ont montré que les gangs – qu’il s’agisse des « bandes » de jeunes au Nicaragua, celles qui rôdent dans le 93 en France, ou les maras honduriens – sont un phénomène miroir de nos sociétés, avec leur hiérarchie sociale, leur organisation, et leur violence qui souvent reflète la nôtre.
Mais comment les étudier en pratique ? Comment les approcher, nouer des liens avec leurs membres, développer une recherche approfondie sur le phénomène ? Comment s’immerger dans l’univers des gangs ?
L’approche participative
Les études les plus révélatrices sur les gangs ont en général toujours été celles basées sur une approche ethnographique. Ceci découle en partie du fait que l’ethnographie est une méthodologie qui appelle au développement d’une intimité profonde avec le phénomène que l’on souhaite étudier.
Cela permet au chercheur ou à la chercheuse d’interagir directement avec l’autre et son environnement social pour pouvoir comprendre les logiques et dynamiques de l’intérieur. Mais la nature particulière de l’ethnographie fait qu’elle n’est clairement pas une méthode évidente à mettre en œuvre afin d’étudier un phénomène tel les gangs. Ceci est vrai tant au niveau pratique, dans la mesure où l’ethnographie demande une certaine proximité avec le phénomène sous étude, ce qui peut soulever des dilemmes moraux, déontologiques, et pratiques.
Bronislaw Malinowski, l’un des « pères » de l’anthropologie classique, avec des habitants des Îles Trobriand en 1918.Billy Hancock/Wikimedia
Aller au-delà des stéréotypes
Si cela peut sembler de prime abord très difficile, trois superbes études ethnographiques sur les gangs en France attestent cependant de la faisabilité d’un tel projet.
Coeur de Banlieue est paru en 1997 aux éditions Odile Jacob.Odile Jacob
L’étude de Lepoutre explore les codes, les rites et les langages des bandes de jeunes dans la cité des Quatre-Mille à La Courneuve (93), celle de Sauvadet compare la concurrence et la solidarité entre membres de gangs dans deux cités à Paris et une à Marseille, alors que l’étude de Mohammed se focalise sur l’émergence des bandes dans la cité des Hautes-Noues, à Villiers-sur-Marne (94). Ces trois études nous offrent des analyses très fines qui vont bien au-delà des représentations médiatiques stéréotypées qui abondent à propos des gangs.
Comment ont-ils fait ?
Tisser des liens
Les trois chercheurs expliquent dans leurs ouvrages leur démarche méthodologique, qui souvent ont pu se confondre avec un moment de leur vie personnelle. Lepoutre enseigna pendant sept ans dans un collège de La Courneuve, où il vécut également pendant deux ans. Ceci lui permit de tisser des liens forts avec certains individus et familles qui lui servirent d’intermédiaires afin de s’approcher de membres de gangs. Pour sa part, Sauvadet passa une partie de sa jeunesse dans une des deux cités parisiennes étudiées. Il y était donc connu et avait un réseau préexistant. Dans l’autre cité parisienne, il emménagea dans un petit pavillon ouvrier situé juste en face, où l’un de ses voisins le mit en contact avec ce qu’il appelle des « informateurs-médiateurs » qui lui permirent de s’intégrer socialement, alors qu’à Marseille, un ami d’enfance animait une association de boxe dans la cité et cautionna sa présence. Mohammed, enfin, grandit dans la cité des Hautes-Noues où il a effectué sa recherche et il y retourna plus tard afin d’y fonder une association locale avant de devenir vacataire dans la maison de quartier.
Ces trois exemples soulignent l’importance de la proximité tant sociale que spatiale afin de pouvoir véritablement étudier le gang, en tout cas d’un point de vue ethnographique. En même temps, l’extension logique de cette observation voudrait que l’étude parfaite se fasse sur la base d’une immersion dans le gang.
C’est d’ailleurs probablement pour cela que l’une des meilleures descriptions des dynamiques des gangs en France publiée ces 20 dernières années est le livre de Lamence Madzou, J’étais un chef de gang. Cet ouvrage est le récit autobiographique – édité et commenté par la sociologue Marie-Hélène Bacqué – de Madzou, qui fut chef des « Fight Boys », une bande de jeunes dans la cité Montconseil à Corbeil-Essonnes (91). Le fait que Madzou était membre de gang lui donne bien évidemment un regard privilégié sur le phénomène, et lui permet d’expliquer la logique et les dynamiques de « son » gang.
Débat citoyen « Gang story », Champigny, 2013 avec Lamence Madzou, auteur de J’étais un chef de gang.
Ethnologues-gangsters
Ceci étant dit, peu d’anciens membres de gangs écrivent à propos de leurs expériences, et encore moins de manière académique, même si certains deviennent universitaires.
Robert Durán, professeur à l’université du Texas A&M aux États-Unis, est auteur de Gang life in two cities, une étude comparative des gangs à Denver dans le Colorado, et à Ogden en Utah, où il fut membre d’un gang dans sa jeunesse, et Randol Contreras, professeur à l’université de Toronto au Canada, est auteur de l’étude The stick-up kids, à propos d’un gang de braqueurs de trafiquants de drogue dans le Bronx à New York, avec lequel il a eu des liens intimes.
Ceci étant dit, il y a aussi quelques ethnologues qui deviennent membres d’un gang pendant leurs recherches – c’est ce qui m’est arrivé dans le cadre de mes études sur les gangs au Nicaragua.
« Attaqué et tabassé »
Il faut préciser que je ne suis pas allé au Nicaragua afin d’y étudier les gangs. Mon projet d’origine se focalisait sur l’endurance postrévolutionnaire des idéaux révolutionnaires qui caractérisèrent ce pays pendant les années 80.
Ce fut un choc de réaliser suite à mon arrivée au Nicaragua en 1996 – donc six ans après que la révolution sandiniste se soit terminée – qu’il restait très peu des idéaux de la révolution au quotidien. Tout comme de constater que la violence constituait une caractéristique importante de la réalité quotidienne du Nicaragua, plus particulièrement sous la forme des gangs, dénommés localement pandillas.
Trois jours après mon arrivée au Nicaragua, des membres d’un gang m’ont attaqué et tabassé. Puis je subis d’autres épisodes de ce genre au cours des deux premiers mois de mon séjour.
Cette violence inattendue a été plutôt traumatisante – je n’en avais jamais fait l’expérience auparavant – mais en même temps, elle a aussi profondément affecté ma recherche, dans la mesure où elle me força à prêter attention à un phénomène dont je ne me souciais absolument pas mais qui était clairement un élément très important de la réalité sociale nicaraguayenne contemporaine.
Initiation
C’est pour cela que, lorsque j’emménageai dans le barrio (quartier) Luis Fanor Hernández – ce nom est bien évidemment fictif, afin de protéger l’identité du quartier et la vie privée ainsi que la sécurité de ses habitants – deux mois après mon arrivée au Nicaragua, les gangs et leur violence étaient devenus le sujet principal de ma recherche.
Cela tombait bien, car le quartier jouissait alors d’une réputation particulièrement sulfureuse à cause de son gang, à l’époque l’un des plus notoires du district. Ce qui fut plus inattendu est que suite à une séquence d’évènements un peu rocambolesques et improbables, quelques semaines après m’être établi dans le quartier, je fus initié au sein du gang local.
Plus spécifiquement, j’ai dû participer (indirectement) à un vol à l’étalage puis me charger de la vente du butin de celui-ci, me défendre lorsqu’un membre du gang m’attaqua afin de prouver ma valeur, et j’ai aussi dû montrer que j’étais prêt à défendre le quartier lorsque celui-ci fut attaqué par le gang d’un autre quartier.
Le débarquement au cœur d’un gang d’un étranger, chercheur de surcroît, peut paraître invraisemblable, mais dans une certaine mesure cette initiation était presque naturelle : j’étais jeune – 23 ans à l’époque – homme, et suivant les principes de l’enquête ethnographique je traînais dans les rues du quartier, donc dans un espace privilégié du gang…
La réputation
Mais le facteur déterminant était la réputation du gang, qui découlait à l’époque en grande partie des caractéristiques de ses membres individuels. Le gang décida de m’intégrer car cela lui permettait de devenir le seul gang de la ville à avoir un chele pandillero, ou membre étranger, et elle vit sa notoriété s’accroître de manière significative.
Il est important de préciser que je n’ai jamais caché mon rôle de chercheur aux membres du gang, qui semblent l’avoir accepté comme condition de mon intégration. En même temps, j’ai accepté de devenir membre du gang non pas pour pouvoir les étudier, mais plutôt comme stratégie de survie, selon l’idée que « si vous ne pouvez pas les vaincre, joignez-vous à eux ».
Un membre de gang du barrio Luis Fanor Hernández montrant un tatouage et une cicatrice impressionnante.Dennis Rodgers, Author provided
Trainer, fumer, boire, vanner
Devenir membre du gang m’a bien évidement fourni une opportunité de recherche ethnographique incroyable, et m’a permis de développer ce que le sociologue Loïc Wacquant a dénommé dans sa célèbre étude sur la boxe, Corps et âme, une recherche « charnelle », c’est-à-dire impliquant une conversion sensuelle et incarnée au phénomène sous étude.
J’ai pu passer énormément de temps à traîner avec le gang dans les rues du quartier. J’ai fumé, bu, vanné avec les autres membres. J’ai participé à beaucoup de leurs activités collectives, tant violentes comme non-violentes, et j’ai pu me familiariser ainsi avec les codes, rites et pratiques du gang.
J’ai aussi partagé beaucoup de temps individuellement avec des membres de gangs, tant dans la rue que chez eux, à leur demander ce qui les avait poussés à se joindre au gang, savoir comment ils se voyaient, ce qu’ils pensaient des autres.
J’ai pu comparer leurs discours avec leurs pratiques, et les observer agir et interagir dans diverses circonstances, dont beaucoup qui auraient été impossibles pour quelqu’un qui n’était pas membre du gang.
Dilemmes moraux et éthiques
J’ai bien évidemment dû faire face à divers dilemmes moraux et à des situations compliquées à gérer, par exemple quand des membres du gang me parlaient d’actes criminels qu’ils disaient planifier – les membres de gang mentent peut-être plus que le commun des mortels… – mais j’ai aussi appris que les décisions morales ne peuvent se prendre que de manière très situationnelle, et qu’à certains niveaux l’ethnologue ne peut qu’inévitablement devenir complice.
Que faire lorsque l’on découvre que des individus faisant partie de notre champ de recherche ont commis des crimes, ce qui est presque inévitable lorsque l’on étudie les gangs ? Faut-il les dénoncer, les confronter ou bien les ignorer ?
Les trois options impliquent différentes complicités – avec les autorités, avec le gang, avec l’individu… Elles doivent clairement être considérées par rapport à un cadre éthique plus large, mais en fin de compte elles engagent toujours des choix avec lesquels inévitablement quelqu’un ne sera pas d’accord.
« L’ethnologue-gangster » et un ami, 1996.Dennis Rodgers, Author provided
Vivre avec soi-même
Au final, comme l’a très bien dit le sociologue américain William Foote Whyte, le critère déterminant est que
« l’ethnologue doit continuer à vivre avec lui-même. S’il se trouve en train de participer à des activités qu’il perçoit comme immorales, il est probable qu’il commencera à se demander quel genre de personne il est. »
De ce point de vue, je peux tout à fait vivre avec tout ce que j’ai fait lorsque j’étais membre du gang.
J’ai imposé des limites à ma participation, en demandant un statut de « membre observateur », par exemple. Les membres du gang l’ont accepté en partie à cause de mon statut d’étranger, ce qui m’a permis de ne pas avoir à respecter toutes les règles régissant le gang. Je n’ai pas accepté de m’impliquer dans certaines activités, et j’ai aussi déclaré que j’en dénoncerais d’autres si je les observais. En même temps, ceci n’a rien d’exceptionnel, la recherche ethnographique, quelle qu’elle soit, étant en fin de compte toujours une négociation…
Un moyen de recherche parmi d’autres
Le fait d’avoir rejoint le gang du barrio Luis Fanor Hernández pendant un an m’a aussi permis d’engager les recherches ethnographiques longitudinales sur le phénomène que je poursuis encore.
Bien qu’ayant pris ma « retraite » du gang à mon départ du Nicaragua, en juillet 1997, suite à mon premier séjour, les relations que j’y ai nouées ont perduré.
Encore aujourd’hui je reste un « vieux de la vieille » respecté par les anciens et nouveaux membres du gang. Ces derniers ont donc toujours été prêts à me parler, à répondre à mes questions, à partager des informations concernant leurs activités, tant légales qu’illégales, lors de mes retours réguliers au barrio Luis Fanor Hernández.
‘L’ethnologue-gangster’ retraité et deux amis, 2007.Dennis Rodgers, Author provided
Devenir membre d’un gang n’est bien sûr pas l’unique manière de faire de la recherche ethnographique sur le phénomène, et n’est pas quelque chose à la portée de tous, pour de multiples raisons souvent contextuellement variables, mais aussi des questions de genre, d’ethnicité, ou bien d’âge (qui peuvent varier de gang en gang).
De ce point de vue, presque un quart de siècle après mon premier terrain au Nicaragua, je m’apprête à bientôt développer de nouvelles recherches ethnographiques sur les gangs de Marseille. Celles-ci n’impliqueront très certainement pas être initié au sein d’un gang, mais j’espère que mes expériences passées me serviront afin de développer de nouvelles approches qui seront toutes aussi productives et génératrices d’idées et d’analyses.
En juin 2000, le président des États-Unis, Bill Clinton, put annoncer que la première version de la séquence du génome humain venait d’être achevée. Son allocution se faisait l’écho des espoirs qui s’étaient cristallisés autour de l’acide désoxyribonucléique (ADN) et la génétique : d’après lui, il restait certes beaucoup de travail mais les maladies d’Alzheimer ou de Parkinson, le diabète comme le cancer allaient pouvoir être guéris ou prévenus en traitant leur cause à la racine. La connaissance du génome humain devait être la révolution grâce à laquelle le mot « cancer » n’évoquerait plus, chez les enfants de nos enfants, que la constellation céleste. Une génération plus tard, les investissements massifs, comme l’initiative américaine All of Us en 2015, se sont succédé et toutes ces pathologies sont loin d’être éradiquées.
Pourtant, depuis l’an 2000, les technologies d’analyse du génome (séquençage et génotypage) n’ont cessé d’évoluer et le débit de production des données a, pendant un temps au moins, crû plus vite que les performances de calcul des ordinateurs – la fameuse loi de Moore. Profitant de cette accélération, des projets de plus en plus ambitieux ont pu voir le jour (HapMap, 1 000 Genomes, 100 000 Genomes, GTEx, ENCODE, etc.) pour fournir une photographie de plus en plus fine de la génétique de l’espèce humaine.
À un moment où la génétique révèle progressivement la complexité de l’ADN et à l’aube d’une révision des lois de bioéthique, l’incursion des entreprises de génomique personnelle, accompagnée d’enjeux économiques et alimentée par une certaine fascination des médias, pose la question du bien-fondé scientifique des tests ADN. Ces tests commercialisés proposent des analyses médicales et généalogiques. Ici, nous traitons de la généalogie génétique pour la détermination des origines géographiques et ethniques.
De vastes projets comme HapMap et 1 000 Genomes ont recensé et documenté ces variations génétiques existant dans les populations humaines. Par exemple, sur le chromosome 3, on peut observer en position 167 978 688 un A (une adénine) ou un G (une guanine), selon la personne dont on analyse le génome. La coexistence de ces deux formes, de ces deux allèles, est-ce qu’on nomme un polymorphisme génétique, dans ce cas précis un polymorphisme diallélique. L’espèce humaine étant diploïde, un génome complet sera constitué de deux chromosomes 3 donnant lieu à trois possibilités : AA, AG et GG ; ce sont des génotypes.
Polymorphisme et populations humaines
Des millions de polymorphismes jalonnent le génome de tout individu. La composition exacte en allèles est spécifique à cet individu et elle embarque une part d’information sur la ou les populations humaines auxquelles lui et ses ancêtres appartiennent.
Reprenons rs4502625, le polymorphisme vu plus haut : l’allèle G est rare dans les populations de l’Asie de l’Est (moins de 5 %) tandis que l’allèle A est relativement rare (moins de 20 %) dans les populations africaines. Chez les Européens, les deux allèles coexistent à égalité. Une personne dont on établit que le génotype est AG pour rs4502625 aura plus de chance d’appartenir à une population européenne ; d’un autre côté, un génotype GG aurait plutôt pointé une origine africaine et un génotype AA aurait indiqué une origine est-asiatique et à peu près exclu une origine africaine. Cependant, ce polymorphisme, pris isolément, ne saurait être fiable : des indices similaires doivent être glanés sur tout le génome pour que l’on puisse en tirer une interprétation. Cette interprétation doit être comprise comme probable et non pas certaine : la réalité génétique est complexe et les modèles mathématiques qui permettraient d’appréhender cette complexité font encore défaut.
Une identité partagée
Les affirmations avancées par les entreprises de généalogie génétique relèvent souvent du tautologique. Autrement dit, une assertion trivialement vraie de tout individu au sein d’une population nous est livrée. Illustrons ce cas par une simple simulation de brassage génétique dans une petite population.
Simulation de brassage génétique à partir de 16 individus fondateurs. Chaque individu est représenté par un disque dont les secteurs indiquent la fraction de matériel génétique héritée des fondateurs.
De deux choses l’une, soit les individus de la première génération ne laissent aucune descendance (c’est le cas des couples fondateurs E et G mais également D) parmi la population finale soit ils sont chacun l’ancêtre de tous (les mêmes couleurs composent tous les individus de la dernière génération). Dit autrement, un individu qui démontrerait, arbre généalogique à l’appui, qu’il descend du couple fondateur A démontre que le couple A est l’ancêtre de tous ses contemporains également. Par conséquent, lorsqu’on révèle à Danny Dyer qu’il est le descendant d’Édouard III d’Angleterre, on révèle par là même que toute personne ayant un tant soit peu de sang anglais est, elle aussi, de lignée royale. Ainsi, de nombreuses révélations que pourrait faire un test génétique valent autant pour l’individu en quête d’identité que pour une très large population. Il s’agit donc d’une identité partagée.
Bien sûr la réalité est plus nuancée, selon l’échelle de temps (ce qui est vrai pour vingt générations dans le passé ne le sera pas pour dix), l’échelle géographique et l’histoire migratoire d’une population ou son relatif isolement par des barrières naturelles.
La transmission du patrimoine génétique
La transmission du patrimoine génétique peut être mal comprise du public : cette transmission est imparfaite et partielle. Contrairement à l’image savammant véhiculée par ces entreprises, le génome n’est pas un grand livre qui recenserait, à l’infini, les moindres détails des vicissitudes de nos aïeux. Pour nous en rendre compte, concentrons-nous un instant sur les chromosomes non sexuels. S’il est vrai que la moitié provient de la mère et l’autre du père, il est erroné de penser que les quatre grands-parents contribuent équitablement. En effet, leur patrimoine génétique est soumis à la roulette de la recombinaison génétique, ce mécanisme qui, par ailleurs, assure le brassage génétique. Kitty Cooper, joueuse de bridge américaine et généalogiste amateur, en fournit un exemple éloquent avec son analyse du génome de Brynne Gallup : le génome de la grand-mère maternelle, Karen, ne représente que 23,5 % du génome de Brynne quand celui de Brenda, la grand-mère paternelle, en représente 25,7 %. Les différences s’accentuent encore pour les arrière-grands-parents : Brynne ne doit que 9,8 % de son patrimoine génétique à Darrell, le père du père de son père, contre 14,5 % provenant de Gladene, la mère du père de son père. Par conséquent, les résultats des tests génétiques d’un frère et d’une sœur pourront présenter des différences substantielles et contre-intuitives.
Arbre généalogique de Brynne Gallup et composition ancestrale de ses chromosomes (d’après les données présentées par Kitty Cooper).
Le détail de la mosaïque génétique démontre comment des segments entiers d’ADN terminent aux oubliettes : le chromosome 7 maternel est ainsi intégralement hérité de Harlan, le père de la mère de la mère de Brynne. Sur ce chromosome, la trace et l’histoire des trois autres arrière-grands-parents maternels est bel et bien perdue. Au fil des générations, les ancêtres finissent donc par quitter le patrimoine génétique, plus précisément, la moitié d’entre eux disparaît sur une dizaine de générations (250 ans).
La généalogie génétique ne peut donc prétendre rendre compte exhaustivement des racines de quelqu’un, seules seront présentes celles qui auront résisté aux caprices de la recombinaison.
Les déductions géographiques et ethniques sont-elles fiables ?
Premièrement, un pilier méthodologique de la généalogie génétique est que ce n’est pas tant les origines qui sont interrogées que la proximité génétique avec certains de nos contemporains censés être représentatifs d’un groupe, le panel de référence, dont l’établissement se heurte à des problèmes et des biais méthodologiques. Non seulement faut-il que le panel soit représentatif et exhaustif mais le lien entre génétique, culture et géographie, s’il existe, est cryptique. Certains tests, comme Primeval DNA, prétendent surmonter cette difficulté en proposant des comparaisons avec de l’ADN fossile mais le nombre d’échantillons dans le panel de référence s’en trouve drastiquement réduit ; la question des origines est, dans ce cas, peut-être mieux posée mais la réponse risque d’être d’autant moins étayée.
Deuxièmement, les méthodes mises au point pour les tests génétiques ne sont pas soumises aux mêmes épreuves que des outils académiques. Quelques entreprises, telles 23andMe et Ancestry, ont publié certains détails de leur méthode démontrant une précision généralement comprise entre 70 % et 100 % selon les groupes considérés.
Troisièmement, les origines correspondent non pas à une interprétation solidement établie mais à l’interprétation la plus probable des données compte tenu du panel de référence de telle ou telle entreprise. Or, l’interprétation la plus probable n’est pas nécessairement très probable. On en veut pour preuve que 23andMe propose de modifier le niveau d’incertitude– entre 50 % et 10 % – avec lequel on souhaite lire ses résultats. Comme cela fut maintes fois observé, l’interprétation des origines dépend de l’entreprise à laquelle on confie son ADN et elle peut évoluer à mesure que les méthodes subissent des altérations.
Société et tests génétiques
Du point de vue législatif, il subsiste un flou concernant le lieu de production des donnéesou l’utilisation des données. Le client peut parfois demander la suppression de ses données et la destruction des échantillons de sa salive même si les procédures sont parfois longues. Une majorité des clients accepte de participer à des programmes de recherche. Les bénéficiaires de ces programmes ne sont pas toujours précisés : il peut s’agir de recherche privée tout comme de recherche publique. Dans tous les cas, les données sont anonymisées.
C’est tout l’enjeu de la révision des lois de bioéthique que de faciliter tout en l’encadrant le fonctionnement de ces entreprises en France.
Enfin, l’ADN est une molécule fascinante mais, en dehors des laboratoires de génétique, la fascination confine parfois au mystique. Ainsi, Bill Clinton voit dans le séquençage du génome la tentative de l’Homme de s’initier à « la langue dans laquelle Dieu créa la vie ». La part de mystère autour de l’ADN, qui, en dépositaire de tous les secrets d’une personne, serait capable de faire renouer le client avec son passé, ses ancêtres et son identité, est avidement cultivée par les entreprises proposant des tests génétiques. Cette quête est loin d’être simple, elle est loin d’être neutre en raison des questions identitaires et la démarche même mérite qu’on l’étudie y compris dans sa dimension historique (on pourra consulter à ce sujet Pour une histoire politique de la race de Jean‑Frédéric Schaub, publié en 2015 aux éditions du Seuil).