• Actualités régionales
    • Communes limitrophes
    • Régionales
  • Adhésion
  • André Lhote
  • Au-delà du 14 juillet, des interrogations tenaces sur l’usage des armées
  • Auteurs morts en 17, (déjà…)
  • BD « Sciences en bulles » : À la recherche des exoplanètes
  • Bonnes feuilles : Le château d’If, symbole de l’évasion littéraire
  • Comment la lecture enrichit l’éducation des enfants
  • Corruption, contrebande : le drame de Beyrouth et la question de la sécurité dans les zones portuaires
  • Des crises économiques à la crise de sens, le besoin d’une prospérité partagée
  • Evènements
  • Lecture : comment choisir un album qui peut vraiment plaire aux enfants
  • L’économie fantôme de l’opéra
  • L’Europe s’en sortirait-elle mieux sans l’Allemagne ?
  • Maladie de Lyme : attention au sur-diagnostic !
  • Mirmande
    • Pages d’histoire
    • AVAP et PLU
    • Fonds de dotation et patrimoine
  • NutriScore : quand l’étiquetage des aliments devient prescriptif
  • Penser l’après : Le respect, vertu cardinale du monde post-crise ?
  • Podcast : le repos, une invention humaine ?
  • Prévoir les changements climatiques à 10 ans, le nouveau défi des climatologues
  • Qui sommes-nous?
  • Réforme de la taxe d’habitation… et si la compensation financière n’était pas le seul enjeu ?
  • Revues de presse et Chroniques
  • S’INSCRIRE AU BLOGUE
  • Scène de crime : quand les insectes mènent l’enquête
  • The conversation – Changement climatique : entre adaptation et atténuation, il ne faut pas choisir
  • Une traduction citoyenne pour (enfin) lire le dernier rapport du GIEC sur le climat

Mirmande PatrimoineS Blogue

~ La protection des patrimoines de Mirmande.com site

Mirmande PatrimoineS Blogue

Archives Mensuelles: avril 2018

Il y a 140 millions d’années, la toute première fleur ressemblait à un magnolia

30 lundi Avr 2018

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

  1. The Conversation

Il y a 140 millions d’années, la toute première fleur ressemblait à un magnolia

  1. Mario Vallejo-Marin

    Associate Professor in Evolutionary Biology, University of Stirling

University of Stirling

University of Stirling apporte un financement en tant que membre adhérent de

Cet article est publié dans le cadre de la Nuit sciences et lettres « Les Origines », qui se tiendra le 8 juin 2018 à l’ENS et dont The Conversation France est partenaire. Retrouvez le programme complet sur le site de l’événement.


La majorité des plantes qui peuplent la Terre disposent de fleurs. Mais l’histoire de leur origine reste largement mystérieuse. Les fleurs constituent aujourd’hui les organes sexuels de plus de 360 000 espèces de plantes vivantes, toutes issues d’un unique ancêtre commun.

Cette plante ancestrale – qui a existé à une époque comprise entre 250 et 140 millions d’années dans le passé – a produit les premières fleurs à une période où notre planète était plus chaude et plus riche en oxygène et en gaz à effet de serre qu’aujourd’hui. Une époque où prospéraient les dinosaures.

Ces derniers n’existent plus depuis 65 millions d’années. Et pourtant, nous en savons davantage sur l’apparence d’un iguanodon que sur celle de la fleur ancestrale !

Cette plante aquatique trouvée en Espagne, vieille de 130 millions d’années, est le plus ancien fossile de fleur connu à ce jour. Gomez et al/PNAS

Ce manque de connaissances est en partie dû au fait que ces premières fleurs n’ont pas laissé de traces. Il faut en effet un concours de circonstances très particulier pour que les fleurs, qui sont des structures fragiles, puissent se fossiliser. Et puisqu’aucun fossile de fleur ne remonte à 140 millions d’années ou davantage, les scientifiques n’avaient qu’une idée limitée de ce à quoi pouvait ressembler l’ancêtre ultime… jusqu’à maintenant.

Remonter l’arbre généalogique des plantes à fleurs

Une nouvelle étude majeure, menée par une équipe internationale de botanistes, est parvenue à établir la meilleure reconstruction, à ce jour, de cette fleur ancestrale. Pour cela, elle s’est concentrée moins sur les fossiles que sur l’étude des caractéristiques de 800 descendants, encore vivants aujourd’hui, de cette première fleur.

En énumérant les points communs et les différences entre diverses plantes à fleurs présentant un lien de parenté, on peut en effet déduire les caractéristiques de leurs ancêtres proches. Par exemple, sur toutes les espèces d’orchidées, les fleurs ont un effet miroir : les deux moitiés de chaque fleur sont symétriques (on parle de symétrie bilatérale). On peut donc supposer que l’ancêtre des orchidées présentait cette caractéristique. De fil en aiguille, on peut ensuite comparer ces ancêtres entre eux et remonter un cran plus loin, et ainsi de suite, jusqu’à atteindre, éventuellement, la base de l’arbre généalogique des plantes à fleurs.

Les fleurs des orchidées sont symétriques. Joanna Dineva

La fleur originelle ressemble, sous certains aspects, au magnolia moderne, avec ses multiples « pétales » (appelés techniquement des tépales, techniquement) indifférenciés et disposés en cercles concentriques. On trouve, en son centre, plusieurs rangées d’organes sexuels, dont des étamines et des ovaires. Difficile de ne pas imaginer les anciennes espèces de pollinisateurs s’aventurer dans cette fleur, y collecter des grains de pollen et aider ainsi, sans le savoir, la plante à produire des graines.

Une vie sexuelle controversée

Cette nouvelle étude permet de trancher la question de savoir si les fleurs primitives avaient chacune un sexe, ou si, au contraire, les organes reproductifs mâle et femelle étaient réunis dans la même fleur. Les recherches menées jusqu’ici divergeaient sur ce point. D’un côté, l’un des plus anciens lignages de plantes à fleurs – qui ne survit aujourd’hui que sous la forme d’Amborella, un arbuste rare de Nouvelle-Calédonie – présente des fleurs qui sont soit mâles, soit femelles. De l’autre, dans la plupart des espèces modernes, les deux sexes sont présents dans la même fleur.

Toutes les espèces de fleurs qui existent de nos jours proviennent, à l’origine, d’une ancêtre unique, datant d’il y a environ 140 millions d’années. Hervé Sauquet et Jürg Schönenberger

Les auteurs de l’étude viennent de trancher le débat en montrant que la fleur ancestrale était hermaphrodite. Ce qui signifie que les plantes à fleurs primitives pouvaient se reproduire en prenant soit le rôle du mâle, soit celui de la femelle. Une telle combinaison des sexes dans une même fleur peut constituer un avantage lorsqu’une plante s’installe dans un nouvel environnement : chaque individu unique peut ainsi être son propre partenaire. Et en effet, beaucoup d’espèces de plantes ayant colonisé des îles lointaines se sont révélées hermaphrodites. Peut-être cela a-t-il pu aider ces premières plantes à fleurs à s’imposer sur d’autres plantes.

Le diable est dans les détails

Malgré son apparente ressemblance avec certaines des fleurs que nous connaissons, l’ancêtre ultime nous réserve quelques surprises. Les botanistes ont longtemps pensé, par exemple, que les premières fleurs disposaient, en leur centre, de pétales disposés en spirale, comme on le voit sur des espèces modernes comme l’anis étoilé.

Mais les dernières découvertes suggèrent fortement que les organes des premières fleurs étaient disposés, non pas en spirale, mais en séries de cercles concentriques (ou verticilles), comme sur les plantes modernes. Ces verticilles étaient toutefois plus nombreux sur la fleur primitive, ce qui suppose que les fleurs se sont simplifiées au fil du temps.

Paradoxalement, cette simplification de l’architecture des fleurs pourrait avoir doté les plantes modernes d’une base plus stable pour évoluer, mais aussi pour accomplir des tâches complexes. Parmi celles-ci, la possibilité d’une meilleure interaction avec certains insectes, comme c’est le cas pour les orchidées, ou la production de capitules, ces dizaines ou centaines de petites fleurs que l’on voit notamment dans la famille des tournesols.

Nous avons désormais une idée assez précise de ce à quoi pouvait ressembler l’une des premières fleurs. Mais nous savons peu de choses sur la façon dont cette fleur est apparue sur Terre. Et les étapes détaillées de son évolution restent également inconnues. Peut-être faudra-t-il attendre la découverte de nouveaux fossiles de fleurs, qui combleront le trou que représente pour l’instant la période allant de 250 à 140 millions d’années. Nous pourrions alors comprendre l’origine même du système sexuel le plus diversifié de notre planète.

Déformations crâniennes dans la Colca Valley : quelles hypothèses scientifiques ?

29 dimanche Avr 2018

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

The Conversation

Auteur

  1. Jérome Thomas

    Chercheur, Université Paul Valéry – Montpellier III

 

Crâne maya déformé Museo Nacional de Antropología e Historia, Mexico., Author provided

Au mois de janvier dernier, Matthew C. Velasco, anthropologue à l’université Cornell de New York, a publié un article sur les déformations crâniennes dans la Colca Valley, située au sud-ouest du Pérou. En cela, il poursuit les recherches initiées depuis sa thèse de doctorat, en 2016, qui portait sur les transformations sociales et les traditions mortuaires dans cette vallée entre 1100 et 1450.

Plus ancien crâne déformé découvert dans une grotte de Shanidar (Irak), VIIIᵉ millénaire av. J.-C. Trinkaus, 1982, Author provided

Son article reprend une partie des conclusions sur les déformations crâniennes formulées dans sa recherche doctorale. À partir d’analyses génétiques d’individus et l’étude de plus de 200 crânes appartenant aux peuples préhispaniques Collaguas et Cavanas et bornant sa recherche à la période pré-incaïque (1100-1450), il affirme que ces manipulations de l’occiput servaient à marquer les différences sociales à l’intérieur d’un groupe ethnique et à se démarquer des autres communautés. Mais là où cette contribution innove, c’est en posant l’hypothèse que les déformations du crâne renvoient vers le divin et le sacré.

Dessins des différentes techniques employées pour déformer le crâne dans le Pérou et le Chili précolombien. Author provided

Cet article a obtenu un certain écho hors des frontières américaines et il a été abondamment commenté tant dans des revues spécialisées que dans la presse grand public. En France, un quotidien national a titré sur « l’énigme des crânes allongés du Pérou » qui serait dorénavant « résolue ». Cette manchette sensationnelle doit être relativisée et mérite une mise au point.

Premières explications

En tout premier lieu, les modifications de la forme du crâne retiennent l’attention des chercheurs depuis le XIXe siècle. Ceux-ci ont tenté d’apporter des explications plus ou moins crédibles sur le sujet. En 1839, Samuel G. Morton, un médecin américain, est le premier à distinguer les types de déformation et à les classer dans son ouvrage Crania americana. En 1855, le docteur genevois Louis-André Gosse publie un Essai sur les déformations artificielles du crâne. Bien qu’il affirme ne pas savoir quel but précis assigner à ces pratiques, il conteste déjà une quelconque origine extraordinaire des déformations.

Couverture de l’ouvrage de Adolfo Dembo et José Imbelloni, Deformaciones intencionales del cuerpo humano de carácter étnico. Buenos Aires, J. Anesi, 1938., Author provided

Les études vont se multiplier à partir de la fin du XIXe siècle et quelques travaux fondamentaux marquent les recherches sur la question. La première approche anthropologique « moderne » est le fait de l’archéologue péruvien Tello, en 1928, qui associe l’étude du contexte culturel et celle des appareils déformateurs à l’analyse des déformations. Il offre ainsi une perspective bio-culturelle inédite particulièrement féconde pour l’étude de la préhistoire des Andes.

En 1938, dans Deformaciones Intencionales del Cuerpo Humano de Caracter Etnico, les anthropologues J. Imbelloni (professeur d’anthropologie à l’université de Buenos Aires) et A. Dembo décrivent et classifient un nombre très important de données dans une série d’études encore pertinentes aujourd’hui. Dans les années 1930, leur ouvrage, ainsi que les travaux de l’archéologue chilien R. Latcham ou de l’anthropologue Falkenburger fondent les études anthropologiques sur les déformations crâniennes à partir de cas tirés des Amériques, mais ce sont des pratiques universelles. Actuellement, l’une des plus grandes spécialistes de ces pratiques est l’anthropologue de l’Universidad Autonoma du Yucatan (Mexique) Vera Tiesler, dont l’étude de 2014 fait le point sur les recherches les plus récentes.

Ainsi ce sujet, loin d’apparaître comme un terrain en friche, suscite l’intérêt des anthropologues, des archéologues et des historiens depuis de très nombreuses années.

Les apports de Velasco

Matthew Velasco met l’accent sur la déformation comme signe de distinction sociale et d’appartenance à une élite chez les Colloguas et les Cavanas en se basant sur les analyses ADN d’ossements exhumés dans les sépultures. Elles apportent des preuves concrètes d’une évolution dans les pratiques de modifications crâniennes. La bioarchéologie et les données radiométriques montrent sans aucune discussion possible une « standardisation » dans les déformations avec le type « oblique » qui s’impose progressivement et une forte augmentation du nombre d’individus qui se déforment le crâne, de 39,2 % vers 1100 à 73,7 % en 1450. Les progrès de la génétique permettent ainsi des analyses plus fines qui confirment les observations des chercheurs.

Dessins de 15 vues latérales de différents types de crânes déformés. Le numéro 1 est un crâne normal. Author provided

Trois faits marquants se dégagent de la contribution de Matthew Velasco. De manière tout à fait classique, il conclut que les manipulations crâniennes ramènent vers le marqueur ethnique. De nombreux auteurs ont perçu cet aspect. En 1931, l’anthropologue anglais E. Dingwall fournit une des études les plus complètes sur le sujet en compilant plus de 1 200 références à travers le monde.

Plus récemment, les études de chercheurs comme celles de Rosaura Yépez Vasquez (2006) dans sa thèse sur les cultures Paracas et Chancay et de Christina Torres-Rouff (2002) à San Perdo de Atacama au Chili ont mis ce point en évidence. Il s’agit d’un indicateur de hiérarchie et surtout de différenciation entre les communautés et les déformations sont largement diffusées et diversifiées sur le plateau andin et le long des côtes péruviennes. Cette hypothèse de différenciation entre les communautés a l’avantage d’expliquer les différences régionales constatées tant par les Espagnols au XVIe siècle que par les études historiques des chercheurs contemporains entre les communautés des hautes et des basses terres andines.

Selon Velasco, la déformation permet également de se différencier au sein d’une même communauté, de marquer son rang social et son statut dans le groupe. Elle symbolise la stratification et la ségrégation sociale, et sert à distinguer les lignages, les relations familiales ou les positions personnelles héréditaires à l’intérieur de la communauté. C’est un fait qui semble universel.

Petite fille Mangbetu au crâne allongé (nord-est de la République démocratique du Congo) (photographie réalisée vers 1930). Delisle, 1889, Author provided
Tête toulousaine. Crâne déformé (région de Toulouse). Fin XIXe siècle. Delisle, 1889, Author provided

Au Ghana, les Ashanti pressaient la tête des plus jeunes à l’aide de bandages. Signe de pouvoir et de puissance, la déformation ne se pratiquait que chez les aristocrates. Comme chez les Mangbetu d’Ouganda où seules les classes dirigeantes se déformaient la tête. En Amérique du Sud, il semble que les différentes formes de déformation aient pour objectif, entre autres, de déterminer le statut social des membres du groupe. Pourtant, les conclusions de Deborah E. Blom (1999) nuancent cette assertion. Elle a étudié la culture Tiwanaku (hauts plateaux boliviens) et affirme que les données recueillies « suggèrent qu’il n’existe pas de liens entre le statut et les modifications crâniennes ». Si on porte notre regard vers la Méso-Amérique, les conclusions de l’anthropologue Vera Tiesler à partir de la fouille de tombes mayas de l’époque classique tendent également à montrer qu’il n’existe pas de liens véritablement formels entre les élites et des déformations crâniennes qui seraient réservées aux classes dirigeantes.

L’influence des textes du XVIe siècle explique sans doute la popularité, chez les chercheurs, de l’idée d’une symbolique sociale des déformations. De nombreux chroniqueurs ont affirmé que cette pratique permettait de distinguer les élites. Il n’est que de citer Pedro Cieza de Léon, Bartolomé de las Casas, Bernabe Cobo ou encore José de Acosta. Les témoignages ne manquent pas et sont connus.

Pour les Collaguas étudiés par Velasco, le texte incontournable est celui du corregidor (administrateur) Juan de Ulloa Mogollon qui décrit cette communauté en 1586 :

« Les Cavana Conde se différencient beaucoup des Collaguas dans la forme du crâne car ils attachent la tête du nouveau-né, fille ou garçon, pour qu’elle devienne large et aplatie et ainsi laide et disproportionnée. Ils obtiennent ce résultat au moyen de cordons blancs tressés, qui enveloppent la tête pour bien la serrer. »

Il conclut ses commentaires sur les têtes déformées des Collaguas en affirmant qu’elles ont la forme d’un volcan duquel sortirent leurs ancêtres.

Une symbolique religieuse ?

C’est le troisième point qui se dégage de l’étude de Velasco, à savoir la symbolique religieuse des déformations. Chez les Collaguas, corps et environnement naturel se confondent métaphoriquement. La montagne devient la métaphore du corps humain et il existe un rapport étroit entre la tête et le cosmos. Le corps devient une entité bio-culturelle et une structure symbolique. Ce n’est plus un agrégat d’organes et de fonctions organisées selon les lois de l’anatomie et de la physiologie mais une représentation incarnée du cosmos et par là même de la religiosité. Des chercheurs ont émis cette hypothèse comme Rosaura Yépez Vasquez (2009) ou Palmira La Riva Gonzalez (2012). En 1985, Joseph W. Bastien a étudié cette symbolique corporelle chez les Collaguas.

Il en tire la conclusion suivante en mettant en lumière un modèle topographico-hydraulique lié à la montagne sur lequel s’appuient les Collaguas pour comprendre la physiologie de leur corps. Les Collaguas auraient modelé leur occiput puisqu’ils pensaient descendre d’un volcan.

Selon Bastien, la dimension religieuse et sacrée ne fait aucun doute. Le volcan est l’entité à l’origine de la communauté, selon une conception mythique de la naissance du groupe. Or, cette question fait débat depuis longtemps. Imbelloni (1925), puis Lastres (1951), ont fermement critiqué cette interprétation d’Ulloa Mogollón que Velasco reprend. Ils ont préféré rester sur le terrain du statut social et de l’identité ethnique.

Pourtant, la dimension religieuse ne doit pas être occultée pour comprendre les rites de déformation crânienne. Elle est même fondamentale, mais il faut déplacer le questionnement et s’intéresser à l’« âme », cette entité qui donne vie au corps, y circule et peut s’en échapper. Or, la fontanelle du bébé n’est pas encore fermée à sa naissance : compresser sa tête permet de fermer le corps grâce à tout un appareillage complexe, qui évite que l’âme ne s’en échappe. Cette approche est susceptible d’offrir de nouvelles perspectives et d’enrichir les interprétations liées à l’univers cosmologique des Collaguas et leurs rapports au divin : il est nécessaire d’élargir la perspective et d’apporter de nouveaux éclairages sur cette question passionnante et sujette à bien des fantasmes.

« Qu’est-ce que le foot ? » Institution, industrie, épopée, média…

28 samedi Avr 2018

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

The Conversation

  1. Olivier Bomsel

    Senior Researcher (HDR) and Professor, Director of the MINES ParisTech Chair of Media and Brand Economics, Mines ParisTech

Mines ParisTech

.

Ce texte est publié dans le cadre du partenariat de The Conversation France avec le Séminaire PSL Écosystèmes de médias. Le séminaire consacré au football s’est tenu le 9 avril à l’école des mines. Il a été animé par Nathalie Boy de la Tour, présidente de la Ligue de football professionnel (LFP) et Emmanuel Alix, directeur du pôle numérique de L’Equipe.


Le théâtre du football

Le football est un sport. C’est aussi une industrie avec des firmes, des financiers, des talents, des agents, des familles, des contrats, des marques, des infrastructures, des sponsors…

Mais ce 11 avril 2018, poignardé par un penalty à l’ultime minute d’un match de Ligue des Champions, Gianluigi Buffon a des accents de Shylock :

« Pour être de grands acteurs au niveau européen, qu’on soit joueur, arbitre ou entraîneur, il faut avoir de la sensibilité… pour sentir l’importance de certains moments-clés sur le terrain. Si on n’a pas cette sensibilité, on n’est pas digne de se trouver sur la pelouse… Il faut être en tribune avec sa famille, un paquet de chips et un coca. On ne peut pas faire des choses comme ça… »

Car le foot est aussi un théâtre, un ensemble de récits conçus, construits, joués pour être publiés et demandés par le public. Chaque match est tenu par des règles, il s’inscrit dans un contexte, une saga qui tire sa dramaturgie. Le football est une épopée. Il résulte d’un protocole éditorial, d’une ingénierie du sens instituant le cadre du récit, son écriture, sa scénographie, son exhibition publique, sa contextualisation. Ce protocole, sanctionné par la vente des récits, combine des institutions (fédérations et ligues), des firmes (clubs), des talents, des médias… Cet ensemble forme un écosystème, l’écosystème du foot.

Comment se fabrique l’épopée du football ? Quels en sont les récits ? Qu’est-ce qui en fait le prix ? Comment se construit sa demande ? À quoi servent les supporteurs ? Pourquoi la Premier League se vend-elle plus cher que la L1 française ? Pourquoi le prix des joueurs stars augmente-t-il ? Faut-il limiter les dépenses des clubs alors que l’industrie se développe et se mondialise ?

Institutions et économie

La compétition est l’essence du récit. Elle en fixe l’espace-temps, les enjeux, les rebonds, les temps morts, jusqu’au sacre final… C’est aussi le lieu des règles et de leurs effets dramatiques. Or, les compétitions sont éditées par des ligues, des fédérations, des instances collectives dont la mission est autant institutionnelle qu’économique.

Jusqu’à récemment en France, les missions institutionnelles l’emportaient largement sur les enjeux économiques, à tel point que la présidence de la LFP était une fonction bénévole comparable à celle des notables dans la Rome antique.

Nathalie Boy de la Tour insiste sur la transformation engagée depuis dix-huit mois par la nouvelle direction de la LFP. Certes, la ligue assume toujours ses missions institutionnelles : suivi et contrôle des règles sportives, financières, fiscales, organisation des championnats et de la coupe engageant les 40 clubs dans des matches chaque week-end. Mais l’ensemble de ces missions est désormais au service de la valorisation d’un produit dont l’attractivité est celle d’un récit.

La ligue se voit donc comme une entreprise de services visant à maximiser les revenus des droits de retransmission des matches. Ceux-ci représentent 86 % des recettes à reverser aux clubs et ne seront jamais compensés par le sponsoring. Dès lors, les tâches institutionnelles doivent se coordonner à des objectifs économiques pour accroître et valoriser l’attention portée aux compétitions.

Calendrier, arbitrage, supporteurs

Ce prisme éclaire la construction du calendrier, soit 800 matches par an pour 11 millions de spectateurs. C’est un exploit logistique comparable à 800 journées de tournage avec 40 équipes et des millions de figurants. Il s’appuie sur une recherche opérationnelle visant à maximiser sous contrainte l’audience cumulée des rencontres. Il faut combiner les priorités des chaînes de télévision exigeant les grandes affiches pour les soirées de forte audience avec les souhaits des clubs, soumis aux agendas municipaux ou engagés dans des compétitions européennes.

Il éclaire aussi les modalités de la gestion des supporteurs qui forment l’ancrage social des équipes. Les supporteurs amplifient l’enjeu sportif des rencontres et donnent au récit sa dimension théâtrale : l’acclamation de la bicyclette de Ronaldo par des tifosis crucifiés crée une émotion inouïe. Néanmoins, la ferveur doit rester dans les limites de la sécurité, faute de quoi, c’est l’ensemble du récit qui peut perdre son sens.

De même, l’institution de l’arbitrage doit s’adapter à la fluidité du récit. Suivant la pratique anglaise, les arbitres français ont désormais pour consigne de laisser jouer l’avantage et d’augmenter le temps de jeu. L’introduction par la ligue de l’arbitrage vidéo a pour objet de limiter la contestation des clubs, sensibles aux enjeux financiers des décisions. Elle risque cependant de hacher le cours du jeu et l’attention du public.

L’adoption de la technologie va devoir s’accommoder de cette contrainte afin que le recours à la vidéo garde un caractère exceptionnel et s’effectue dans un délai très bref. Au bout du compte, parions que l’usage de la vidéo s’intégrera pleinement au récit au point de devenir un nœud de suspens additionnel.

La fabrique de l’épopée

La dramaturgie du foot, c’est avant tout celle des matches. Mais elle a besoin d’être magnifiée hors des stades, hors de l’espace-temps des rencontres par des récits qui exacerbent ses enjeux. C’est le rôle de l’ensemble des médias qui, sans disposer des images, élaborent le contexte, le faisceau de campagnes, d’exploits, d’excès, de désastres, d’intrigues, de rumeurs entourant le football. C’est en cela que le foot forme un écosystème : autour du produit marchand, une myriade de médias développe des externalités croisées, des services adjacents exaltant le récit central.

En France, L’Equipe et sa rédaction de 300 journalistes est au cœur de cet écosystème. Le quotidien du sport est complété par des hebdomadaires, un site web, une chaîne de télévision, des applications mobiles, des réseaux sociaux, etc. Emmanuel Alix explique comment le foot y règne – plus de 50 % des contenus, 70 % de l’audience – et de quelle façon les récits suivent le déroulé des compétitions. Ce qui frappe est le foisonnement des récits et la diversité de leur apport à l’attraction des matches.

Comme souvent dans les médias, ces récits s’organisent dans un rapport au temps. La trame narrative est le « feuilleton de la Ligue 1 », lequel ne s’arrête jamais puisque le mercato occupe l’intersaison. Les autres compétitions s’organisent autour d’elle. Les 38 épisodes – chaque équipe joue deux fois contre les 19 autres – dessinent en permanence un avant, un pendant et un après durant lesquels se disposent les enjeux dramatiques. Traditionnellement, le journal papier et les supports numériques payants tiennent les amateurs en haleine par des récits d’avant et d’après match dont ils amplifient le sens.

La nouveauté est la profusion des récits du présent. Le radio-speaker homérique de jadis investit tous les supports. Le récit aveugle s’écrit en ligne, s’affiche sur les smartphones, se filme dans des émissions où des narrateurs épluchent le match. Elles sont ponctuées de statistiques, de graphes, de notes données aux joueurs, et réunissent autant de spectateurs que la retransmission en direct. Nombre d’entre eux regardent le match et captent le complément sur des écrans ad hoc. Ils suivent le cours du jeu, et, en même temps, les réactions des experts et des réseaux sociaux, tantôt sur l’arbitrage, les actions-clés, les retournements…

On peut en sourire ou s’en étonner. N’empêche, la densité du spectacle, le nombre des protagonistes, la technicité des gestes, des actions muettes enchaînées se prêtent formidablement à cet exercice. À quoi s’ajoute le partage de l’émotion. Au final, ces nouveaux médias amplifient la portée et les significations de chaque rencontre. La socialisation des matches y gagne en audience et en intensité. L’addiction au récit dope le marché des droits.

Le retard français

En apparence, l’écosystème fonctionne puisque L’Equipe réalise environ 200 millions d’euros de chiffre d’affaires annuel, ce qui, si on impute la moitié au football, représente 13 % des droits de diffusion domestique. À quoi s’ajoutent les recettes de tous les autres médias et des paris sportifs. Si les externalités sont équilibrées, autrement dit, si L’Equipe et tous les autres contributeurs apportent autant au foot qu’ils en reçoivent, et si le marché des droits est concurrentiel (ce qui n’est pas évident), les droits du foot se vendent plus cher grâce à eux.

Pourtant, avec 748 millions d’euros de recettes de droits domestiques en 2017, la LFP est très loin de ses homologues européennes : la Premier League anglaise se vend 2,3 milliards d’euros au Royaume-Uni, trois fois plus que la ligue française, et 1,2 milliards à l’export, soit 37,5 fois plus que la ligue française (15 fois seulement en 2018). Talonnée par la Turquie, la France est bonne dernière des cinq premiers pays européens.

Cette situation traduit le déficit d’enjeux du récit de la Ligue 1 face à ses concurrents européens. En gros, pour qu’un championnat ait de la valeur à l’export, il faut qu’un nombre critique de matches présente de forts enjeux. Si un quart des équipes peut prétendre aux places qualificatives pour la Ligue des Champions, alors la confrontation de ces équipes aux autres et de ces équipes entre elles atteint la masse critique.

Tout le problème du football français est de construire ces « locomotives » capables de tirer le championnat. Or, compte tenu des montées et des descentes entre les deux ligues, l’équilibre entre les 40 clubs représentés par LFP est difficile à ménager. Et jusqu’à très récemment, l’objectif stratégique de la création de ce groupe de tête n’avait pas été formulé. La France, selon Nathalie Boy de la Tour, accuse quinze ans de retard.

Une fois ce constat posé tout reste encore à faire. Car derrière cet objectif, c’est bien le système d’incitation des clubs, de structuration de leurs actifs (leurs stades), de leur actionnariat, et de prévention du parasitisme qui est à repenser. En effet, la flambée du prix des joueurs reflète la concurrence sur le marché des ligues. Elle encourage des approches court-termistes, voire spéculatives, qui parasitent la valorisation du championnat. Quant au fair-play financier, il tempère à la marge la concurrence au sein des ligues, mais favorise les clubs en place et les ligues dominantes.

Si on a cru un temps qu’un leader fort suffirait à relancer la Ligue 1, il semble aujourd’hui qu’il faille faire davantage pour relancer ses enjeux sportifs et pérenniser son groupe de tête. Les économistes peuvent chausser leurs crampons…

Les Identitaires, nouvelles milices à nos frontières ?

27 vendredi Avr 2018

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

  1. The Conversation

 

  1. Stéphane François

    Politiste, historien des idées, chercheur associé, École pratique des hautes études (EPHE)

Des militants de Génération Identitaire à Nevache, près de Briancon, sur la frontière alpine franco-italienne. Romain Lafabregue/AFP

Les comptes Twitter des membres du mouvement Génération identitaire n’ont cessé de s’activer ce week-end suite à une première action « coup de poing » dans les Alpes qui a fait parler de l’association à grand renfort de journalistes, et de photos les mettant en scène, seuls, entre amis ou en couple.

En effet, les 20 et 21 avril plusieurs membres participant, ont déployé une banderole au sommet du Col de l’Échelle, dans les Alpes, connu pour être un lieu de passage de migrants.

L’objectif était de condamner l’afflux de migrant en France en formant une « chaîne » composée de barrières en plastique et de militants.

D’après le compte Twitter du porte-parole Romain Espino, l’opération est un « succès », et devrait donner lieu à d’autres actions de ce type.

La réaction outragée du député des Bouches-du-Rhône (LREM) ne s’est pas fait attendre, suivie de nombreuses autres sur les réseaux sociaux.

Samedi 21 avril, le président de France Terre d’Asile demandait d’ailleurs la dissolution de l’association, suivi par d’autres citoyens et personnalités politiques indignés et railleurs.

Génération identitaire est pourtant bien installée dans le paysage de l’extrême-droite française et, à l’instar des participants de l’action #StopMigrantsAlpes, se veut désormais porter la voix d’une Europe à défendre.

Génération identitaire puise ses racines dans le groupuscule Bloc identitaire, renommé depuis juillet 2016 Les Identitaires. Les idées sont les mêmes : le rejet de l’immigration, perçue comme une colonisation (le « grand remplacement »), promotion de la « remigration » (c’est-à-dire le renvoi des migrants dans leurs pays d’origine), défense de l’identité européenne, rejet de l’islam, rejet enfin du racisme « antiblanc ».

Or, ces théories se diffusent non seulement dans la société française, mais trouvent écho un peu partout en Europe. On pense ainsi à celui fondé par le jeune autrichien Markus Willinger, Generation Identity, au groupe italien dont des membres étaient présents dans les Alpes et qui se sont déjà manifestés en 2017 lors de l’opération « Defend Europe » en Méditerranée, ou encore Identitäre Bewegung. Les livres et pensées sont d’ailleurs traduits vers l’anglais par des militants de l’alt-right américaine.

Le vaisseau C-star affrêté par des identitaires européens pour patrouiller en mer Méditerranée, au large des côtes libyennes durant l’été 2017. Angelos Tzortzinis/AFP

Au cœur de la rhétorique identitaire, toujours la même idéologie : une conception ethnoculturelle de l’identité. En effet, s’ils défendent la diversité ethnique et culturelle européenne, c’est uniquement parce que celle-ci s’insère dans une unité raciale (la race blanche) et culturelle (la civilisation indo-européenne).

Il s’agit pour Les Identitaires d’en assurer la sauvegarde face au danger que feraient peser l’immigration extra-européenne (xénophobie) et le métissage (mixophobie) sur sa pérennité. Surtout, contrairement aux autres groupuscules d’extrême droite, le groupe use d’une rhétorique victimaire. Il s’agit de se présenter comme un mouvement réactif, portant un discours subversif en lutte contre une supposée « pensée unique » « cosmopolite » et « immigrationniste ».

Recyclage d’idées

Les idées Identitaires ne sont pas récentes. On en retrouve les germes dès les années 1950, dans des groupuscules comme les néonazis du Nouvel ordre européen de René Binet, puis la décennie suivante, dans Europe Action, le groupuscule de Dominique Venner. Ce dernier est d’ailleurs considéré comme une référence importante, au point que son manifeste de 1961, Pour une critique positive. Écrit par un militant pour des militants, a été réédité par la maison d’édition des Identitaires, Idée en 2013.

Cependant, contrairement aux groupes d’extrême droite dont la mouvance identitaire est issue, l’antisémitisme et l’antisionisme ont été désormais abandonnés au profit d’une idéologie structurée sur le rejet de l’islam, des musulmans et de l’immigration afro-arabe.

Retweet depuis le compte de Romain Espino, porte-parole de Génération identitaire, dont le commentaire (« au revoir et ne reviens plus ») a choqué sur les réseaux sociaux. Et a été retiré très rapidement de son compte officiel. Twitter

En ce sens, l’idéologie identitaire est une rupture des thèmes de sa famille nationaliste-révolutionnaire originelle. Le Bloc identitaire est en effet né de l’interdiction en 2002 d’Unité radicale, à la suite de la tentative d’assassinat ratée de Jacques Chirac, alors président de la République, par le militant Maxime Brunerie. Unité radicale était lui-même un groupuscule fondé en 1998 par d’anciens membres du GUD, de Jeune Résistance et de militants de L’Œuvre française. Son discours était antisioniste, antisémite et anti-américain, mais également anticapitaliste et plutôt pro-arabe, au nom du combat contre l’« axe américano-sioniste ».

Suite à cette interdiction, une partie des cadres dirigeants d’Unité radicale décident de créer une nouvelle structure, l’association Les Identitaires en décembre 2002. Elle est suivie par la création du Bloc identitaire–Mouvement Social Européen en avril 2003, affirmant déjà une volonté d’action pan-européenne.

Il faut voir dans le choix de ce nom l’un des effets majeurs de la reconfiguration alors à l’œuvre au sein des droites radicales européennes, suite aux attentats du 11 septembre 2001. La mouvance identitaire naissante passe, entre 2001 et 2003, d’un discours fustigeant « l’impérialisme américain » en tant qu’ennemi principal au combat contre l’islamisme et l’immigration musulmane, sans pour autant abandonner le premier, qui passe en second plan.

Le happening

Pour promouvoir ces idées, les membres du Bloc identitaire ont créé rapidement une structure de jeunesse, Une autre jeunesse, qui fut un échec. Elle était dirigée par Philippe Vardon, aujourd’hui membre du Rassemblement national, Adrien Heber, Gaëtan Jarry et Jean‑David Cattin. L’échec, par le manque d’attrait des jeunes pour ce mouvement, a cependant donné lieu à un second essai : le Bloc identitaire lance en 2012 Génération identitaire avec l ‘occupation du site de la future mosquée de Poitiers. Cette organisation aurait aujourd’hui environ 3 000 membres, mais seule une grosse centaine est active.

Ces happenings seront sa marque de fabrique.

Parallèlement, la structure met en ligne un clip, « Nous sommes la génération identitaire » très bien fait, remettant en cause les « maux » et travers de Mai 68 et des générations passées et soulignant l’échec du « vivre ensemble ». Ce clip s’adresse en outre aux militants européens et américains avec son sous-titrage en anglais.

Clip de lancement de Génération identitaire, 4 avril 2013.

Ces excellents communicants se dotent d’autres outils. Utilisant le phénomène des prières de rue, ils avaient investi le quartier de Barbès/la Goutte d’Or à Paris pour y condamner l’islam et défendre des produits de « nos terroirs » : le vin et les produits charcutiers. Ces « opérations pinard-saucisson » bien que très médiatisées, ont été en réalité peu suivies.

Cependant, elles ont fait émerger et, dans une moindre mesure légitimer, dans l’espace public l’idée de racisme culturel, faisant du musulman et de la musulmane une personne incapable de s’adapter aux valeurs occidentales.

Les positions identitaires contribuent, en outre, au rejet grandissant de la société multiethnique et multiculturelle.

Production des contre-discours

Les débats sur l’identité nationale, voulus alors par le président Nicolas Sarkozy, ont laissé des traces importantes dans une société fracturée, traumatisée par les différents attentats – et ce particulièrement depuis le 11 septembre 2001-, comme nous l’avons montré Nicolas Lebourg et moi-même. La communication des Identitaires a beaucoup joué sur la confusion intellectuelle de certains pans de la société : le rejet de l’Autre se renouvelle dans les marges, en particulier des marges intellectuelles qui produisent des contre-mémoires et des contre-discours, puis s’épand dans les autres secteurs de la société…

Si les idées identitaires prennent aujourd’hui, c’est parce que les techniques de communication des Identitaires sont efficaces : leur objectif est de faire parler d’eux. Ainsi, ils n’hésitent pas à inviter des journalistes afin de médiatiser leurs actions. Pour augmenter leur audience, ils diffusent leurs happenings et les retours de la presse via Novopress, leur agence de presse, et leur site. Des « informations » qui sont largement reprises par les structures identitaires européennes.

Les fautes d’orthographe sur le CV… bien plus que des fautes

26 jeudi Avr 2018

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

The Conversation

Auteur

  1. Christelle Martin Lacroux

    Maître de conférences en sciences de gestion- Laboratoire CERAG- IUT2, Université Grenoble Alpes

Université Grenoble Alpes

 

Qui a écrit ? Qui a relu ? fdecomite / Flickr, CC BY

L’orthographe, un problème circonscrit à la sphère scolaire ?

La question de la maîtrise de l’orthographe est demeurée longtemps exclusivement une question relevant du seul système éducatif, le ministère fixant des objectifs à atteindre par cycle et évaluant périodiquement le niveau des élèves.

Plusieurs études s’accordent sur la baisse régulière et conséquente du niveau des élèves en orthographe depuis le milieu des années 80 : en 2015, les élèves font en moyenne 17,8 erreurs contre 10,6 en 1987 à une même dictée.

Dans un contexte d’intensification de l’écrit au travail, l’intégration dans les organisations de jeunes diplômés au niveau plus faible en orthographe que leurs aînés devient aujourd’hui également un enjeu de gestion pour les organisations.

Pour preuve, ces dernières évaluent aujourd’hui les compétences rédactionnelles comme les plus importantes à maîtriser : une étude américaine portant sur plus de 14 millions d’offres d’emploi a conclu que les compétences rédactionnelles figuraient parmi les compétences les plus recherchées par les employeurs.

Et pourtant, en dépit de ce plébiscite, les organisations se déclarent très insatisfaites du niveau réel des jeunes diplômés en matière de compétences de communication écrite.

L’orthographe, un coût pour les organisations

Les déficiences rédactionnelles et en particulier orthographiques sont sources de coûts, en termes d’image, de qualité perçue et d’intentions d’achat des clients notamment. À ce propos, la National Commission on Writing (2004) a évalué à plus de 3 milliards de dollars annuels les sommes dépensées par les entreprises pour remédier aux déficiences écrites des salariés américains.

En France, l’équipe de l’ISEOR (Institut de socio-economie des entreprises et des organisations) a conclu que l’absence de gestion dans les organisations des déficiences en langage écrit (spécifiquement de la prise en charge de l’illettrisme) était source de coûts cachés au premier rang desquels on trouve les surcoûts liés à des défauts de qualité, des surcoûts liés au glissement de fonction de l’encadrement prenant en charge la révision d’un document rédigé par un subordonné, ou encore la non-création de potentiel liée à l’impossibilité de développer de nouvelles activités.

D’autres études ont également démontré les conséquences des fautes sur les sites Internet en termes de détérioration de la qualité perçue par les internautes, voire même en termes de diminution des intentions d’achat.

S’il est démontré que les déficiences rédactionnelles et en particulier orthographiques représentent un problème de gestion, et en dépit d’une importante médiatisation de cette question, aucune étude scientifique n’avait mesuré en France les perceptions et le comportement des recruteurs à l’égard des candidats à l’embauche déficients en orthographe.

C’est pourtant au cours de la phase d’étude des dossiers de candidature que les employeurs sont en mesure de procéder à une première évaluation du niveau de maîtrise de l’orthographe. Si plusieurs enquêtes menées par l’APEC ou des cabinets de recrutement ont indiqué que les employeurs déclaraient pénaliser les fautes, ces dernières présentent des limites méthodologiques, rendant indispensable la réalisation d’une étude apportant des garanties en termes de validité.

L’orthographe, un coût pour les candidats à l’embauche ?

Une étude expérimentale en sciences de gestion a été menée récemment afin de comprendre les effets des fautes d’orthographe au sens large (fautes lexicales, grammaticales et fautes typographiques, appelées fautes de frappe ou encore fautes de clavier) sur les perceptions des recruteurs mais également sur leur comportement de présélection.

536 recruteurs ont été mis en situation de présélection de candidats : plusieurs candidatures à un poste de nature commerciale, se différenciant sur le niveau d’expérience des candidats, le nombre et le type de fautes contenues, leur ont été proposées. Il leur a été demandé de noter chacune d’entre elles puis de prendre une décision de présélection (rejet ou entretien). En outre, la méthode des protocoles verbaux a été mobilisée pour analyser le discours des recruteurs pendant leur tâche d’étude des dossiers. Cette technique a exigé des répondants qu’ils expriment à voix haute leurs pensées, simultanément à l’exécution d’une tâche expérimentale. Ces verbalisations ont ensuite été retranscrites pour une analyse de contenu. Cette méthode est particulièrement adaptée à la compréhension du processus de prise de décision des recruteurs. Les conclusions de cette étude sont sans appel.

Les fautes d’orthographe comptent…

L’analyse des restitutions verbales indique que les fautes génèrent de fortes attributions de la part des recruteurs en termes d’intelligence du candidat, de compétences professionnelles mais également en termes de savoir-être…

Ainsi, les recruteurs infèrent aux rédacteurs de CV contenant des fautes un manque d’intelligence (uniquement d’ailleurs lorsqu’ils lisent des CV contenant des fautes d’orthographe) et également un manque de professionnalisme. Mais ce sont surtout les attributions en matière de savoir-être (manque de politesse et de correction) qui dominent dans le discours des recruteurs amenés à étudier ces dossiers de candidature. Le manque de rigueur, le laxisme, la légèreté et la négligence sont des perceptions largement partagées par une proportion importante d’entre eux.

Émerge également de cette analyse du discours des recruteurs la dimension culturelle de la compétence orthographique : pour les recruteurs, savoir écrire sans fautes ne relève pas forcément de l’école, mais plutôt du contexte socio-économique inféré au candidat (notamment la famille, le milieu social).

L’analyse statistique des décisions des recruteurs permet également de dresser plusieurs constats : la présence de fautes (quelle que soit leur nature) a un impact sur le taux de rejet, et ce à expérience égale. Les chances qu’un dossier comportant des fautes d’orthographe et une expérience professionnelle importante soit rejeté sont 3,1 supérieures aux chances de rejet d’un dossier sans fautes, avec la même expérience professionnelle. Une candidature expérimentée avec des fautes d’orthographe présente un taux de rejet comparable à celui d’une candidature peu expérimentée mais exempte de fautes, annihilant ainsi les atouts d’une candidature expérimentée.

… mais toutes les fautes ne se valent pas

Les résultats de l’étude mettent également en évidence un jugement différencié des recruteurs selon le type de fautes : les fautes de frappe (oubli ou inversion de lettre) sont jugées moins sévèrement que les fautes d’orthographe en termes de rejet. C’est plutôt leur accumulation qui entraîne le rejet.

En revanche, concernant les fautes d’orthographe (lexicales et grammaticales), le nombre de fautes (5 ou 10) n’affecte pas le comportement de rejet des recruteurs. Cela signifie que ce n’est pas tant le nombre de fautes que la présence et le type de fautes qui expliquent le rejet du dossier : il n’existerait pas de « seuil de tolérance » pour les fautes d’orthographe lexicale et grammaticale lorsqu’elles sont repérées.

L’analyse statistique et de discours révèlent donc en creux la gravité de la faute d’orthographe grammaticale considérée comme « une faute contre la pensée », corroborant l’analyse du discours des recruteurs associant davantage la faute de frappe à un manque de relecture mais jamais à un manque d’intelligence. Un sondage réalisé en février 2015 confirme d’ailleurs que ce sont les fautes de grammaire qui choquent le plus les Français (ils seraient par exemple 47 % à l’être face à un mauvais choix d’auxiliaire avec le participe passé). Pour expliquer la plus grande sévérité des recruteurs face aux fautes d’orthographe lexicales et grammaticales, on peut avancer l’explication selon laquelle les fautes de frappe, les coquilles ou fautes de frappe seraient considérées comme de « petites fautes », tandis que la faute suprême, grave, impardonnable est la faute de grammaire.

En d’autres termes, les toutes premières fautes de conjugaison, d’accord ou de lexique peuvent entraîner le rejet… tandis qu’en matière de fautes de frappe c’est davantage leur accumulation qui générerait l’élimination d’un candidat.

La compétence orthographique, bien plus qu’une compétence technique

Au-delà de l’aspect trivial de ces résultats, cette étude apporte une preuve que les fautes constituent bien une « barrière à l’entrée » pour les candidats à l’embauche, plus encore en ce qui concerne les fautes d’orthographe que pour les fautes typographiques.

La faute d’orthographe est donc bien porteuse de sens pour un recruteur : elle constitue le terreau d’attributions fortes, principalement en termes de savoir-être. La faute ne relève pas d’une simple compétence technique, savoir de base, mais d’une aptitude à se conformer à une norme.

Ainsi, les candidats rédigeant leur CV avec des fautes violeraient une norme sociale implicite de l’orthographe : un salarié qui commettrait des fautes ne saurait donc pas se situer face à son destinataire, serait incapable d’adapter la qualité linguistique à l’interaction. La faute traduirait donc au final un comportement préjudiciable à l’organisation plus qu’une insuffisante maîtrise de compétence linguistique ou technique.

En conclusion, on peut se demander si l’intégration progressive de diplômés aux compétences orthographiques diminuées sonne le glas de l’époque des écrits professionnels impeccables sur le plan orthographique. Dans un contexte de forte médiatisation de ce problème et d’intensification de l’usage de l’écrit professionnel, la résistance s’est-elle mise en route, comme en témoigne la multiplication des initiatives dans les entreprises, au sein des organismes de formation ainsi que le développement de certifications aux compétences purement orthographiques ou rédactionnelles (Certificat Voltaire, Certificat aux Compétences Rédactionnelles) ?

Finalement, la compétence orthographique, autrefois assimilée à un prérequis scolaire parmi tant d’autres, finira-t-elle par devenir une compétence hautement distinctive dans les prochaines années, tant elle deviendra rare parmi les candidats ?

Ça l’affiche mal ! Fred/Flickr,

Qu’est-ce qu’un best-seller ? Panorama des meilleures ventes de livres en France

25 mercredi Avr 2018

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

  1. The Conversation

 

  1. Lylette Lacôte-Gabrysiak

    Maître de conférences en sciences de l’information et de la communciation, Université de Lorraine

Université de Lorraine

 
Les grands succès de librairie ont-ils des points communs ? Adolfo Felix/Unsplash

Qu’est-ce qu’un best-seller ? Pour faire simple, si l’on s’en tient au dictionnaire Larousse, un best-seller est un « Livre à forte vente ; grand succès de librairie » ou un « Gros succès commercial ». Si l’on retient cette définition qui se limite à dire que c’est l’importance des ventes qui fait le best-seller, quels sont alors les gros succès de librairie de ces 30 dernières années ?

Notons rapidement que si les best-sellers existent depuis très longtemps, la production éditoriale générale a beaucoup évoluée de 1985 à 2015-2016. Au cours de cette période, pour les éditions en grand format, il y a beaucoup plus de titres produits (+267 %), un peu plus d’exemplaires produit (+46 %) mais moins d’exemplaires par titres (-59,6 %). Dans l’ensemble de la production éditoriale en 2015-2016, les livres de poche représentent environ 20 % de la production en titres comme en nombre d’exemplaires produits.

Les best-sellers ne sont pas tous des romans

Pour beaucoup, plus ou moins implicitement, un best-seller est un roman adulte. Pourtant, parmi les plus grosses ventes on trouve beaucoup de bande-dessinées, notamment à destination des enfants, par exemple Titeuf qui accumule les succès. On peut y ajouter d’autres séries qui visent un public plus large comme Largo Winch ou Blake et Mortimer. Et, bien sûr, le champion toutes catégories, qui explose les chiffres de ventes dès sa sortie : Astérix. On parle alors de millions d’exemplaires vendus en quelques mois. Aucun autre livre en France ne parvient à se vendre autant en aussi peu de temps.

La littérature jeunesse compte également de jolis succès. Là encore une série se détache, un succès mondial devenu depuis une quinzaine d’années totalement incontournable : Harry Potter. Au-delà du succès des romans, il faut bien sûr compter avec l’influence des films : l’entremêlement des parutions des romans et des sorties des films entraînant une véritable spirale de succès qui s’est étendue à de nombreux produits dérivés contribuant à transformer tout ce qui touche au petit sorcier en or. La nouvelle série des Animaux fantastiques (films et livres tirés du film) continue à prouver à quel point ce phénomène est puissant. Globalement, le cinéma, notamment à destination des enfants, a une forte influence sur les ventes des livres à condition que le film soit bon et ait rencontré le succès comme cela est le cas, par exemple, avec La Reine des neiges dont Disney a tiré pas moins de 317 titres de livres.

La saga Harry Potter : chaque sortie d’un nouvel opus créait l’événement. Wikipédia, CC BY

Les essais à succès : une question de thématique

Certains essais ont également connu un succès fulgurant, pour les plus anciens, il reste le souvenir des ventes d’Adieu Volodia de Simone Signoret, de Ma médecine naturelle de Rika Zaraï ou de Cent familles de Jean‑Luc Lahaye. D’autres titres liés à la présidence de la république se sont également fort bien vendus – sans commune mesure avec les autres livres politiques aux ventes souvent confidentielles.

Les livres de régime et leurs déclinaisons en livres de recettes de la méthode Montignac à la méthode Dukan ont également été des mannes pour leurs auteurs et leurs éditeurs. Il faut encore y ajouter quelques livres de médecins – dont Michel Cymes est l’exemple le plus récent – ainsi que le succès-surprise du Charme discret de l’intestin. En termes d’essais, les Français achètent donc ce qui a trait à leur président, à leur santé et à leur poids, raccourci quelque peu saisissant de nos communes préoccupations.

En des temps anciens, avant les smartphones, dictionnaires de poche, guides et plans des routes de France, sans oublier l’incontournable Quid, constituaient année après année des best-sellers récurrents. L’accès en quelques clics à Wikipédia et au GPS ont fait basculer hors des listes de meilleures ventes les ouvrages de cette catégorie.

Le « Quid », un best-seller supplanté par l’arrivée d’Internet. Toute une génération

Les « beaux livres » se vendent assez peu en général à l’exception de La Terre vue du Ciel de Yann-Arthus Bertrand et du livre de Thomas Pesquet, il est donc visiblement judicieux de prendre de la hauteur dans cette catégorie.

Enfin, une toute petite catégorie compte des succès notables : les livres d’humour, des Ta mère d’Arthur au Journal d’une connasse.

Côté romans, des lecteurs fidèles à leurs auteurs préférés

Évidemment, les romans adultes représentent plus de la moitié des best-sellers sur l’ensemble de la période (près de 75 % pour la période 2006-2016) et, au sein de cette catégorie spécifique, les romans policiers sont, en moyenne, presque un titre sur cinq. Les plus gros vendeurs de romans en France sont bien connus. Le Da Vinci Code s’est vendu à plusieurs millions d’exemplaires en grand format et encore davantage en poche, mais Dan Brown ne doit pas faire oublier les autres auteurs qui, abonnés au succès, voient passer dans les meilleures ventes, titre après titre en grand format et en poche toutes leurs publications.

La plus ancienne et la plus résistante de ces auteurs demeure Mary Higgins Clark. Longtemps accompagnée par Patricia Cornwell, c’est maintenant Harlan Coben qui s’affiche à ses côtés dans les listes des meilleures ventes. À ces auteurs américains, il faut ajouter des Français comme Fred Vargas ou Frank Thilliez.

Enfin, vient la littérature générale pour les adultes et, là encore, c’est sans conteste l’auteur qui fait le best-seller puisque les mêmes noms reviennent année après année avec une régularité de métronome, en grand format et en poche, ce qui prouve l’attachement et la fidélité des lecteurs : c’est le cas pour Amélie Nothomb, Marc Levy, Guillaume Musso, Michel Bussi, Gilles Legardinier… À ces auteurs abonnés au succès qui semblent tellement synonyme de meilleures ventes qu’ils en feraient oublier les autres best-sellers, il faut ajouter tous les autres romanciers, à la parution certes moins régulière, qui ont, au fil du temps, également occupé les listes des meilleures ventes : Régine Desforges et la Bicyclette bleue, Paul-Loup Sulitzer, Alexandre Jardin, Jeanne Bourrin, Katherine Pancol, Paulo Coehlo, Anna Gavalda, Jean d’Ormesson, Michel Houellbecq, Héléna Ferrante, Anna Todd parmi tant d’autres.

Ils sont nombreux et leur diversité même prouve que les bonnes ventes d’un livre transcendent les jugements sur la qualité littéraire de celui-ci.

Enfin, récemment, il y eut Cinquante nuances de Grey ou l’entrée fracassante de l’érotisme féminin en haut des ventes qui sera suivi par d’autres Calendar Girl.

Parallèlement, au cours de la période la plus récente, les listes de meilleures ventes s’émaillent de romans « feel good ». On pourrait parler de romans qui « font du bien » ou de « romans de développement personnel » comme cela est le cas avec les livres de Laurent Gounelle, de Raphaëlle Giordano, d’Agnès Martin-Lugand ou d’Aurélie Valognes.

Des succès annoncés

Les best-sellers sont donc souvent des succès annoncés, c’est ce qui autorise les éditeurs à investir dans des campagnes publicitaires en sachant que cet argent sera bien placé. Ce qui permet d’anticiper une meilleure vente, sans prendre trop de risques, peut se résumer, comme nous l’avons vu, à la « recette » suivante : un auteur déjà connu pour écrire des best-sellers (le nouveau Musso), une suite (le dernier tome de L’Amie Prodigieuse, d’Harry Potter, du Le Seigneur des Anneaux, de Twilight, de 50 nuances), une adaptation cinématographique qui fait du bruit (Les liaisons dangereuses qui ont relancé les ventes du roman de Choderlos de Laclos, l’attribution du prix Nobel de littérature à un auteur français ou du prix Goncourt, la mort de l’auteur (Stephen Hawking récemment).

Plus rarement la clé du succès peut venir d’un scandale, d’une présence médiatique particulière de l’auteur ou d’un événement extérieur (on pensera à Soumission de Michel Houellebecq, à Stéphane Hessel ou Thomas Pesquet ou au passage dans les meilleures ventes du roman de Georges Orwell 1984 en… 1984). La prédiction voire la génération automatique de best-seller est toujours d’actualité et prend un nouvel essor avec l’émergence du big data.

Les succès-surprises

Pourtant, il arrive encore que le succès d’un livre soit une véritable surprise : le recueil de nouvelles d’Anna Gavalda Je voudrais que quelqu’un m’attende quelque part n’avait rien, a priori, pour devenir un best-seller : il s’agissait de la première publication d’une jeune femme (les auteurs de best-seller sont plutôt des hommes), qui publiait un recueil de nouvelles (genre quasiment absent des meilleures ventes) chez un petit éditeur (Le Dilettante). Pourtant, ce livre est resté plusieurs années dans les meilleures ventes et, ce qui peut sembler plus intéressant encore, les romans qui l’ont suivi ont également intégré les listes de best-sellers. Dans cette logique on pensera aussi à des titres comme L’élégance du Hérisson de Muriel Barbery, grand succès porté par les libraires. Très récemment, ce sont des ouvrages publiés sur des sites de fans fictions (Comme Wattpad ou Blurb) ou auto-édités qui émergent et intègrent les meilleures ventes. Citons parmi les auteurs qui publient sur ces sites E.L. James, mais aussi Anna Todd, Agnès Martin-Lugand ou Aurélie Valognes.

Anna Gavalda, ou le succès-surprise d’une « outsider ». Wikipédia, CC BY

Nous pourrions également parler ici de l’internationalisation d’une partie des best-sellers qui, pour une part non-négligeable d’entre eux s’inscrivent de plus en plus dans une logique transmédiatique (livres, films tirés du livres, autres livres tirés du film, produits dérivés allant du mug au gel douche en passant par les voyages organisés ou les pièces de théâtre). Il s’agit particulièrement de séries touchant au public jeune et donc d’une affaire à suivre.

Enfin, signalons l’existence d’un intéressant paradoxe. Aux best-sellers, il faut ajouter les long-sellers c’est-à-dire des livres qui se vendent bien mais, surtout, qui se vendent longtemps. Quand ces ventes sur le temps long s’exercent sur un grand nombre de titres, cela finit par aboutir à des auteurs discrets, voire très discrets médiatiquement et que l’on n’associe pas forcément à l’idée de best-seller mais qui, année après année sont parmi ceux qui vendent le plus de livres en France. C’est le cas de Danielle Steel et, surtout, de Françoise Bourdin.

Parmi une offre éditoriale de plus en plus pléthorique, les best-sellers constituent une part infime des titres produits mais sont sans conteste les marqueurs d’une époque. Dans les années 80-90 c’est Paul-Loup Sulitzer et ses héros machos, aventureux et cyniques prêts à tout pour conquérir pouvoir et argent qui faisaient rêver. Aujourd’hui, on se console avec des histoires d’amour qui finissent bien et on cherche le bonheur dans des romans de développement personnel…

Y’a-t-il un mécano dans la loco ? Quand l’automatisation tue le sens

24 mardi Avr 2018

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

  1. The Conversation

Y’a-t-il un mécano dans la loco ? Quand l’automatisation tue le sens

  1. Pierre Laniray

    Maître de conférences en sciences de gestion, Université de Poitiers

Région Nouvelle-Aquitaine

 

Le 29 mars 2018, deux événements distincts, organisés à quelques centaines de mètres de distance, offraient deux visions radicalement opposées de l’évolution du monde du travail. Le Collège de France organisait en effet une journée de débats sur le thème de l’intelligence artificielle, suite à la publication par Cédric Villani de son rapport de synthèse « France intelligence artificielle ».

Dans ce rapport commandé par le premier ministre, les auteurs soulignent les progrès que l’intelligence artificielle peut amener dans la société et offrent une réflexion sur la stratégie à mener pour faire de la France un acteur de premier plan dans ce domaine. Le soir même, à la Bourse du travail, Bruno Poncet, membre du bureau fédéral SUD-Rail, défendait de son côté une tout autre vision du travail et du droit des travailleurs au XXIe siècle. Son intervention ciblait tout particulièrement le statut des cheminots, dont les métiers, fortement modifiés au gré des innovations technologiques, continuent à se transformer. Pour le meilleur ou pour le pire ? Tout dépend du point de vue…

Technophiles contre technophobes ?

Ces deux évènements révèlent à quel point l’actuelle révolution digitale fait débat. Face aux menaces de destruction d’emploi (évaluées selon les études à 9 %, 15 % ou 46 %), les technophiles affirment que les individus trouveront d’autres métiers qu’on inventera pour eux. Les technophobes militent quant à eux pour un salaire à vie, qui permettra aux citoyens libérés du labeur par la machine d’œuvrer pour la Cité, sous d’autres formes.

Pourtant, le défi de cette transition est peut-être ailleurs : pendant plusieurs années encore, les individus vont devoir travailler avec des machines de plus en plus « intelligentes », réalisant des tâches de plus en plus complexes, prenant des décisions à leur place, voire leur donnant des ordres. Cette mutation ne manquera pas d’avoir des conséquences sur le sens tiré du travail. Et, par voie de conséquence, sur l’engagement des salariés dans ledit travail.

Jean Gabin dans La Bête humaine (1938), réalisé par Jean Renoir. Amazon.fr

Le train, une coévolution de l’Homme et de la machine

Le cas de l’évolution – toujours en cours – du métier de conducteur de train constitue une bonne illustration des effets de cette sorte de mutation. Au temps de la machine à vapeur s’est forgé le mythe du mécanicien conducteur, « baron du rail » en charge de dompter la bête humaine. Les salles des pas perdus des conducteurs bruissent encore d’anecdotes sur cette période vénérée du métier, sur les héros d’alors et leurs coups de frein mythiques, sur ces mécaniciens capables de dépanner leurs engins dans n’importe quelle situation et d’arriver à bon port, en toute sécurité et à l’heure malgré les avaries, dans le bruit et la fureur de leurs locomotives aussi puissantes que bruyantes. Le mécanicien entretenait un lien privilégié avec son engin, certains allant jusqu’à y apposer une plaque à leur nom. Les cycles hommes-machines étaient synchronisés, l’équipage conducteur/chauffeur partant en vacances lorsque la locomotive partait aux ateliers pour sa maintenance.

Progressivement, toutefois, les évolutions technologiques et organisationnelles ont transformé le métier. Les nouvelles procédures de roulements ont cassé le lien exclusif du mécanicien avec « sa » machine. Les motorisations électriques ont rendu superflue la présence du chauffeur. Pour surveiller la conduite du conducteur, des outils de contrôle ont été installés, tels que la VACMA, qui contraint le conducteur à maintenir les mains sur un dispositif d’appui et à le relâcher toutes les 30 secondes, afin de signaler son état éveillé. L’ensemble des opérations du conducteur sont désormais enregistrées en transmises numériquement à son manager qui peut ainsi constater tous ses micro-écarts de conduite. Reste-t-on un « baron du rail », même ainsi placé sous surveillance ?

La nouvelle génération d’engins moteur (Région 2N, Z50000, Régiolys) intègre d’autres mécanismes d’assistance à la conduite. Outre le régulateur de vitesse (dit VI pour « vitesse imposée ») qui permet au conducteur de ne pas avoir à garder le nez sur son indicateur de vitesse, les machines les plus récentes possèdent des dispositifs de freinage beaucoup plus efficients que les précédents, offrant un ainsi un meilleur confort pour les passagers. En parallèle, la gestion des incidents techniques est facilitée par la mise à disposition d’un ordinateur de bord disposant de capacités d’auto-diagnostic.

Progressivement, cette transformation a touché l’ensemble du métier. Les nouvelles modalités de freinage rendent beaucoup moins cruciales les capacités d’anticipation et de maîtrise du conducteur. Le geste métier par excellence, qui consistait à réussir l’arrêt du train en un seul coup de frein, est désormais à la portée d’un conducteur novice. La gestion de l’allure du train peut être largement confiée à l’électronique embarquée, en réglant simplement la vitesse à atteindre et à ne pas dépasser. Le KVB (contrôle de vitesse par balise) arrête automatiquement le train en cas de dépassement de vitesse ou de franchissement d’un signal d’arrêt (le feu rouge, ou « carré »).

La connaissance détaillée du fonctionnement de l’engin moteur n’est plus nécessaire, puisque l’informatique embarquée diagnostique seule les avaries et dicte au conducteur, pas à pas, les étapes de résolution de problème. Les interventions fantasques et créatives des mécaniciens bricoleurs sont désormais proscrites, la première injonction en cas d’incident – même mineur – consistant à téléphoner au centre de support. Dans le cas – fréquent – d’un bug d’origine informatique, un simple redémarrage de la machine s’avère être une solution très efficace.

Au fil des décennies, l’évolution des cabines de locomotive. De gauche à droite : train à vapeur, prototype BB 9004 (1954), BB 26000 (1988), BB 27000 (2001), Regiolis (2014). Wikimedia

Un métier profondément transformé

Tandis que sécurité, conduite et dépannage sont désormais des missions largement partagées avec la machine, que reste-t-il aux barons du rail du « métier » dont ils s’enorgueillissaient ? Certes, ce dernier est devenu plus confortable. Il se pratique dans des cabines de conduite moins bruyantes, mieux climatisées, plus ergonomiques. Mais en contrepartie, une part importante de la communauté de métier, en particulier les conducteurs les plus expérimentés, ressent une sensation de dépossession et de déqualification. « On surveille la machine qui travaille », « nous ne sommes plus que des pousse-manettes » sont des expressions récurrentes dans les salles des pas perdus. Aux commandes de leur train, bon nombre de cheminots s’ennuient ; le désengagement progresse, tout comme le ressentiment à l’égard du management. Le sentiment de dépossession et de déqualification s’avère un puissant moteur de désaffection à l’encontre du métier et de l’organisation.

La situation décrite ici renvoie à celle des révolutions industrielles précédentes qui, déjà, ont vu s’opposer technophiles et technophobes. Au début du XIXe siècle, elle se manifesta notamment au Royaume-Uni dans le mouvement des luddites, qui vit des artisans tisserands, tricoteurs et tondeurs de draps détruire des métiers à tisser introduits par leurs employeurs. Ces actes de sabotage visaient certes à défendre les intérêts d’une corporation, mais aussi son identité.

L’accélération de l’industrialisation a par la suite accru ces conflits, à mesure que la mécanisation et l’automatisation dépossédaient encore davantage les individus du contrôle sur leur travail. On trouve des réactions similaires chez certains conducteurs de train qui n’ont pas hésité, dans les premières années de déploiement, à désactiver le KVB de leurs engins, ou selon certaines légendes, à mettre au point de savants stratagèmes impliquant ressorts, tendeurs et manche de balais pour appuyer à leur place et tromper la vigilance de la VACMA.

Il ne s’agit pourtant pas ici de rejoindre cette vision trop restrictive du progrès technologique comme source d’aliénation ou d’abrutissement des travailleurs. Les études auprès d’ouvriers spécialisés montrent systématiquement l’existence de marges de manœuvre pour les acteurs, et notamment l’inventions constante de solutions de contournement pour continuer à bien travailler parfois malgré la mécanisation et les défauts qu’elle engendre.

On pourrait même dire que l’existence de contraintes constitue en elle-même une source de créativité, d’inventivité et donc d’expression de soi. Face à la routinisation de leur travail, certains conducteurs s’engagent ainsi dans de nouvelles activités, notamment l’information aux voyageurs ou la communication autour de leur métier, au micro de leurs engins ou via les réseaux sociaux.

Technologies intelligentes et perte de sens

Ce qui est mis en jeu dépasse la question du malaise cheminot. Il s’agit de réfléchir à la façon dont les acteurs humains réagissent à l’ingérence de machines dites « intelligentes » dans le travail. Car les salariés ne cherchent pas seulement, dans leur travail, une source de rétribution financière en échange d’une peine. Le rapport au travail est également émotionnel : nous connaissons tous, dans l’exercice de nos métiers, des moments de joie et de déception liés à un sentiment d’accomplissement ou au contraire de frustration face à la réalisation d’une tâche. Les situations que nous rencontrons dans le travail, qu’elles prennent place dans l’univers cloisonné d’une cabine de conduite ou dans le brouhaha collectif d’une salle de réunion, nous rattachent à notre genre professionnel, c’est-à-dire aux critères de qualité partagés au sein de la communauté de métier. Elles sont également l’occasion d’une expression individuelle, d’une affirmation de soi, de se montrer, comme l’écrit Yves Clot, « unique en son genre ».

Les technologies, en supprimant souvent aveuglément certaines de ces opportunités d’expression, imposent une recomposition identitaire des travailleurs. Elles contraignent à retrouver du sens ailleurs.

Comment accompagner la transition ?

Le rôle du management est crucial dans la transition digitale en cours. Alors que l’ensemble des travaux académiques recommande d’accorder davantage d’autonomie aux salariés (pour améliorer la qualité du travail, diminuer l’absentéisme, augmenter la motivation, etc.), les développements technologiques, qui visent à améliorer la productivité et l’efficience, menacent justement les marges de manœuvre des acteurs et font disparaître des tâches qu’ils valorisent ou apprécient. Comment dépasser ce paradoxe ? Dans son ouvrage In The Age of the Smart Machine, Soshana Zuboff, professeure à la Harvard Business School, explore une voie possible.

L’auteure y décrit deux capacités des technologies de l’information et de la communication. La première, « automating », renvoie aux effets d’automatisation, de contrôle et de déqualification évoqués plus haut. La seconde, « informating » (« informatisation »), décrit la façon dont les technologies, en apportant une aide et surtout de l’information aux acteurs, peuvent leur permettre de mieux faire leur travail. La démarche d’automatisation perçoit l’activité comme une source de gaspillage, de détournements et d’erreurs à contrôler et en sous-estime la dimension émotionnelle, créative et expressive. La démarche d’informatisation, au contraire, vise à profiter des technologies pour améliorer la qualité du travail fourni, avec le double objectif d’augmenter la satisfaction des clients mais également celle des salariés.

La tension entre ces deux approches est grande : alors que la première s’avère purement financière et productiviste, la seconde suppose une vision du monde qui considère le sens du travail et valorise le travail bien fait. Il s’agit là d’un défi majeur pour les organisations. En effet, après deux siècles d’aliénation progressive du travailleur à son travail, la question du sens n’a jamais été aussi aiguë. Sa résolution passe par une réflexion profonde sur la dimension émotionnelle du travail et sur les conditions qui permettent à chacun de bien travailler. Les conducteurs de train, confrontés quotidiennement à la difficulté de réaliser un travail de qualité, ne demandent pas autre chose.

« Artistes et robots » : vers une nouvelle définition de l’œuvre d’art

23 lundi Avr 2018

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

  1. The Conversation

« Artistes et robots » : vers une nouvelle définition de l’œuvre d’art

  1. Jean-Jacques Neuer

    Docteur en droit – Habilité à Diriger les Recherches. Avocat – Solicitor – Arbitre ICC, Université Paris 13 – USPC

Université Sorbonne Paris Cité

 

Edmond Couchot et Michel Bret, Les Pissenlits, 1990-2017, systèmes de projections variables. Edmond Couchot et Michel Bret/Grand Palais

En 1927, Brancusi fait scandale. Son « Oiseau dans l’espace » arrive au port de New York et les douanes, considérant qu’il s’agit d’un objet industriel, lui refusent le statut d’œuvre d’art. Un procès est lancé aux États-Unis. Se joue alors en justice la définition de l’œuvre d’art. On le sait, cette affaire tournera à l’avantage de Brancusi et à la reconnaissance par les américains de la spécificité de l’art abstrait. L’art s’émancipe de la représentation, en quelque sorte de l’« objet ». Aujourd’hui, il est en train de s’émanciper du « sujet ».

C’est précisément le propos de l’exposition « Artistes et robots » réalisée par Jérôme Neutres dans le cadre de l’exposition internationale au Kazakhstan « Astana 2017 », puis développée par lui en co-commissariat avec Laurence Bertrand Dorléac au Grand Palais. Il s’agit, au-delà d’une exposition, d’un véritable événement qui marque un tournant majeur dans l’approche conceptuelle de l’art. Peut-on encore qualifier d’« œuvre d’art » la production de machines qui échappe à tout contrôle ? Dès lors la question qui se pose est de savoir si l’art qui ne dépend plus pour exister ni de l’objet ni du sujet présente un critère qui permet encore de l’identifier.

Brancusi dans son atelier en 1927. Edward Steichen/The Stapleton collection

Qu’est-ce que l’art, s’il n’est même plus une création humaine ?

Une réponse possible est que l’œuvre d’art ne se définit pas par rapport à son objet ou à l’artiste mais par rapport à la personne qui la regarde. Est « art » ce qui procure une émotion artistique à celui qui contemple une œuvre. Oscar Wilde ne disait-il pas que « La beauté est dans les yeux de celui qui regarde » ? Peu importe qu’il s’agisse là de la création/production d’une personne, d’un robot, d’un ordinateur ou d’un algorithme. Cette approche fait écho à la thèse de l’écrivain Noah Harari qui dans son ouvrage Homo Deus célèbre l’avènement du big data comme valeur suprême de l’humanité de demain. L’homme n’étant plus au centre de l’univers, il n’est plus seul, non plus, au centre de la création artistique.

Une fois la question artistique, voire même philosophique résolue, reste celle du droit. Du point de vue juridique, pour des raisons qui tiennent à la fois au droit de propriété et à la notion d’originalité, critères sur lesquels repose le commerce de l’art, les choses sont plus complexes. Si une machine de manière autonome créée une œuvre d’art, à qui appartient-elle ? Au créateur du robot ? À son propriétaire ? À son utilisateur ? À l’ingénieur qui l’a programmée ? Au technicien ou au quidam qui a procédé à des réglages ? Nous ne sommes pas dans une matière analogue à la photographie où le photographe est l’artiste. Ici la conception, l’approche originale donc la création, émanent de la machine elle-même.

Du point de vue du droit de propriété, la seule issue possible serait selon nous de conférer une personnalité juridique au robot. C’est cette approche qui a prévalu lorsque le droit a reconnu aux entreprises humaines la qualité de personnes morales. La société commerciale a fait la fortune de l’économie et ce même avant le Moyen Âge. Aujourd’hui, c’est la forme imposée de la vie des affaires et il ne viendrait à personne l’idée de contester le droit de propriété d’IBM ou de Microsoft. Lorsque le robot « crée » une œuvre, il serait très complexe pour les raisons que nous avons évoquées, de déterminer la part de cette œuvre qui relève de tel ou tel intervenant. Il est bien plus simple de dire une fois pour toutes que le robot est propriétaire en tant que « personne » de ce qu’il produit, et que le robot lui-même, à l’instar d’une société détenue par un ou plusieurs actionnaires, est la propriété de personnes physiques, de personnes morales, et pourquoi pas d’autres robots.

Raquel Kogan, Reflexão #2 (2005), installation interactive avec logiciels customisés, miroirs et projection. Grand Palais

La question de l’originalité

Vendre une œuvre, c’est avant tout affirmer son originalité. Comment le droit de l’art peut-il appréhender l’œuvre créée par une machine au regard de cette exigence d’originalité ? Rappelons à cet égard que le deep learning a considérablement modifié la donne. Prenons l’exemple du programme AlphaGo. En 2016, il a été alimenté par des milliers de parties pour être en mesure de battre le grand maître du jeu de Go sud-coréen Lee Se-Dol, jusqu’à être écrasé par AlphaGo Zero, développé par DeepMind, filiale de Google.

Or ce dernier programme n’a eu comme données de départ que… les règles du jeu et a appris la stratégie en jouant pendant trois jours des millions de parties contre lui-même. Cela signifie qu’aujourd’hui, les machines peuvent créer non seulement des œuvres à la manière de mais aussi parfaitement inédites et, si l’on accepte cet adjectif pour une production non humaine, originales. C’est justement autour de cet adjectif que risque de se nouer un contentieux insoluble.

Pour éclairer cette problématique, il n’est pas inutile de remonter dans le temps, aux années 1850 et à la révolution industrielle. À l’époque, la notion d’originalité liée au caractère unique de l’œuvre d’art va être bousculée par l’apparition de la « série », du multiple. Des fonderies comme Barbedienne produisent des éléments décoratifs de toutes les tailles. Des candélabres se retrouvent ainsi à la fois sur les ponts et les fontaines de Clermont-Ferrand et de Buenos Aires. C’est la France qui invente ce modèle de démocratisation de l’art auxquels participent des sculpteurs comme Antoine-Louis Barye ou Emmanuel Frémiet. Dès 1889, Rodin lui-même multiple les tirages de ses œuvres avec Celle qui fut la Belle Heaulmière.

Recherche Google Images sur « Celle qui fut la belle Heaulmière » de Rodin. Google images

Au regard du monde préindustriel, ces œuvres sont de simples reproductions. Le droit sous certaines conditions va les appréhender comme des « originaux multiples », dès lors que le tirage est limité à 8 plus 4 épreuves d’artistes. On voit déjà apparaître, à travers cette évolution, le caractère conventionnel et non naturel de la notion même d’originalité. Au XXe siècle, on peut citer le sculpteur César qui a provoqué l’émoi en déléguant une sculpture à des presses hydrauliques. L’œuvre en tant que telle est questionnée de manière quasiment ontologique à travers des détournements dont Duchamp fut le génial précurseur jusqu’aux aspirateurs de Jeff Koons. La notion d’originalité alimente une controverse qui intervient à intervalles réguliers et doit chaque jour davantage s’accommoder de concessions et d’arrangements de moins en moins convaincants. La prochaine étape sera de s’en débarrasser complètement. Et c’est celle à laquelle nous invite précisément l’exposition « Artistes et robots ».

Nous avons en effet tendance à réfléchir à partir de conceptions erronées concernant l’art et le droit où, par méconnaissance des pratiques, nous continuons de ne croire « original » que ce qui émane de la main de l’artiste. À peine tolérons-nous qu’une œuvre multiple soit produite, mais il nous faut tout de suite nous rassurer en retrouvant la main de l’artiste à travers la notion de « moule original ». Au lieu de cristalliser une description autour d’un qualificatif comme « original », dont on voit bien qu’il est aujourd’hui obsolète, l’essentiel du point de vue juridique est de s’assurer que le public est totalement informé des caractéristiques d’un objet (unique/multiple ; anthume/posthume ; identité du fondeur ; nombre d’exemplaires ; production par un humain/un robot, etc.) et ce, afin qu’il puisse se faire une opinion subjective – original/non orignal ? – à partir d’éléments objectifs.

Après tout, est-ce bien à un juge de se prononcer sur l’originalité d’une œuvre d’art créée ou non par un robot ? Il appartient en revanche au juge de déterminer si l’acheteur a été trompé sur les qualités objectives et vérifiables d’un objet. C’est d’ailleurs l’approche du droit américain, en ce qu’il se focalise sur la notion de tromperie et d’information du consommateur, sans s’inviter dans le débat artistique sur l’originalité.

Ainsi, une œuvre comme Human Study #2.d : La grande vanité au corbeau et au renard (2004-2017) de l’artiste londonien Patrick Tresset met en scène trois robots pourvus d’un seul œil et d’un seul bras qui dessinent inlassablement un crâne humain, un renard et un corbeau empaillés. L’artiste est à l’initiative de l’installation mais il ne contrôle ni le processus créatif, ni son résultat.

De même, l’artiste portugais Leonel Moura laisse des robots concevoir eux-mêmes les formes artistiques qu’ils produisent avec Robot Art 2017.

Dès 1956, le sculpteur et plasticien Nicolas Schoffer anticipait parfaitement cette évolution et déclarait :

« Désormais le rôle de l’artiste ne sera plus de créer une œuvre mais de créer la création. »

La technique n’est qu’un moyen, et c’est finalement l’émotion qui l’emporte, qu’elle ait pour origine une intelligence humaine ou artificielle. Nous sommes témoins de l’émergence d’une nouvelle société où coexistent l’homme et la machine, où les frontières de l’humain et de la machine sont brouillées (ne le sont-elles d’ailleurs pas déjà lorsque de l’humain on exige qu’il se comporte comme une machine ?). Pourquoi ne pas solliciter des machines qu’elles soient nos sœurs en humanité à travers l’intimité qu’est la création artistique ? L’exposition « Artistes et robots » souligne une rupture, ce que François Jullien peut-être appellerait une dé-coïncidence, car à travers la remise en question de la notion d’art, c’est celle d’humanité qui est brillamment interrogée

Le management est-il pervers par essence ?

22 dimanche Avr 2018

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

The Conversation

Auteur

  1. Mathias Naudin

    Enseignant-Chercheur à l’Institut de Gestion Sociale (IGS-RH) Institut de Gestion Sociale (IGS) – Laboratoire LISPE., Propedia

Propedia

Union des Grandes Ecoles Indépendantes (UGEI)

Cet article appartient à la série « Harcèlement : paradoxes et nouvelle donne », qui fait suite à la journée sur le harcèlement organisée par l’École de Management de Normandie le 1er février 2018.


Et si aucun management, même « bienveillant », ne pouvait être humainement soutenable ? Et si la nature du management était d’être pervers, sans que les approches via les risques psycho-sociaux, la RSE ou la QVT n’y puissent rien changer ? Au contraire, même, puisqu’elles partagent le même mode de fonctionnement ?

Services publics, hôpitaux, recherche académique, vie familiale… Alors que tous les pans de la société cèdent les uns après les autres à la logique managériale, engendrant la même violence, la même souffrance, la même perte de sens, la question mérite d’être posée.

Mais si le management, omniprésent, était pervers, cela se saurait depuis longtemps, non ?

Qu’est-ce que le management ?

Il convient tout d’abord de constater que le management est récent et que la volonté qu’il traduit comme les phénomènes qu’il génère sont nouveaux. Après avoir échoué à nous rendre « comme maîtres et possesseurs de la Nature », pour reprendre la formule de Descartes, la science s’est tournée vers la société (sociologie), puis vers l’humain (psychologie). Elle s’est ensuite peu à peu retournée contre l’humain, puis contre son intimité.

Le management, comme le marketing, traduisent ce mouvement. Les organisations du travail étaient initialement dominées par les ingénieurs, orientées « process », et passaient par la [domestication des corps dans le but de rendre docile et « utilisable » ; elles sont plus tard entrées dans une logique de motivation, initiée par les psychologues et reprise par les gestionnaires, orientée « résultat/performance ». Cette logique passe par l’emprise psychique, dans le but de susciter l’adhésion volontaire et active.

Le management est au cœur de cette mue : son objectif est d’obtenir votre soumission librement consentie en vous faisant notamment intégrer les objectifs de l’entreprise comme étant les vôtres. Ainsi, le conditionnement s’ajoute-t-il au bâton (la peur) et à la carotte (l’ambition). Nous sommes d’autant plus enclins à entrer dans le jeu du management que le travail offre une opportunité de réussite sociale voire de réalisation de soi et que les échecs ou le refus de jouer sont sources a minima de marginalisation.

Le management, source de souffrance ?

Mais ce jeu a un coût. Au carrefour de quatre tendances sociétales majeures qu’il incarne parfaitement, le management repose sur la projection, la rationalisation instrumentale, l’intérêt et la réification.

Par nature orienté « objectifs », avec en ligne de mire les résultats à atteindre, le management oublie de prendre en considération ce qui est. Pour parvenir à ses fins de transformation de la vie et des individus, il rationalise le monde, le traduisant en indicateurs, chiffres, équations ou concepts opaques. Le tout sans interroger le sens des objectifs, sans tenir compte des décalages permanents entre ses mots, chiffres et ce qui se passe dans le réel. Avec toute la violence que cela induit chez les personnes, ignorées pour ce qu’elles sont…

Le management nous plonge dans un jeu de décalages et d’images, dans un monde imaginaire peuplé de discours et de mots vides (on parle de novlangue managériale), de fictions idéologiques (plus de motivation = plus de performance), d’injonctions paradoxales (où quoi que vous fassiez, vous êtes perdants), dans un environnement où le respect des règles ne permet souvent pas de bien travailler.

L’essence subjective de chaque individu est ignorée au profit de quelques indicateurs qui le résument, l’objectivent (c’est la réification), permettent les comparaisons et les évaluations. Les procédures sont, par exemple, des modes opératoires anonymes, focalisés sur certains aspects objectifs au détriment de l’essence subjective. L’exécutant est anonyme et interchangeable, coupé de son histoire, autant que la personne qui les subit.

Pour survivre ou réussir, par intérêt, les individus sont contraints ou incités à appliquer les règles du jeu. Voilà les relations humaines plongées dans des transactions intéressées, dans des stratégies de rapports de force. Nous avons tous socialement intérêt à utiliser l’autre comme ressource objectivée, sans affect, pour chercher notre satisfaction. De même, nous avons intérêt à donner l’image sociale attendue pour être promu, et pour ce faire nous nous « chosifions » également. C’est l’auto-réification, très perceptible lors d’un entretien de recrutement, par exemple.

Le manager idéal est un pervers

La perversité consiste en la destruction jouissive d’un sujet réduit à un objet fécalisé. Dans une danse qui voit se succéder des temps de séduction et de destruction, le pervers tisse sa toile. Coupé de toute histoire, de tout affect, le pervers séduit, réifie et, dans un mouvement de négation et de refus de toute altérité, de toute dignité, il cherche et obtient sa jouissance de la déchéance et de la destruction d’un individu.

De ce fait, le pervers est le manager idéal. Socialement hyper-efficace, il ne (se) pose pas de questions, est orienté objectif… Faites coïncider les objectifs (ce qui n’est pas très compliqué) et voilà, le boulot est fait ! Mais ce n’est pas tout : le management incite les individus à adopter des comportements pervers pour leur efficacité sociale, ou pour se préserver autant que possible d’un pervers. Par ruissellement et mimétisme, la perversité et son implacable efficacité se répandent.

Plus fondamentalement, le management apparaît pervers, par la systématisation du rapport à l’autre intéressé, instrumental et réifiant qu’il provoque, et par sa focalisation sur la performance attendue indépendamment des conséquences humaines. L’ironie est que nous devons volontairement et activement adhérer à ce mouvement pervers pour survivre ou réussir socialement. Heureusement, nous sommes conditionnés dès le plus jeune âge à cette adhésion, ainsi qu’à ne pas (ou peu) en voir les rouages et en sentir les effets. Voire à nier cette perversité. Comme de nombreuses victimes de pervers…

Est-il temps de réglementer le ciblage publicitaire et les entreprises qui en profitent le plus ?

21 samedi Avr 2018

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

The Conversation

Auteur

  1. David Glance

    Director of UWA Centre for Software Practice, University of Western Australia

Dans la foulée de la violation massive des données personnelles de 87 millions d’utilisateurs de Facebook, le PDG Mark Zuckerberg a répondu aux questions des politiciens américains pendant deux jours devant le Sénat américain ç puis devant la Chambre des Représentants. Ces questions portaient principalement sur la relation étroite entre le modèle commercial de Facebook, qui consiste à vendre des publicités ciblées, et la nécessité de capturer puis d’exploiter de grandes quantités d’informations personnelles de ses utilisateurs.

Si c’est gratuit, c’est vous le produit

L’équation fondamentale entre vente de publicités affichées aux utilisateurs et accès à leurs données personnelles sous-tend le commerce économique des services gratuits. Mark Zuckerberg a admis que les publicités n’étaient pas populaires

« Même si certaines personnes n’aiment pas les publicités, les gens n’aiment pas vraiment les publicités qui ne sont pas pertinentes. »

Dire que les gens n’aiment pas les publicités est un euphémisme. Pertinentes ou non, les annonces ne sont pas appréciées par grand-monde. Dans un sondage mené par le cabinet-conseil Deloitte en 2017, entre 75 % et 80 % des répondants ont utilisé au moins un type de technologie de blocage des publicités. Il ne s’agissait pas seulement d’utiliser un bloqueur de publicité sur un navigateur Web, un ordinateur ou un téléphone portable, mais aussi d’utiliser des magnétoscopes numériques ou des téléviseurs connectés pour sauter des publicités à la télévision, ou encore de payer pour la musique et la diffusion en continu de films spécifiquement pour éviter les publicités.

Malgré tout, et même si le PDG de Facebook n’a pas exclu la possibilité de mettre en place un accès payant à sa plateforme, qui permettrait à l’utilisateur de s’affranchir de la publicité, il est apparu clairement durant les auditions que le très efficace modèle d’affaires de Facebook ne sera pas remplacé de sitôt. L’exploitation des données personnelles à des fins publicitaires va donc durer.

Quelle efficacité pour ces publicités ?

Même si les publicités parviennent jusqu’aux utilisateurs sur les médias sociaux, leur efficacité est loin d’être prouvée. Son évaluation est en effet complexe, car la publicité est utilisée pour atteindre des objectifs très différents. Certaines publicités ont pour but d’accroître la reconnaissance de la marque d’une entreprise (et de ses produits) par les consommateurs. D’autres peuvent viser un un objectif spécifique, par exemple faire en sorte que les gens cliquent sur un lien vers un site Web et y achètent un produit particulier (ou décident d’aller dans un magasin physique pour y faire la même chose). La mesure de l’efficacité des publicités sera différente selon leur objectif.

Un autre facteur de difficulté pour évaluer l’efficacité d’une publicité sur les médias sociaux est que celle-ci s’inscrit généralement dans le cadre d’une campagne plus globale, qui implique d’autres canaux (vidéos sur YouTube, annonces dans les moteurs de recherche, presse écrite, radio, télévision…). Dans ce contexte, il est difficile d’analyser les bénéfices découlant d’une composante particulière.

Pour Facebook et Google, les indicateurs clés sont le nombre de personnes qui ont cliqué sur une annonce, et ce qui s’est passé après qu’un utilisateur a cliqué sur l’annonce : a-il fini par acheter le produit ? Par créer un compte ? De 1 à 2 % des utilisateurs qui voient une annonce sur Facebook cliquent dessus. Parmi ces internautes, environ 9 % concrétiseront leur clic par une action. Cela signifie que si l’annonce était montrée à 1 000 utilisateurs sur Facebook, 10 personnes cliqueraient sur elle, et une seule finirait par exécuter l’acte attendu. Compte tenu de ces chiffres, au final, cet acte coûterait 19 dollars en moyenne.

Un retour sur investissement négligeable pour les annonceurs

Parmi les plus de 5 millions d’annonceurs qui utilisent Facebook, il est absolument certain qu’un grand nombre d’entre eux ne tirent aucun bénéfice des publicités qu’ils payent et diffusent.

Étant donné que les revenus publicitaires de Facebook pour 2017 s’élevaient à 40 milliards de dollars US, leurs investissements représentent une somme massive d’argent, sans aucun avantage. Certaines entreprises se sont d’ailleurs rendu compte que la publicité sur Facebook n’apporte que des retours minimes. Dans un sondage mené auprès de petites entreprises, 62 % des répondants ont déclaré que les publicités payées sur Facebook « manquaient la cible » et n’atteignaient pas les utilisateurs qui comptaient pour leur activité.

Facebook a rencontré d’autres problèmes avec ses annonceurs. L’un des plus gros d’entre eux, Proctor et Gamble a réduit les budgets publicitaires de 750 millions de dollars au cours des trois dernières années. Cela a été en partie une réponse à ce que Proctor et Gamble considère comme des problèmes avec la publicité numérique, qui n’est contrôlée exclusivement que par deux entreprises : Google et Facebook. Ensemble, ces deux sociétés contrôlent plus de 70 % de la publicité numérique américaine aux États-Unis.

Par le passé, Facebook et Google ont déjà agacé les annonceurs pour un certain nombre de raisons. Facebook a été poursuivi pour avoir, pendant plus de deux ans, surévalué de 60 à 80 % le temps passé devant des vidéos par ses millions d’utilisateurs. L’an dernier, Google a vu les principaux annonceurs cesser de faire de la publicité sur sa plateforme YouTube, après qu’ils ont découvert que certaines de leurs annonces étaient diffusées en même temps que des contenus extrémistes et des discours haineux.

Le magazine américain New Republic a récemment publié un article de David Dayen soutenant l’interdiction de la publicité ciblée. Selon lui

« L’économie de la surveillance devrait mourir. Cette façon de faire de la publicité ne sert pas le public et il n’est même pas certain qu’elle serve les annonceurs. Elle facilite le monopole, car ceux qui ont les plus gros volumes de données reçoivent tous les dollars publicitaires. »

Il est difficile, compte tenu de toutes les preuves accumulées et du comportement antérieur de Google et de Facebook, de ne pas être d’accord avec cet argument…

Vers une prise de conscience ?

La majorité des utilisateurs n’aiment pas les annonces et feront tous les efforts pour éviter de les voir. En parallèle, de nombreux annonceurs dépensent de l’argent pour des publicités qui ne profitent pas à leur entreprise. Et enfin, pendant ce temps, l’augmentation de l’engouement pour les publicités personnalisées entraîne un besoin croissant de collecte de données personnelles…

Ce n’est qu’une question de temps avant que les gouvernements commencent à s’attaquer au problème du monopole de Google et Facebook sur la publicité. Outre leur mainmise sur la publicité numérique, les deux entreprises contrôlent déjà 25 % de toute la publicité à l’échelle mondiale !

Cette situation devient un énorme problème. Au mieux, les entreprises dépensent des milliards de dollars pour des activités qui ne profitent qu’à Google et Facebook et non à elles-mêmes ou aux économies dans lesquelles elles opèrent. Au pire, la publicité, ciblée à l’aide de données personnelles, influe sur les croyances et les actions économiques, sociales et politiques. Dans leur insatiable quête de profit, Google et Facebook ne s’arrêteront devant rien pour exploiter les données personnelles de chaque être humain.

← Articles Précédents
avril 2018
L M M J V S D
 1
2345678
9101112131415
16171819202122
23242526272829
30  
« Mar   Mai »

Stats du Site

  • 100 975 hits

Liens

  • Associations-patrimoines
  • La Fédération d'environnement Durable
  • Moelle Osseuse
  • Visite de Mirmande
avril 2018
L M M J V S D
 1
2345678
9101112131415
16171819202122
23242526272829
30  
« Mar   Mai »

Commentaires récents

Germain Ivanoff-Trin… dans La Russie, une nation en …
protodiacre dans La Russie, une nation en …
Germain Ivanoff-Trin… dans Trente ans après l’effondremen…
Le variant Delta pro… dans Avoir été malade de la Covid-1…
Le variant Delta pro… dans Avoir été malade de la Covid-1…

Propulsé par WordPress.com.

  • Suivre Abonné
    • Mirmande PatrimoineS Blogue
    • Rejoignez 168 autres abonnés
    • Vous disposez déjà dʼun compte WordPress ? Connectez-vous maintenant.
    • Mirmande PatrimoineS Blogue
    • Personnaliser
    • Suivre Abonné
    • S’inscrire
    • Connexion
    • Signaler ce contenu
    • Voir le site dans le Lecteur
    • Gérer les abonnements
    • Réduire cette barre