• Actualités régionales
    • Communes limitrophes
    • Régionales
  • Adhésion
  • André Lhote
  • Au-delà du 14 juillet, des interrogations tenaces sur l’usage des armées
  • Auteurs morts en 17, (déjà…)
  • BD « Sciences en bulles » : À la recherche des exoplanètes
  • Bonnes feuilles : Le château d’If, symbole de l’évasion littéraire
  • Comment la lecture enrichit l’éducation des enfants
  • Corruption, contrebande : le drame de Beyrouth et la question de la sécurité dans les zones portuaires
  • Des crises économiques à la crise de sens, le besoin d’une prospérité partagée
  • Evènements
  • Lecture : comment choisir un album qui peut vraiment plaire aux enfants
  • L’économie fantôme de l’opéra
  • L’Europe s’en sortirait-elle mieux sans l’Allemagne ?
  • Maladie de Lyme : attention au sur-diagnostic !
  • Mirmande
    • Pages d’histoire
    • AVAP et PLU
    • Fonds de dotation et patrimoine
  • NutriScore : quand l’étiquetage des aliments devient prescriptif
  • Penser l’après : Le respect, vertu cardinale du monde post-crise ?
  • Podcast : le repos, une invention humaine ?
  • Prévoir les changements climatiques à 10 ans, le nouveau défi des climatologues
  • Qui sommes-nous?
  • Réforme de la taxe d’habitation… et si la compensation financière n’était pas le seul enjeu ?
  • Revues de presse et Chroniques
  • S’INSCRIRE AU BLOGUE
  • Scène de crime : quand les insectes mènent l’enquête
  • The conversation – Changement climatique : entre adaptation et atténuation, il ne faut pas choisir
  • Une traduction citoyenne pour (enfin) lire le dernier rapport du GIEC sur le climat

Mirmande PatrimoineS Blogue

~ La protection des patrimoines de Mirmande.com site

Mirmande PatrimoineS Blogue

Archives Mensuelles: janvier 2019

Qui sont ces grands groupes français qui financent les entreprises innovantes ?

31 jeudi Jan 2019

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

The Conversation

  1. Sabrina Khemiri

    Enseignant-Chercheur en Finance, Pôle Léonard de Vinci – UGEI

  2. Souad Brinette

    Enseignant chercheur en Finance, EDC Paris Business School – OCRE

Pôle Léonard de Vinci

Union des Grandes Ecoles Indépendantes (UGEI)

 

En 2016, l’investissement dans le capital-risque industriel a atteint 2,7 milliards d’euros. Frank_peters / Shutterstock
 

Cet article s’appuie sur le travail de recherche de Souad Brinette et Sabrina Khemiri « Identifying the determinants of corporate venture capital strategy : evidence from French firms », à paraître dans la revue « International Journal of entrepreneurship and Small business » (2019).


Dans un environnement de plus en plus compétitif, les grands groups se tournent vers le financement des startups de leur écosystème pour renforcer leur capacité d’innovation. Cette démarche connue sous le nom de capital risque industriel (CRI), ou corporate venture capital (CVC) en anglais, est une stratégie entrepreneuriale, menée à l’extérieur des grands groupes, qui consiste à créer des fonds d’investissement pour financer des startups innovantes.

Aujourd’hui, cet engagement dans le capital-risque ne cesse d’augmenter. En 2015, 40 % des entreprises du CAC 40 possédaient des fonds de capital-risque. En 2016, l’investissement dans le CRI a atteint 2,7 milliards d’euros contre 1,5 milliard d’euros en 2015 et seulement 289 millions d’euros en 2013. Cette augmentation a été favorisée par le dispositif d’incitation fiscale adopté en septembre 2016 qui permet notamment aux grands groupes d’amortir sur une durée de cinq ans le montant de leurs prises de participation au capital de startups et de réduire par conséquent leur impôt.

Dans cette même optique, Marc Rennard, CEO d’Orange Digital Ventures, le fonds créé par Orange, a déclaré que :

« L’année 2017 avait confirmé le dynamisme des CVCs européens, et français en particulier, avec une croissance de 38 % du nombre de transactions. C’est une manifestation claire de l’intérêt soutenu que portent les grands groupes aux startups, acteurs clefs de l’innovation ».

Il faut également souligner que le capital risque industriel est plus générateur d’innovations que les modèles traditionnels de joint-venture (partenariat) (Chemmanur et coll., 2014). De nombreux groupes français l’ont bien compris, à l’image de Bouygues, Total, Airbus, Engie, ou encore Air Liquide, qui ont tous créé leur fonds de capital-risque.

blog.lehub.bpifrance.fr

Le CRI dépend des ressources spécifiques des entreprises

Notre étude est menée sur un échantillon composé de toutes les entreprises françaises du SBF 120 qui ont mené une stratégie de capital risque industriel entre 2000 et 2017. L’échantillon a été constitué manuellement à partir des rapports d’activité, des rapports de Deloitte et des sites Internet de Chausson Finance, de Bpifrance et de l’Association française des investisseurs pour la croissance (AFIC). Les données financières ont été recueillies à partir des bases Thomson One Banker et Bloomberg.

L’objectif de l’étude était de pouvoir identifier les caractéristiques des entreprises ayant mené une stratégie de capital risque industriel. Il en ressort notamment que les opérations de CRI dépendent des ressources spécifiques dont disposent les entreprises – – notamment cognitives –, de leur performance, de la disponibilité de leurs ressources, et de leur niveau d’endettement :

Des entreprises disposant d’importantes ressources cognitives

Les grands groupes qui se lancent dans des opérations disposent généralement d’importantes ressources cognitives telles que les compétences et les connaissances spécifiques, le savoir-faire des managers, la bonne réputation et l’image de marque de l’entreprise. Ces connaissances vont en effet leur permettre d’identifier la meilleure approche de création de valeur en investissant dans les startups soigneusement sélectionnées pour stimuler l’innovation et donc se forger des avantages concurrentiels.

Des entreprises performantes

Les entreprises qui mènent des stratégies de CRI sont généralement performantes car ce sont les plus capables à supporter les coûts liés au CRI. À noter aussi : investir dans des startups innovantes minimise les éventuels conflits d’intérêts entre les managers et les actionnaires au sujet des ressources excédentaires (free cash-flow, flux de trésorerie disponible).

Investir dans une start-up innovante peut permettre d’apaiser d’éventuelles tensions entre managers et actionnaires.Bernad/Shutterstock

Des entreprises peu endettées

Nous avons également relevé que les grands groupes les moins endettés sont ceux qui investissent le plus dans les jeunes entreprises innovantes. Un niveau d’endettement faible signifie en effet que l’entreprise dispose d’une bonne flexibilité financière lui permettant d’investir dans l’innovation.

Apprendre d’autres expériences

Les résultats de notre étude constituent des orientations générales pour les managers ayant l’intention d’adopter une stratégie de CRI. Les managers peuvent, ainsi, observer si leurs entreprises ont les mêmes caractéristiques que leurs homologues et évaluer au préalable leur capacité à se lancer dans des opérations de CRI.

Il serait ainsi bénéfique pour les managers d’apprendre des expériences d’autres entreprises ayant fait du CRI dans divers secteurs d’activité, notamment les secteurs de software (Dassault Systèmes), de la chimie (Solvay et Saint-Gobain), de l’énergie (Alstom, Suez Environnement, Total, et Veolia Environment), et de télécommunications (Bouygues Telecom, Orange, SFR, et Nokia).

Réforme du lycée : un avantage singulier pour les langues et cultures antiques

30 mercredi Jan 2019

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

The Conversation

Réforme du lycée : un avantage singulier pour les langues et cultures antiques

28 janvier 2019, 21:38 CET

Auteur

  1. Claude Lelièvre

    Enseignant-chercheur en histoire de l’éducation, professeur honoraire à Paris-Descartes, Université Paris Descartes – USPC

Université Sorbonne Paris Cité

Université Paris Descartes

 

D’après les dispositions prise par la réforme du lycée, l’option “latin” pourra toujours rapporter des points bonus au bac. Shutterstock

Dans la version initiale de la réforme du lycée, toutes les « options » choisies en terminale, comme l’éducation musicale, les arts plastiques, le latin ou le grec, perdaient le bénéfice des points bonus qu’elles rapportaient jusque-là au baccalauréat, et leur évaluation était intégrée au contrôle continu.

Un arrêté publié au Journal Officiel le 25 janvier 2019 vient pourtant de donner un avantage singulier aux « langues et cultures antiques » :

« Les points excédant 10 sur 20 de l’évaluation des résultats de l’élève au cours du cycle terminal pour chaque enseignement optionnel “Langues et cultures de l’Antiquité”, retenus et multipliés par un coefficient 3, s’ajoutent à la somme des points obtenus par le candidat à l’examen. »

Cette exception avait été annoncée le 29 septembre 2018 par Jean‑Michel Blanquer dans une interview au Journal du dimanche. Le ministre de l’Éducation nationale avait justifié cela d’une façon pour le moins étonnante en y voyant « un élément de justice sociale et d’intégration ». Un argument (fondé) ?

Un choix orienté socialement

Selon une note de la Direction de l’évaluation, de la prospective et de la performance parue en 2015 et donnant les résultats d’une étude menée par la DEPP qui a suivi un panel de 35 000 élèves entrés en classe de sixième en 2007, l’étude du latin concerne 44 % des enfants d’enseignants et 39 % des enfants de cadres mais seulement 15 % des enfants d’ouvriers.

Ensuite près de 20 % des élèves qui avaient commencé le latin en cinquième l’ont abandonné en classe de quatrième. Un autre pic d’abandon intervient en classe de seconde, et le nombre de latinistes en terminale se situe à moins de 5 %. In fine, un enfant d’ouvrier non-latiniste n’a que 5 % de chances d’être en terminale scientifique, contre une probabilité de 50 % pour un enfant latiniste de cadre ou d’enseignant. Parmi les lycéens candidats à l’un des baccalauréats généraux en 2014, ceux qui ont continué le latin sont ceux qui obtiennent le plus souvent des mentions « bien » ou « très bien ».

À vrai dire, l’exception accordée dans la prise en compte des points au bac relèverait plutôt d’un certain « bricolage » pour tenter d’enrayer (un peu) le processus en « peau de chagrin » qui affecte depuis longtemps les lettres classiques.

Dans un passé qui paraît maintenant très lointain, le latin (et le grec) étaient incontournables et centraux. Au milieu du XIXe siècle, dans l’enseignement secondaire classique (le seul secondaire qui existe alors, réservé de fait à moins de 1 % des garçons), un lycéen, en suivant un cursus complet de la sixième à la terminale, passe 40 % de son temps en latin et grec (deux fois plus en latin qu’en grec), 13 % en français, 11 % en histoire-géographie, 11 % en mathématiques et en sciences, 8 % en langue vivante.

Un recul dans les programmes

Des moments cruciaux ont jalonné le recul progressif (et plus que séculaire) du latin dans les cursus du secondaire. On peut en rappeler quelques-uns. En 1880, Jules Ferry reporte le début de l’apprentissage du latin à la classe de sixième, alors qu’auparavant son enseignement commençait deux ans plus tôt, dès les classes élémentaires des lycées et collèges.

La réforme de 1902 (sous un gouvernement de « gauche républicaine ») institue « la diversification de la culture secondaire normale ». Après un premier cycle classique (où le grec est introduit à titre facultatif en quatrième et troisième), trois sections se distinguent en seconde : une section latin-grec (A), une section latin-langues (B), une section latin-sciences (C) ; mais il existe désormais en outre une section moderne dite langue-sciences (D) qui succède, elle, à un premier cycle sans latin.

Léon Bérard (ministre de l’Instruction publique dans un gouvernement issu de la Chambre de droite « bleu horizon »), supprime cette section moderne par le décret du 3 mai 1923. Mais elle est immédiatement rétablie à la suite de la victoire du « bloc des gauches » aux élections législatives de 1924.

Mais le coup final – le coup de grâce pour beaucoup de tenants des humanités classiques – c’est la décision du ministre de l’Éducation nationale Edgar Faure de reporter en classe de quatrième le début de l’apprentissage du latin à partir de la rentrée 1968. En juin 1969, Georges Pompidou (un agrégé de lettres classiques) est élu Président de la République. Il écarte Edgar Faure et il nomme Olivier Guichard à la tête du ministère de l’Éducation nationale. Beaucoup croient que les mesures décidées par Edgar Faure vont être reportées.

Mais quelques jours seulement après sa nomination, Olivier Guichard crée la surprise :

« J’ai repris en le modifiant et en le complétant un arrêté qui avait été signé par M. Edgar Faure. Une augmentation de l’horaire de français de la classe de cinquième permettra de donner à tous les élèves une initiation au latin, notamment par le biais de l’étymologie. Je suis assuré que cette mesure est plus favorable aux options de latin en quatrième que l’étude du latin sous forme pure et simple d’option en classe de cinquième. »

Une culture latiniste « extensive »

François Bayrou, un ancien professeur de lettres classiques qui devient ministre de l’Éducation nationale en avril 1993, décide qu’à partir de la rentrée 1996, les élèves pourront choisir une option latin dès leur entrée en cinquième. Les instructions officielles qui définissent les programmes de cette réforme indiquent que

« notre civilisation et notre langue héritent des cultures et des langues de l’Antiquité ; l’apprentissage des langues anciennes a donc pour but de retrouver, d’interroger et d’interpréter dans les textes les langues et les civilisations antiques pour mieux comprendre et mieux maîtriser les nôtres dans leurs différences et leurs continuités ».

Le pourcentage d’élèves qui étudient le latin est d’environ 22 % en cinquième, 16 % en troisième, 6 % en seconde, 4,5 % en terminale tout au long de ce début du XXIe siècle (avec un pourcentage de variation n’excédant pas 1 %). On est passé d’une culture latiniste intensive au XIXe siècle à une culture latiniste extensive au XXIe siècle. Le nombre de latinistes n’a jamais été aussi important (en raison notamment du passage de tous au collège et de la massification du second cycle du secondaire), mais le rôle relatif du latin (et du grec) n’a cessé de diminuer.

La réforme du collège menée en 2015 par Najat Vallaud-Belkacem a été à cet égard le dernier avatar de ce long processus (mais non des moindres). Et l’on n’est guère revenu réellement dessus sous le ministère de Jean‑Michel Blanquer. D’où cette « exception singulière » pour le latin et le grec qui peut sans doute être prise en quelque sorte pour un « palliatif »- plus que pour une mesure de « justice sociale et d’intégration »…

L’éducation aux médias, une nécessité ?

29 mardi Jan 2019

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

 

The Conversation

  1. Laurence Corroy

    maître de conférences HDR, Université Sorbonne Nouvelle, Paris 3 – USPC

Université Sorbonne Paris Cité

Université Sorbonne Nouvelle, Paris 3

 

Loin de se résumer à des grilles théoriques, l’éducation aux médias repose sur de nombreuses mises en situation. Shutterstock
 

Apprendre aux élèves à identifier les sources d’une information, à repérer une vidéo truquée, ou leur faire découvrir le processus de fabrication d’un journal : autant d’actions liées à cette éducation aux médias dont les responsables politiques et le grand public se préoccupent de plus en plus alors que l’actualité s’accélère et que les « fake news » déferlent sur Internet. Mais que recouvre vraiment cette éducation ? Quels en sont les fondements ?

C’est dans la seconde moitié du XXe siècle qu’elle s’est progressivement formalisée. Après avoir expérimenté l’éducation par les médias, en se servant d’articles ou reportages vidéo comme supports pédagogiques, afin d’illustrer les disciplines enseignées, les enseignants ont pris la mesure de la nécessité d’étudier les médias pour eux-mêmes. Les rencontres internationales sous l’égide de l’Unesco ont dans un premier temps cherché à la définir, à encourager la recherche scientifique de ce nouveau champ et à convaincre les décideurs de son importance.

Lors d’un symposium organisé en 1982, une déclaration des pays représentés acte le fait que les médias représentent un élément important de la culture contemporaine et que leur fonction instrumentale, visant à favoriser la participation active des citoyens, est à prendre en compte. Un appel est alors lancé pour développer des programmes permettant de comprendre et d’analyser les phénomènes de communication, du premier degré au supérieur.

Des compétences civiques et techniques

Bouleversant le rapport au savoir et à l’information, l’arrivée d’Internet fait naître de nouvelles inquiétudes. Saisis par l’urgence de penser l’éducation aux médias alors que la société bascule vers le numérique, le Conseil de l’Europe et la commission européenne ont multiplié depuis une quinzaine d’années les recommandations à leurs États membres afin que chaque pays introduise l’éducation aux médias dans son cursus scolaire.

L’Union européenne la définit comme

« une expression étendue qui englobe toutes les capacités techniques, cognitives, sociales, civiques et créatives qui permettent à tout citoyen d’avoir accès aux médias, de faire preuve d’esprit critique à leur égard et d’interagir avec eux ».

En France, elle est présente depuis 2006 dans le socle commun des connaissances que tous les élèves sont censés maîtriser à la fin du collège. Inscrite dans la loi de refondation de l’école en juillet 2013, elle se voit assigner comme objectif

« de permettre aux élèves d’exercer leur citoyenneté dans une société de l’information et de la communication, former des “cybercitoyens” actifs, éclairés et responsables de demain ».

Elle est présente dans le parcours citoyen, avec l’enjeu « d’apprendre aux élèves à lire, à décrypter l’information et l’image, à aiguiser leur esprit critique, à se forger une opinion, compétences essentielles pour exercer une citoyenneté éclairée et responsable en démocratie ».

Elle apparaît aussi en pointillés dans les cinq domaines du nouveau socle commun des connaissances mis en application en septembre 2016. L’élève doit connaître les principes de base des algorithmes et les fins des langages informatiques. Il est aussi question du traitement de l’information et sa hiérarchisation, le fonctionnement des médias et de leurs enjeux, la production de contenus, la culture numérique, la gestion éthique des réseaux sociaux et de l’identité numérique…

Des attentes importantes

L’enjeu paraît d’autant plus crucial que la fréquentation assidue par les jeunes des médias de masse inquiète tout autant qu’elle intéresse une pluralité d’acteurs aux intérêts divergents. Les médias de masse étant devenus incontournables dans les pratiques culturelles des jeunes générations, il existe un large consensus pour que l’école s’y intéresse, en proposant leur étude : ce qu’ils sont, les messages qu’ils véhiculent, le système marchand dans lequel ils s’insèrent…

Pour autant, le choix de faire de l’éducation aux médias un enseignement transversal peut la fragiliser car cela repose largement sur l’engagement des enseignants qui n’ont pas obligatoirement reçu un enseignement spécifique et peuvent se sentir démunis ou insuffisamment formés. L’attente est immense lorsqu’il s’agit de trouver les mots en face d’élèves traumatisés, tout en gérant ses propres émotions, à chaud, lors d’événements dramatiques qui déchirent le temps social et médiatique.

La recherche française, pourtant active, souffre d’un manque cruel de postes de professeurs en université, ce qui freine la formation de jeunes doctorants.

Enfin, l’éducation aux médias, par sa volonté de forger l’esprit critique des élèves, est parfois mise en question : elle pourrait même, dit-on, contribuer à faire douter de tout. La tentation serait alors, pour les plus jeunes, de mettre au même niveau les sources journalistiques et les théories du complot qui circulent sur le Net.

« Learning by doing »

Pour éviter ce dernier écueil, il est crucial d’allier dans les classes l’analyse des messages médiatiques à une pratique créative, de la maternelle à l’université. C’est en manipulant textes et images, en réalisant des journaux, des expositions, des reportages, ou des blogs que les élèves vont comprendre les contraintes techniques et les exigences éthiques qui accompagnent tout travail médiatique de qualité.

Faire réaliser un journal aux élèves les sensibilise aux contraintes de l’information.

Le piège ouvert par le concept des « digital natives » est de penser que les nouvelles générations des élèves se forment sans difficulté au cybermonde. Elles ont, en réalité, besoin d’un accompagnement de fond que seule l’école peut leur apporter.

L’éducation aux médias se pose comme une éducation totale au sens de Rousseau, car elle cherche avant tout à faire des êtres libres. Capables d’exercer leur esprit critique face à tous les messages médiatiques… Il est temps que les pouvoirs publics en prennent toute la mesure.

Certains collèges organisent même des journaux télévisés “grandeur nature”.

Quel sera le rôle des sites Internet des communes dans le grand débat national ?

28 lundi Jan 2019

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

The Conversation

  1. Sabine Chaupain-Guillot

    Maître de conférences en économie, actuellement Vice-Présidente formation et insertion professionnelle, Université de Lorraine

  2. Amel Attour

    Maître de Conférences, (CNRS) Membre associée du Bureau d’Economie Théorique et Appliquée (BETA), Université de Lorraine

Université de Lorraine

 

Panneau “Ville internet” (Rosny-sous-Bois, 2016). La présence de site internet dans les communes n’est pas systématique. Chabe01/Wikimedia, CC BY-SA

S’il est encore trop tôt pour savoir qui seront les personnes qui vont le plus participer au grand débat national, il est en revanche possible de savoir quelles communes sont potentiellement les mieux dotées, d’un point de vue outils numériques, pour inciter ou permettre à ses administrés d’y prendre part. En effet, dans la mesure où les maires ont été largement mis à contribution et que le débat doit aussi se dérouler via Internet, on peut noter que certaines communes sont en mesure d’inscrire ce débat en tant que nouvel item sur leur site Internet, tandis que d’autres n’ont pas ce moyen à leur disposition.

Ainsi, si, comme on peut s’en douter, le fait d’avoir mis en place un site Internet, ce que l’on qualifie de démarche de mise en place de l’e-gouvernement, dépend de la taille de la commune, d’autres facteurs interviennent.

Le poids de la fracture numérique

Pour étayer ce propos, nous nous appuierons ici sur le cas des communes du Grand Est et des communes de Bourgogne-Franche-Comté. Ainsi, que ce soit dans le Grand Est ou en Bourgogne-Franche-Comté, ce sont environ 30 % des communes qui ont déjà mis en place un site Internet. De manière générale, dans les communes du Grand Est, c’est le poids de la fracture numérique qui apparaît le plus déterminant, tandis que dans les communes de Bourgogne-Franche-Comté, c’est la position géographique qui semble jouer le plus grand rôle comme le montre notre étude récente à ce sujet. On voit ainsi que selon le lieu de résidence, la possibilité de s’inviter dans le grand débat national via le site Internet des communes diffère.

Plus précisément, c’est dans les zones rurales, a priori les plus concernées par la plupart des problématiques soulevées par le débat, que cette option s’avère la moins probable.

En 2004, certaines communes dites en « zones blanches » prenaient en main leur connectivité à Internet. En 2018, d’autres semblent toujours à la peine. Quel sera l’impact sur la mobilisation dans le grand débat ? Georges Gobet/AFP

Toutefois, la proportion de communes ayant accompli cette démarche varie assez sensiblement d’un département à l’autre.

Dans le Grand Est, ce sont les deux départements alsaciens qui présentent les taux les plus élevés, avec un peu moins de trois quarts des communes concernées dans le Bas-Rhin et un peu moins de 60 % d’entre elles dans le Haut-Rhin. Deux départements lorrains, la Moselle et la Meurthe-et-Moselle, ainsi que la Marne ont une position intermédiaire (entre 26 et 38 % des communes proposant un site). En revanche, la part de communes disposant d’un tel site est inférieure à 17 % (soit moins d’environ une commune sur six) dans les autres départements (par ordre décroissant, Vosges, Aube, Meuse, Ardennes et Haute-Marne).

Où se situent les communes du Grand Est qui disposent d’un site Internet ? E-gouvernement dans les communes du Grand Est (2013-15). Calculs des auteurs. Sabine Chaupain-Guillot, Amel Attour, Author provided

En Bourgogne-Franche-Comté, la part des communes concernées passe du simple au double, avec un peu moins de 20 % de communes équipées en Franche-Comté, contre un peu plus de 40 % en Bourgogne. On trouve également de fortes disparités au niveau des départements. Ainsi, si plus de la moitié des communes de la Saône et Loire disposent d’un site Internet, ce sont moins d’une commune sur sept qui ont réalisé cette démarche en Haute-Saône. Ce taux n’est guère plus élevé dans le Jura (avec moins d’une commune sur six concernée). Si la Côte d’Or et la Nièvre présentent des taux proches de celui de l’ensemble de la région, le taux d’équipement des communes de l’Yonne et du Territoire de Belfort se situe 10 points au-dessus, tandis que celui des communes du Doubs se trouve 10 points en-dessous.

Localisation des sites Internet communaux au sein de la région Bourgogne-Franche-Comté, E-gouvernement dans les communes de Bourgogne-Franche-Comté (2015-17). Sabine Chaupain-Guillot, Amel Attour, Author provided

Un accès au haut débit disparate

Ces résultats apparaissent en très forte corrélation avec le niveau de couverture numérique de ces communes, mesuré en termes de part de locaux ayant un accès haut ou très haut débit. Selon le niveau de débit, l’usager peut par exemple avoir accès à des films en streaming ou au jeu en réseau. Il apparaît que les communes alsaciennes et mosellanes sont nettement mieux pourvues que les communes meusiennes. Ainsi, parmi les 187 communes du Grand Est dont la part de locaux ayant accès à 100 Mbits ou plus est supérieure à 80 %, 86 sont situées en Moselle, 51 dans le Bas-Rhin et 34 dans le Haut-Rhin. Les autres se répartissent entre la Meurthe-et-Moselle (11 communes), les Vosges (4 communes) et la Marne (une seule commune).

En revanche, aucune commune des départements de la Meuse, des Ardennes, de l’Aube et de la Haute-Marne ne se trouve dans cette situation. Il en est de même en Bourgogne-Franche-Comté, où l’on observe une liaison positive entre le niveau de couverture des communes en Internet très haut débit et le choix qu’ont fait les communes de mettre en place un site Internet ou non. Autrement dit, on observe que là où les communes sont mieux équipées en termes d’accès à Internet haut débit, les mairies ont davantage eu tendance à créer leur propre site Internet.

Ainsi, il est possible d’accéder à un débit supérieur à 8 Mbits dans un peu plus de la moitié des logements et locaux professionnels des communes ayant mis en place un site Internet, tandis que cela n’est possible que pour un tiers des logements des communes n’ayant pas encore développé leur site Internet.


À lire aussi : La « start-up nation » : un symptôme, mais de quoi ?


Dans ces communes, il n’est pas possible de disposer d’un accès Internet supérieur à 30 Mbits dans près de 9 locaux sur 10. Ce résultat, en contradiction avec l’objectif French Tech affiché par le gouvernement, peut aussi peut-être expliquer, en partie, les frustrations exprimées par certains membres des gilets jaunes, qui se disent oubliés par les politiques publiques.

Des contenus de site très variables

Toutefois, si disposer d’un site Internet est un préalable pour s’inscrire dans la partie du grand débat qui sera menée sur Internet, l’ajout de cet item sur les sites Internet des communes ne se fera a priori pas avec la même ardeur selon les communes.

En effet, les contenus des sites Internet des communes sont très variables.

Selon une classification des services en six domaines : e-administration centrale, e-administration locale, vie locale, e-information, e-démocratie et réseaux sociaux, on constate que c’est le domaine de l’e-démocratie (dans lequel se retrouvent l’organigramme de la mairie, l’agenda du Conseil Municipal, mais aussi les informations relatives aux élections) qui est le plus représenté (dans près de la moitié des sites).

Site Internet de la mairie de Montigny-la-Resle (590 habitants) située dans le département de l’Yonne en région Bourgogne-Franche-Comté. Mairie, CC BY

On trouve ensuite tout ce qui concerne la vie locale (avec les associations, la collecte et le recyclage des déchets, mais aussi les archives municipales, la santé et les urgences ou encore la bibliothèque municipale), dans un peu près un tiers des sites.

Viennent ensuite l’e-administration centrale et l’e-administration locale, ainsi que l’e-information : tourisme, accès à la ville, plan local d’urbanisme (entre 18 et 30 % des sites).

Les items relatifs aux réseaux sociaux (Twitter, Facebook ou Instagram) sont beaucoup plus rares (présents dans moins de 10 % des sites, en moyenne).

View image on Twitter

View image on Twitter

Strasbourg.eu

✔@strasbourg

[A noter cette semaine 📣]
On vous facilite la ville cette semaine avec des infos sur:
➡️ Conseil Municipal
➡️ Continuité de la cellule psy post attentat
➡️ Inscription électorale
Et bien plus encore ⬇️⬇️https://www.strasbourg.eu/-/a-noter-cette-semaine-circulation-travaux-services-publics-evenemen-2 …

4

4:33 PM – Jan 21, 2019
See Strasbourg.eu’s other Tweets
Twitter Ads info and privacy

D’après nos recherches, les communes dans lesquelles se sont développés les sites Internet ont une population dont la part des personnes qui y exercent une profession intellectuelle supérieure y est plus importante, tandis que la proportion d’agriculteurs y est plus faible.

Corrélativement, on y trouve davantage de personnes ayant un diplôme universitaire et le revenu médian y est significativement plus élevé. En revanche, il n’y a pas de différence significative dans la distribution de la population selon l’âge.

Quelle place au « grand débat » sur ces sites ?

Partant de ces constats empiriques, plusieurs questions se posent. Allons-nous assister à une réorientation des stratégies adoptées par les communes en matière de type de services mis en place sur leur site Internet ?

Par ailleurs la question se pose de savoir dans quel cadre le grand débat doit-il s’inscrire ? Relève-t-il de l’e-démocratie et va-t-il trouver une place importante dans les sites des communes ?

Sur les sites que nous avons pu observer, les forums de discussions sont assez peu développés (moins d’un site sur dix). Nous pouvons imaginer que la mise en place du grand débat national va accentuer le développement de cette fonctionnalité pour les communes qui souhaiteraient s’y engager.

À moins que, comme cela est le cas pour le mouvement des gilets jaunes, l’usager ne se tourne directement vers les réseaux via son téléphone ou sa connexion personnelle.

Quoi qu’il en soit, le fait qu’un site Internet n’ait pas été mis en place dans toutes les communes françaises devrait avant tout alerter sur les disparités géographiques existantes et continues entre les territoires.

Où est le pôle Sud ? Pourquoi le champ magnétique ne se tient pas tranquille

27 dimanche Jan 2019

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

The Conversation

  1. Jean Louis Vigneresse

    Géophysicien, Université de Lorraine

Université de Lorraine

 

Observatoires scientiques au pôle Sud. Ice stories, CC BY
 

Le shutdown bouleverse… jusqu’aux champs magnétiques de la planète. L’arrêt de l’activité de la fonction publique aux États-Unis, résultat du bras de fer entre Donald Trump et la Chambre démocrate a eu, entre autres conséquences, le report d’une réunion prévue pour le 9 janvier et la publication du modèle magnétique global (World Magnetic Model). Vous pensez : quelle importance ? Hormis un peu de temps perdu pour les géophysiciens… Et bien, pas du tout ! Tout le monde est concerné. Chacun est susceptible d’être gêné dans ses déplacements, en raison de la géolocalisation par les téléphones portables. De là à justifier votre retard au déjeuner dominical par une volonté délibérée du Président des États-Unis, ce sera à vous d’argumenter.

Explication. Notre terre possède quatre pôles : deux pôles géographiques, le nord et le sud, qui définissent sa rotation ; et deux pôles magnétiques, indépendants des premiers. L’aiguille aimantée de la boussole a du mal à les déterminer car ils se déplacent avec le temps. C’est une chose connue par tout scout ou randonneur au moment de s’orienter sur une carte géographique avec sa boussole. L’histoire de James Clark Ross, un farouche Canadien qui a organisé une expédition en 1831 dans l’Arctique, et ce qui a suivi, en témoigne.

Changement d’hémisphère

À l’époque, on pouvait y aller à pied sec, ou presque. Le pôle magnétique était alors situé dans la presqu’île de Taloyoak, à 2 degrés environ, soit 200 km, au Sud de Fort Ross, dans le territoire du Nunavut (soit (70.70, -95.82)). Le pôle se déplace, lentement, vers le Nord. En 1960, déplacement d’environ 500 km en 130 ans : il est proche de Resolute Bay (soit aux alentours de 75.20, -99.23). Et le mouvement continue. Au début des années 2000, le pôle est en plein Océan Arctique. Et surtout, tout s’accélère. En 2001, il est à 81° 18’ N, 110° 48’O, qui deviennent 86°05’N, 172°06’O en 2017. Le déplacement qui était d’environ 15 km/an, passe à 55 km/an. Il se rapproche du pôle géographique. Ce qui fait qu’il passe la ligne internationale de changement de jour en 2018, passant dans l’hémisphère est.

Le pôle Nord géographique est figuré par l’épingle verte, le pôle magnétique par la rouge.Google//aviation.stackexchange.com, CC BY

Et le pôle Sud ? Bien entendu, il se déplace aussi. En 1841, James Ross avait monté une expédition sur place avec deux navires, l’Erebus et le Terror. Il découvrit la mer de Ross, le volcan Erebus et la grande barrière de glace. Hélas l’obstacle représentée par cette dernière lui interdit d’aller plus au sud, à terre. Il abandonna alors son ambition d’avoir planté son drapeau sur les deux pôles. Lors de ce premier voyage, la position du pôle est estimée à 75° 05’, 154° 08’. Il faut attendre l’expédition de Dumont D’Urville en 1840 pour atteindre la Terra Adélie, baptisée ainsi en l’honneur de sa femme, et une nouvelle estimation de la position du pôle Sud : 73° 20’ et 146°.

En 1957 le pôle est encore en Terre Adélie. C’est l’année géophysique internationale. Trois hommes séjournent pendant un an à la base Charcot, à 2 400 m d’altitude et 340 km de la côte. Parmi eux Claude Lorius, Roland Schlich et Jacques Dubois. Ils passent une année compète dans un espace de 24 m2, avec des pannes diverses, de chauffage, d’anémomètre et de l’éolienne qui fournit l’électricité. Il faut voir le film qu’en a tiré Djamel Tahi, reprenant des extraits tirés de la bande originale tournée sur place et le livre qui en découle « 365 jours sous les glaces de l’antarctique ».

Voyage au pôle Sud.

Les pérégrinations du pôle Sud

Plus tard, Claude Lorius est devenu un des experts mondiaux en climatologie. Roland Schlich a dirigé l’EOST, école et observatoire des sciences de la terre à Strasbourg. À la sortie du film, je l’avais invité à Nancy, où se tenait une réunion de géologues. Présentation du film, et standing ovation à la fin, de la part de ces professionnels. Un grand moment d’émotion. C’est après qu’il m’a avoué avoir réalisé à quel point son séjour avait été un exploit une cinquantaine d’années après. Un très grand bonhomme. Il fallait l’entendre conter la venue d’une mission de secours depuis la base Dumont d’Urville, qui les croyaient en grande difficulté (plus de radio). Et qui avait amené un jambon. Ce dernier n’a pas fait long feu, mais personne n’y avait officiellement touché.

Pour en revenir au pôle Sud, il passe en mer en 1960, et est maintenant à environ 300 km des côtes. Il est donc sorti de nos eaux territoriales. On l’a perdu, nous les Français ! Sa dérive est actuellement estimée à 8-10 km/an. À comparer aux 55 km/an pour le pôle Nord.

Retour au shutdown. Alors, quelle importance de déterminer exactement les deux pôles ? Elle est fondamentale pour les géolocalisations par GPS, ou par Galileo, le système européen. Et ce domaine reste un sujet de recherche actif car la cause de ces mouvements est encore mal connue. Ce sont des mouvements internes au noyau et à la graine de la Terre. Sans entrer dans le détail, le noyau, plus ou moins visqueux est le siège de courants de matière qui induisent des champs magnétiques plus complexes que le dipôle de base. Ces champs induisent des quadrupoleset des octupoles, qui créent des champs magnétiques secondaires, variant avec le temps. Les combinaisons de ces champs multipolaires pourraient être à l’origine des inversions du champ magnétique total.

Bienvenue dans le laboratoire des villes décroissantes

26 samedi Jan 2019

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

The Conversation

  1. Daniel Florentin

    Maître-assistant en environnement et études urbaines, Mines ParisTech

Mines ParisTech

Mines ParisTech apporte un financement en tant que membre adhérent de The Conversation FR.

 

À Turin en 2005. Paco Serinelli/AFP

Ce texte est extrait de la récente édition de la revue « FACTS Reports », une publication de l’Institut Veolia, consacrée aux villes résilientes.


Longtemps, l’idée a prévalu parmi les décideurs urbains que la trajectoire d’évolution d’une ville ne pouvait et ne devait être marquée que du sceau de la croissance, qu’elle soit économique ou démographique. C’est ce qu’évoquait le sociologue Harvey Molotch en parlant de l’« urban growth machine » : les aires urbaines ont été historiquement dopées à ce moteur de la croissance et à cette idée d’une croissance continue.

Pourtant, certains territoires ont connu et connaissent des phénomènes de crise urbaine, qui n’ont rien de purement accidentel. Des termes ont commencé à fleurir pour indiquer ce changement de trajectoire : « shrinking cities », « legacy cities », soit des « villes en déclin », « villes rétrécissantes ». D’autres acteurs de la production urbaine ont cherché une vision plus positive, en évoquant les « villes phénix ».

Tous ces termes disent une transformation et appelle à rouvrir la boîte à outils de la planification urbaine. Elle pose de nouveaux défis, aussi bien aux collectivités locales qu’aux autres acteurs de la production urbaine (industriels, acteurs de la construction, usagers).

L’exemple de Turin

Les villes en décroissance sont caractérisées par une accumulation de processus, qui sont comme autant de spirales s’auto-alimentant, comme le montre la figure ci-dessous. Connus depuis longtemps, ils connaissent un regain depuis au moins deux décennies, accélérés par les effets d’une mondialisation.

Dans une « ville rétrécissante » s’accumulent ainsi, avec plus ou moins d’ampleur mais sur un temps relativement long, des processus de déprise démographique et de déclin économique, auxquels s’ajoute souvent une crise des finances publiques locales.

Turin a ainsi perdu plus de 25 % de sa population depuis les années 1970, et vu le nombre de ses emplois dans le secteur productif baisser de plus de 130 000 unités. Sa trajectoire urbaine a marqué une forte bifurcation, qui a obligé les autorités municipales à changer leurs stratégies.

Daniel Florentin, CC BY-NC-ND

Les villes de l’Est en première ligne

Le phénomène se retrouve dans la plupart des villes liées à des activités industrielles, sur tous les continents – on en trouve de nombreux exemples aux États-Unis, au Japon, au Brésil ou en Chine, étudiés par le groupe de chercheurs du Shrinking Cities International Research Network). Il a connu une acuité plus particulière dans la plupart des villes de l’Est de l’Europe.

La transition post-socialiste y a joué le rôle de catalyseur de cette décroissance subie. Elle a touché de grandes villes comme Bucarest ou Brno, mais a été encore plus intense pour les villes petites et moyennes. Dans l’est de l’Allemagne, certaines villes ont perdu plus du tiers de leur population en quelques années ; comme à Francfort sur l’Oder, à la frontière polonaise, où la population est passée de 88 000 à 58 000 habitants depuis 1990.

Une autre petite ville, Hoyerswerda, a même vu son nom associé à une sorte de syndrome, passant de la ville la plus jeune de l’Est dans les années 1980 à la ville où l’âge moyen est le plus élevé de toute l’Allemagne dans les années 2000. L’Europe du vieillissement a aussi sa géographie et les villes rétrécissantes sont souvent un exemple de ces villes de têtes grises.

Logements vacants et friches

La décroissance urbaine a aussi une déclinaison paysagère, liée à la friche urbaine ou industrielle et aux logements vacants. La multiplication des logements vides et des friches a même fait dire à certains aménageurs qu’on pouvait qualifier le processus de « perforation urbaine ».

Dans une ville allemande comme Leipzig, malgré une remontée récente de l’attractivité de la ville, certaines rues de l’est de la ville, restent marquées par de longs couloirs d’immeubles à demi ou complètement vacants. Cette situation rend plus compliquée à la fois l’entretien des espaces publics mais aussi l’approvisionnement en services urbains, qui est souvent conditionné à une certaine densité pour fonctionner de façon optimale.

Cela rappelle que, sur un même territoire, peuvent largement coexister certains quartiers à l’attractivité renouvelée et d’autres plus en déprise. La résilience possible de ces territoires se fait ainsi parfois de façon sélective, au détriment de certains quartiers toujours plus déshérités.

View image on Twitter

View image on Twitter

Barbara Eyer@BarbaraEyerS

Comment Leipzig réinvente l’habitathttps://www.goethe.de/ins/ca/fr/kul/cfo/liv/21311515.html …

4:54 PM – Jul 30, 2018
See Barbara Eyer’s other Tweets
Twitter Ads info and privacy

Extension du domaine de la décroissance urbaine : « les réseaux rétrécissants »

La décroissance a aussi ses territoires invisibles qui appellent de nouvelles réponses urbaines. Certains processus viennent ainsi déstabiliser le fonctionnement normal d’un certain nombre d’infrastructures, et notamment des réseaux urbains pour l’eau ou l’énergie.

Cela se manifeste notamment par une baisse des consommations qu’on retrouve dans la plupart des villes européennes, mais aussi de façon grandissante dans des villes nord-américaines ou japonaises. Paris a ainsi vu sa consommation (totale et par habitant) diminuer de plus de 20 % au cours des deux dernières décennies. Quant à Berlin, où la décroissance urbaine a été forte, elle a perdu plus de 40 % de sa consommation dans le même laps de temps.

Cette baisse, qui pourrait de prime abord sembler bénéfique pour préserver les ressources, est un phénomène aux contours plus complexes : une moindre consommation d’eau fait remonter les nappes phréatiques et menace parfois les sous-sols urbains ; elle peut aussi engendrer de nouveaux problèmes sanitaires, en raison de la stagnation de l’eau dans les canalisations.

La baisse des consommations, qu’on observe dans le domaine de l’eau depuis les années 1990, et qui est aussi sensible dans les réseaux d’électricité depuis 2011 concernant les consommations domestiques, est en fait le symptôme d’un surdimensionnement progressif de ces infrastructures. Cela implique de nouvelles dépenses pour les opérateurs de services urbains pour maintenir le réseau, et fait reporter les coûts du service en augmentation sur un nombre d’usagers parfois moins important. Le phénomène des réseaux rétrécissants oblige à repenser l’équation technique, économique et spatiale qui a historiquement prévalu pour la fourniture des services urbains.

Cette décroissance dans les réseaux crée donc de nouvelles formes de vulnérabilité, qui affectent l’ensemble des composantes du réseau, de l’opérateur à l’usager, en passant par les tuyaux, comme le montre la figure ci-dessous.

Dans ce domaine comme dans d’autres, le processus de baisse est sans doute amené à s’amplifier, puisqu’il a été inscrit dans la plupart des dispositifs réglementaires de transition énergétique. À ce titre, il est le signe que se met en place, dans un certain nombre de territoires et de façon toujours plus importante, un nouveau régime de fonctionnementdes services techniques urbains.

Daniel Florentin, CC BY-NC-ND

Une opportunité

Ces phénomènes de décroissance tracent un contexte souvent inédit pour les pouvoirs publics et les acteurs économiques. Dans un contexte de contraintes budgétaires croissantes pour les collectivités, la décroissance urbaine fait office de pression supplémentaire. Elle offre malgré tout des possibilités de repenser l’action publique autrement.

C’est ce qui a poussé par exemple une collectivité comme Roubaix à intégrer la réalité de la décroissance dans sa stratégie urbaine générale. Cela implique de chercher à valoriser les espaces vacants, d’essayer de trouver de nouveaux canaux par lesquels passer dans une logique de « soin territorial », et non plus simplement dans une dynamique d’équipement et d’aménagement classique.

View image on Twitter

View image on Twitter

franceinfo

✔@franceinfo

Trois questions sur les « maisons à un euro », lancées par la ville de Roubaix http://bit.ly/2fQlkq7 

11

4:19 PM – Oct 6, 2017
20 people are talking about this
Twitter Ads info and privacy

À Leipzig, cela s’est aussi traduit par la facilitation d’un certain nombre d’initiatives venant directement de porteurs de projet pour développer de nouveaux usages de la ville et de nouvelles façons d’aménager le territoire.

Concrètement, la ville a favorisé le développement de projets d’auto-réhabilitation de certains immeubles vacants, comme l’initiative des Wächterhäuser (« maisons gardées ») où les locataires (souvent des artistes qui s’en servaient comme atelier) s’engageaient à restaurer eux-mêmes leurs bâtiments contre un loyer symbolique d’un euro. De nombreuses autres initiatives pour repenser l’espace public, ou développer de nouvelles pratiques alimentaires et agriculturales en ville ont aussi permis de revisiter la boîte à outils des aménageurs traditionnels et d’imaginer d’autres formes de valorisation de l’espace. À ce titre, les villes connaissant des processus de décroissance sont souvent considérées comme des laboratoires passionnants d’expérimentation.

Dans le domaine des réseaux, les opérateurs historiques ont également dû revisiter leurs modèles techniques et économiques pour s’adapter aux processus émergents de décroissance.

À Magdebourg, capitale du Land de Saxe-Anhalt en Allemagne, cela s’est traduit par le fait d’adopter un tarif solidaire pour l’eau à une échelle infra-régionale, la ville-centre payant un peu plus que si elle s’approvisionnait seule pour que les territoires alentours, avec qui le réseau est mutualisé, puissent payer le service à un prix raisonnable (et huit à douze fois moins cher que s’ils avaient dû fonctionner sans être dans le système mutualisé).

Au-delà de Detroit

La décroissance n’est donc ni une fatalité ni un cauchemar urbain. Elle peut être l’arrière-plan d’une stratégie de résilience, qui permettrait d’en absorber les chocs lents.

Un certain nombre de territoires ont su intégrer progressivement les caractéristiques de cette bifurcation territoriale et faire évoluer leurs référentiels d’action et leur ingénierie. Si l’attention médiatique a souvent eu tendance à se focaliser sur Détroit, aux États-Unis, mise en scène comme la capitale de la décroissance urbaine, il faut rappeler que cette ville aux dimensions hors normes constitue de ce fait un exemple un peu hors champ.

La décroissance ordinaire est plus à trouver dans des villes petites et moyennes, plus en marge des circuits de la mondialisation, où les besoins en animation territoriale, en ingénierie sont souvent marqués, et où la contrainte budgétaire cadre fortement l’action publique.

Dans les nouveaux arrangements qui se mettent en place à l’occasion d’une transition vers la décroissance urbaine – qu’elle soit le plus souvent subie ou dans de rares cas choisie – l’enjeu principal demeure identique. Il s’agit de savoir dans quelle mesure les stratégies d’adaptation à cette décroissance permettent ou permettront de préserver un certain équilibre territorial et d’éviter une aggravation des inégalités socio-spatiales, tout en permettant de changer la perception sur les potentiels urbains et la valeur des lieux.

Orthographe : qui connait les rectifications de 1990 ?

25 vendredi Jan 2019

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

The Conversation

 

  1. Christophe Benzitoun

    Maître de conférences en linguistique française, Université de Lorraine

Université de Lorraine

 

Depuis 1990, l’accent circonflexe n’est plus obligatoire sur les lettres « i » et « u ». Shutterstock

Peut-on écrire le verbe « entraîner » sans accent circonflexe ? Non, pense encore une bonne partie de nos concitoyens. Pourtant, depuis 1990, ce signe n’est plus obligatoire sur les lettres « i » et « u », sauf dans les terminaisons verbales (exemple : qu’il dût, qu’il fût) et les cas où cela induirait une confusion de sens (exemple : mûr/mur).

Cette évolution fait partie d’un ensemble de modifications de l’orthographe publiées au Journal officiel en 1990, dont voici une synthèse :

Résumé des rectifications orthographiques de 1990. Journal Officiel de la République française

Des modifications limitées

Les rectifications touchent quatre points précis : le trait d’union, le pluriel des noms composés, l’accent circonflexe et le participe passé des verbes pronominaux. Dans le détail, on peut signaler aussi :

  • la généralisation du trait d’union à tous les numéraux formant un nombre complexe ;
  • l’emploi du È pour transcrire le son « e ouvert » pour tous les verbes se terminant en -eler ou -eter (à l’exception de appeler et jeter) ;
  • la graphie nénufar, qui a fait couler beaucoup d’encre, alors que ce mot s’est écrit ainsi jusqu’en 1932.

Bref, des modifications raisonnables et très limitées, visant à rendre l’orthographe plus régulière et donc la langue écrite accessible à tous. Mais comme le souligne une enquête menée en 2010, les étudiants et enseignants français sont assez peu nombreux à les connaitre, en tout cas nettement moins nombreux que les Belges, Suisses et Canadiens. Et ils sont peu nombreux à les appliquer.

Cela provient du fait qu’une fois ces modifications actées, le pouvoir politique français n’a pas fait beaucoup d’effort pour les promouvoir auprès des enseignants. Or, si les professeurs ne les transmettent pas en classe, comment cette nouvelle orthographe pourrait-elle se retrouver dans l’usage ? On peut aussi signaler que les dictionnaires usuels ont mis un certain temps à les faire apparaitre et qu’aucun journal de référence français ne les applique. Et la virulente campagne de dénigrement relayée par les journaux, chaines de télévision et radio a eu un fort impact négatif.

Une demande de linguistes et de professeurs

Deux événements importants ont été à l’origine des rectifications de 1990. Tout d’abord, une prise de position de la part de professeurs d’écoles et de collèges réclamant une simplification de l’orthographe. Ensuite, un appel en faveur d’une modernisation de l’orthographe est signé par dix linguistes et paru dans le journal Le Monde en 1989. Le pouvoir politique s’empare alors de la question par l’entremise du premier ministre de l’époque, Michel Rocard.

Pour arbitrer, il fait appel à trois instances, à savoir l’Académie française, le Conseil supérieur de la langue française et un comité d’experts. Michel Rocard prend une position active et volontariste dans l’entreprise. Le comité d’experts se met au travail le 12 décembre 1989 et rend un rapport quatre mois plus tard. Ce rapport contient les propositions de rectifications que les membres du comité d’experts jugent pertinentes. L’Académie française l’approuve à l’unanimité des présents. Le premier ministre les soutient également.

Il est alors prévu que ces rectifications soient enseignées dès la rentrée 1991. Sans toutefois les imposer aux adultes qui pourront conserver l’ancienne orthographe en attendant que la nouvelle se généralise. Le texte est publié au Journal officiel le 6 décembre 1990. Les réactions médiatiques hostiles furent presque immédiates. Allant jusqu’à un retournement spectaculaire de la position des membres de l’Académie française.

Pour finir, la circulaire ne fut pas publiée, contrairement à ce qui était prévu. Il faudra attendre 18 ans pour que les rectifications apparaissent timidement dans les programmes scolaires. Et 8 ans de plus pour que les manuels scolaires les adoptent, ce qui a eu pour conséquence de relancer les hostilités.

Des actualisations périodiques

Ces écueils ne représentent pas des exceptions. Depuis plus d’un siècle, toutes les propositions de modification de l’orthographe se sont heurtées à des campagnes de dénigrement. Or il faut bien voir que des strates de rectifications ont été empilées au cours des siècles sans vue d’ensemble.

Cela a abouti à de multiples sous-systèmes pas toujours cohérents entre eux. D’où l’importance d’actualiser périodiquement notre orthographe afin de la rendre plus régulière. Sans parler du fait que si on ne le fait pas, on s’éloigne lentement mais sûrement de la prononciation.

Pour des raisons historiques, le français avait une orthographe très proche du latin, dont il est issu. C’est la raison pour laquelle il possède un certain nombre de lettres étymologiques muettes. Certaines de ces lettres étymologiques ont d’ailleurs été réintroduites alors qu’elles avaient disparu ou bien ont été supprimées. C’est le cas dans tiLtre et aDvocat. De plus, l’alphabet du français est directement hérité de celui du latin. Or, le français comporte plus de sons que le latin. Pour compenser cela, on y a ajouté quelques lettres ainsi que des accents et la cédille.

Ces ajouts ont été décidés par des grammairiens et imprimeurs codifiant la transcription de notre idiome. Il faut en plus ajouter, aux divers procédés orthographiques utilisés, le recours à la combinaison des lettres pour transcrire un son : CH, EAU, OU, ON, etc. Et aussi l’importance accordée à la différenciation des homographes, c’est-à-dire au fait de distinguer, par la forme graphique, des mots se prononçant de la même façon comme vert, verre, vers, ver. La liste des mots possédant un pluriel irrégulier est également touchée par ces choix, ainsi qu’un ensemble de règles d’orthographe grammaticale : conjugaisons des verbes, absence d’accord quand on a affaire à un substantif épithète (des rideaux orangE)…

Ce très rapide tour d’horizon montre bien que l’orthographe française est le résultat de choix, et non d’une évolution naturelle. Bien sûr, on peut critiquer, à raison, tel ou tel cas modifié en 1990. Par exemple, on peut se demander pourquoi le comité d’experts a décidé de conserver certaines exceptions plutôt que d’élaborer des règles systématiques. Mais il ne faut jamais perdre de vue que l’on a besoin de rendre notre orthographe plus régulière et donc plus accessible. C’est un enjeu démocratique majeur à une époque où l’écrit est indispensable et où l’on souhaite agrandir la famille de la francophonie.

Pour la succession de Carlos Ghosn, étudier la gouvernance des Dominicains…

24 jeudi Jan 2019

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

The Conversation

 

  1. François Delorme

    Maître de conférences en sciences de gestion, chercheur associé CERAG, membre du WIKISGK, Université Grenoble Alpes

Université Grenoble Alpes

 

Couvent dominicain de Sainte-Marie de La Tourette dans le Rhône ( Construit par Le Corbusier en 1956) Aurelien Guichard / Flickr, CC BY-SA

Que penserait-on si finalement le successeur de l’emblématique patron soit un inconnu issu des rangs d’une des entreprises composant la galaxie de l’alliance ? Qu’il soit élu, non pas seul mais avec des conseillers pour un mandat limité ? Et qu’au terme de celui-ci, il redevienne un acteur comme les autres dans l’organisation.

Ces questions me sont venues en interrogeant le prieur d’un Couvent de Dominicains, alors que le chapitre provincial (instance démocratique) allait élire son responsable. En effet, cette gouvernance démocratique ne relève pas de la fiction, mais de la réalité d’une organisation religieuse au fonctionnement ancien. Cela nous ramène à un Moyen Âge qui comme le souligne Pierre-Yves Gomez est bien plus avancé démocratiquement que son image ne le laisse entendre. Il faut, comme le rappelle Leo Moulin souligner que la Grande Charte signée en 1215, prémisse d’un régime parlementaire, est crée alors que l’ordre cistercien fonctionne depuis un siècle déjà autour d’assemblées élues.

La multinationale de l’ordre dominicain

Dans la galaxie des ordres, les Dominicains se caractérisent par un fonctionnement particulier qui prévaut depuis 800 ans et prend la forme de principes de « gouvernement ». En quoi cette organisation, qui n’a ni actionnaire, ni client, qui vit sur la pauvreté pourrait enrichir la gouvernance des entreprises ?

D’abord, les Dominicains comptent 60 000 membres tout autour du globe : à ce titre, c’est finalement une multinationale de bonne taille. Sa singularité (qui est celle des ordres religieux en général) est son âge. Elle fonctionne depuis l’origine avec peu ou prou les mêmes règles présentes dans un petit livre, « le livre des constitutions et des ordinations » et pratique le management inter culturel depuis des siècles. Une nouvelle règle doit être validée à l’identique par trois chapitres généraux successifs. Le renouvellement des collèges éléctifs assure une légitimité au changement.

L’ordre des Dominicains se singularise particulièrement par son caractère démocratique.

Le « gouvernement » (puisque c’est le terme employé par l’ordre) est assuré à trois échelons : le couvent, la province (région) et le monde. Le Prieur, respectivement conventuel, provincial ou général est élu par des collèges larges, et pour un mandat limité dans le temps, et éventuellement renouvelable une fois. Il faut insister sur le fait que le Prieur, personnage central de l’organisation est un frère comme les autres qui le redevient au terme de son mandat. Il est au service de ses frères et d’une organisation qui le dépasse car étant présente avant lui et après lui. Par ailleurs, il appartient à une province et de ce fait, peut être élu Prieur d’un couvent qui n’est pas le sien.

Couvent des Dominicains, Guebwiller (HDR). Thomas Bresson/Flickr, CC BY

Un sujet de réflexion pour les entreprises « libérées »

Plus surprenant encore, personne n’est candidat à une charge. Celui qui est élu a des compétences qui lui sont reconnues par ses pairs et qui permettront de répondre aux différents enjeux de l’organisation. C’est ce qui rend le processus électif assez rapide et simple. Un nom émerge rapidement, et pour reprendre la phrase du Prieur, « la décision se cueille comme un fruit mûr ». Une élection qui ne serait pas large et massive serait un mauvais signe. L’expression « ne pas avoir voix au chapitre » vient du fait qu’un couvent qui ne peut élire son responsable perd son pouvoir d’expression.

Cette caractéristique démocratique s’accompagne du fait de pouvoir participer au fonctionnement de l’ordre par le pouvoir de proposer. En effet, le droit de proposition et de pétition permet aux acteurs de communiquer les sujets qui leur semblent importants et de s’exprimer sur ces sujets en prenant position. Plus généralement, les Frères disposent d’une grande liberté qui leur permet d’innover, de créer, de tester. Il en résulte un vrai esprit… d’intrapreneuriat. Ceci conduit à une organisation libre, beaucoup plus que bien des organisations dites « libérées ».

Au delà de ce fonctionnement politique, il y a l’impact de la vie communautaire, donc autour de ce qui est commun. Cela peut sembler superflu d’insister sur ce terme. Il est pourtant essentiel. Ces 60 000 personnes partagent des conventions qui leur sont communes et collectivement défendues. Il faut bien rappeler que c’est l’organisation qui décide de l’acceptation d’un nouveau membre : il doit avoir la capacité de se reconnaître dans ce qui est partagé et commun.

Un cas de contraste

En termes de gouvernance, l’élection est un moment important qui marque pour la communauté son choix. Elle se retrouve et vit le moment, d’une façon intense… qui n’a rien à voir avec un séminaire ou un « team building » comme on le voit en entreprise. L’incarnation et le caractère vécu des principes font l’organisation et les acteurs.

Cependant, il ne faut pas faire de cette organisation un modèle mais un cas de contraste. Elle a aussi ses difficultés, ses doutes, ses « erreurs de casting ». Elle y répond autrement. Comment expliquer à celui avec qui l’on vit qu’il n’est pas à sa place ? Les réponses sont différentes, bien évidemment.

Cela doit nous amener à nous interroger sur les pratiques et à regarder ce cas qui est tout prêt de nous. La vraie question n’est-elle pas de savoir pourquoi ces organisations sont si peu étudiées ? Cette question est entière à l’heure ou Jeff Bezos pense possible la fin prochaine d’Amazon. Finalement, lequel de ces deux cas faire étudier dans les business school?

L’écologie « relationnelle » pour repenser les rapports entre l’homme et son environnement

23 mercredi Jan 2019

Posted by mirmandepatrimoines in Uncategorized

≈ Poster un commentaire

 

The Conversation

  1. Damien Deville

    Géographe et anthropologue de la nature, coprésident de l’association AYYA, Inra

  2. Pierre Spielewoy

    Doctorant, juriste en droit international, anthropologue du droit, Muséum national d’histoire naturelle (MNHN) – Sorbonne Universités

 

Partenaires

INRA

Sorbonne Universités

Muséum National d’Histoire Naturelle

I

Shutterstock

Éco-logie, science de la « maison », de « l’habitat » ou encore « du milieu ». Inventé à la fin du XIXe siècle par le biologiste Ernst Haeckel, le terme a depuis généré une diversité terminologique impressionnante – écologie de la conservation, végétale, urbaine, agroécologie – au fur et à mesure de la compréhension de plus en plus précise de la diversité terrestre.

Il est toutefois intéressant de constater que le terme, peu importe son contexte d’utilisation, s’est longtemps ancré dans un même et unique rapport au monde : l’appréhension de ce qui est autre par le seul prisme de la division entre deux mondes, celui de l’humain et celui de la nature. Plusieurs auteurs ont depuis contesté cette posture.

Nous proposons de remettre en perspective ces critiques pour cheminer vers un nouveau champ d’études à explorer dans le domaine de l’écologie. Soit la découverte et les potentialités offertes par l’étude des liens entre l’humain et le non-humain, que nous nommons « l’écologie relationnelle ».

Trouver un nouveau cadre

Richard Rorty, dans La philosophie et le miroir de la nature, s’est intéressé dès les années 1970 à l’utilisation du terme « nature » dans la philosophie des Lumières.

Il démontre que le terme de « nature » a rapidement remplacé celui de « Dieu », devenant un nouvel « absolu » à partir duquel les philosophes pensent le monde sans jamais pourtant questionner les limites euristiques de ces notions. Cette orientation philosophique a eu tendance à s’imposer mondialement, avec des conséquences majeures dans les façons de penser et d’habiter le monde.

Pourtant, un regard sur la diversité des cultures et des territoires nous apprend que cette approche est loin d’être universelle. Pour l’anthropologue Philippe Descola, la séparation radicale entre la culture et la nature qui en découle est même l’une des caractéristiques intrinsèques des sociétés dites « modernes » ; un positionnement que l’auteur nomme « le naturalisme ». Celui-ci considère l’intériorité des êtres humains comme spécifique et ainsi relativement autonome des contraintes environnementales. Si cette vision du monde est largement répandue dans les territoires occidentaux, elle ne constitue qu’une posture parmi d’autres dans la diversité des relations qui caractérisent chaque société.

À titre d’exemple, la catégorisation cartésienne entre ceux qui « pensent », les humains, et ceux qui ne pensent pas, les non-humains, a fait émerger en philosophie politique une division du monde entre sujets et objets, qui ne permet pas d’apporter une réponse politique et juridique suffisante face à la crise climatique actuelle. Cette démarche, qui cantonne le non-humain au statut de ressource à exploiter, réduit les possibilités de sa protection, tout en inhibant nombre de ressorts juridiques permettant de reconnaître la responsabilité de l’humain dans les crises environnementales.

Il y a donc urgence à trouver une issue pour appréhender autrement les défis de notre monde. L’écologie relationnelle peut constituer cette nouvelle méthode pour penser nos relations aux autres et aux territoires. Nous la décrirons en ses trois moments fondateurs : reconsidérer la diversité, assumer la vulnérabilité et penser des espaces de lien renouvelés.

Reconsidérer la diversité

Dans Les mots et les choses, Michel Foucault nous explique à quel point le fait de rendre similaire dans les sociétés modernes les choses se trouvent aux fondements de la construction des connaissances.

Si cette logique a eu le mérite de produire des résultats scientifiques exceptionnels, elle n’est pas pertinente pour considérer la diversité. Selon elle, la nouvelle connaissance ne peut être appréhendée qu’à partir d’un a priori issu d’une connaissance précédente. Ainsi cet a priori véhicule un risque d’oublier la particularité de l’objet qui est appréhendé. Les sciences de l’écologie n’ont pas échappé à cette logique.

Les espèces animales et végétales ont ainsi pendant longtemps été appréhendées au seul prisme de leur distinction fondamentale avec l’être humain. Pourtant, de nouveaux travaux montrent que toute espèce est capable de faire société à sa manière. Les études conduites par les équipes de Sabrina Krief au Muséum national d’histoire naturelle sur les chimpanzés sont à ce propos majeures. Et si les grands singes ont leurs codes culturels propres, les corbeaux font de leur côté le deuil de leurs proches, les castors sont capables de modifier les cours d’eaux et les plantes de collaborer entres elles. Les humains ne sont pas les seuls à pouvoir créer des mondes complexes.

Un des outils pour prendre en compte cette diversité réside dans ce que Raimon Pannikar appelle le « dialogue dialogal » : faire entrer dans le dialogue, en plus de la raison, le domaine du sensible, des sensations et des émotions, afin de comprendre l’autre dans sa spécificité et sa pluralité.

Assumer la vulnérabilité

Dans son livre Éléments pour une éthique de la vulnérabilité, la philosophe Corine Pelluchon défend l’idée que chaque être vivant (humain compris) reste en permanence vulnérable aux autres. Cette vulnérabilité se matérialise d’abord par les cycles de la vie et, par extension, par la finitude des corps ; mais également par tous les actes quotidiens qui nous relient aux autres pour nous alimenter, nous vêtir, nous soigner, travailler ou encore nous déplacer. Assumer la vulnérabilité, c’est accepter une relation fondée sur l’interdépendance entre les humains et leur environnement.

Les travaux en géographie et en anthropologie montrent aujourd’hui que les sociétés ont toujours été soumises aux contraintes environnementales des milieux, les obligeant à s’adapter, à modifier leurs pratiques et leurs cultures. Inversement, les actions humaines ont façonné en profondeur paysages et territoires. Les trajectoires des mondes sont donc les conséquences de rapports complexes et historiquement ancrés entre un milieu et une société.

Penser les espaces du lien

Finalement, rendre justice à la diversité et réinvestir la question de la relation dans une perspective plus complète, revient à se donner l’opportunité de penser les espaces du lien entre humain et non-humain.

Trois espaces semblent à ce titre particulièrement intéressants.

Le premier concerne la rencontre. Dans son dernier livre, Le champignon de la fin du monde, l’anthropologue Anna Tsing prend l’exemple des champignons matsutakes poussant dans les forêts de l’Oregon, pour souligner que la rencontre entre humain et un non-humain donne un résultat bien supérieur à la somme des parties. La relation qui s’instaure fait émerger de l’intelligence, de l’amitié, des souvenirs, un dialogue. Bref, un monde d’interactions propre aux deux individus qui la composent.

Le second espace de lien s’enracine dans des démarches d’aménagement du territoire. En considérant chaque région, chaque ville, chaque campagne dans sa singularité, mais également en intégrant ce que l’anthropologue Tim Ingold nomme « l’écologie du sensible » – c’est-à-dire replacer la subjectivité et les émotions en phase avec l’action territoriale –, nous nous donnons la possibilité de faire émerger de nouvelles modalités collectives dans la façon d’habiter le territoire. Et donc de valoriser une pluralité de coexistences entre l’humain et le non-humain.

La fabrication du droit s’impose comme le troisième espace de lien. Certains auteurs voient dans ces espaces, qu’ils nomment espaces de « coviabilité », la possibilité de faire émerger de nouvelles normes qui dépasseraient les catégorisations strictement humaines. Il en découlerait un droit enrichi par les diversités humaines et non-humaines, moins anthropocentré et mieux adapté aux réalités écologiques du monde.

En se concentrant sur les relations qui nous unissent les uns aux autres, l’écologie relationnelle constitue une proposition pour réintroduire, dans la pensée et dans l’action, des espaces de compréhension et de partage entre humains et non-humains. Ce faisant, elle permet de renouveler les connaissances sur les liens qu’entretiennent les sociétés à leurs milieux, tout en proposant de miser sur la diversité territoriale pour apporter des réponses pertinentes aux crises sociales et écologiques.

Vidéo : pourquoi les économistes se trompent-ils tout le temps ? Les explications de trois « prix Nobel »

22 mardi Jan 2019

Posted by mirmandepatrimoines in Uncategorized

≈ 1 Commentaire

The Conversation

  1. Benoît Tonson

    Éditeur Science + Technologie, The Conversation France

  2. Thibault Lieurade

    Chef de rubrique Economie + Entreprise, The Conversation France

 

Nicolas Fagot
Vous pouvez activer les sous-titres français en cliquant sur l’onglet en bas à droite de la vidéo.

C’est une anecdote bien connue des économistes. Quelques semaines après la faillite de la banque Lehman Brothers et le début de la crise financière de 2008, la reine d’Angleterre, en visite à la prestigieuse London School Economics, provoque la gêne de la fine fleur de l’économie britannique par une simple question : « comment se fait-il que personne n’ait rien vu venir ? ».

Cet épisode a été rappelé par Hélène Rey, professeure à la London Business School, lors du colloque « Théorie économique : défis pour les 50 prochaines années », organisé par l’Université Paris-Dauphine pour marquer le cinquantenaire de l’établissement, le 15 janvier dernier. Un évènement, dont l’objectif était de réfléchir aux voies d’amélioration de la recherche économique, qui réunissait un plateau d’exception, puisque figuraient parmi les intervenants pas moins de quatre lauréats du prix de la Banque de Suède en sciences économiques en mémoire d’Alfred Nobel.

À cette occasion, la rédaction de The Conversation France a rencontré trois de ces « prix Nobel » d’économie pour leur demander justement, avec un brin de provocation, pourquoi les économistes se trompent tout le temps, et si la technologie (big data, intelligence artificielle, etc.) pouvait constituer un outil efficace pour mieux comprendre les phénomènes et imaginer les mécanismes correctifs adéquats.

Découvrez les réponses dans la vidéo ci-dessus de Lars Hansen, professeur à l’université de Chicago (Prix « Nobel » 2013), Angus Deaton, professeur à l’université de Princeton (Prix « Nobel » 2015), et James Heckman, professeur à l’université de Chicago (Prix « Nobel » 2000).

← Articles Précédents
janvier 2019
L M M J V S D
 123456
78910111213
14151617181920
21222324252627
28293031  
« Déc   Fév »

Stats du Site

  • 96 212 hits

Liens

  • Associations-patrimoines
  • La Fédération d'environnement Durable
  • Moelle Osseuse
  • Visite de Mirmande
janvier 2019
L M M J V S D
 123456
78910111213
14151617181920
21222324252627
28293031  
« Déc   Fév »

Commentaires récents

Le Soudanite dans Nutrition : pour bien vieillir…
Le Soudanite dans Nutrition : pour bien vieillir…
L’Écologie aux porte… dans L’Écologie aux portes du pouvo…
jac-zap dans Comment les allocations chômag…
L’Union politique eu… dans L’Union politique européenne v…

Propulsé par WordPress.com.

Annuler