23.03.2026 à 15:38
Dominic Rohner, Professor of Economics and André Hoffman Chair in Political Economics and Governance, Geneva Graduate Institute, Graduate Institute – Institut de hautes études internationales et du développement (IHEID)
Dans un monde bouleversé par les tensions géopolitiques et l’essor de l’intelligence artificielle, l’avenir de l’Europe repose sur deux piliers : le renforcement de ses institutions démocratiques et un investissement massif dans la recherche scientifique. Seule une Union européenne devenue superpuissance scientifique pourra relever les défis du XXIᵉ siècle.
Les événements récents révèlent l’accélération du passage d’un ordre multilatéral fondé sur des règles à un monde où prévaut la loi du plus fort. Au nom d’une approche que certains qualifient déjà de nouvelle doctrine « Don-roe » (contraction du prénom du locataire actuel de la Maison-Blanche et de doctrine Monroe, du nom de son lointain prédécesseur des années 1820), l’administration américaine a attaqué l’Iran, arrêté et incarcéré le président du Venezuela, adressé des avertissements à la Colombie et à Cuba, et menacé ouvertement d’annexer le Groenland – menace certes atténuée depuis, mais dont la simple formulation a suffi à ébranler les certitudes européennes.
Si les interventions états-uniennes en Amérique latine sont abondamment documentées, l’évocation d’une annexion du Groenland a constitué la première menace explicite de Washington contre le territoire d’un pays européen – le Danemark – depuis 1945. Pour un continent dont les libertés démocratiques doivent tant à l’intervention de l’US Army il y a quatre-vingts ans, ce franchissement d’un tabou par un allié centenaire marque un bouleversement géopolitique majeur.
Dans un monde où les grandes puissances se partagent les zones d’influence, les petits États situés aux marges des blocs de pouvoir voient leur avenir devenir particulièrement incertain. Un scénario dans lequel la Chine et la Russie accepteraient tacitement une suprématie américaine exclusive sur l’hémisphère occidental, tandis que Pékin revendiquerait une domination équivalente sur Taïwan et d’autres territoires asiatiques, et Moscou sur l’Europe de l’Est, apparaît désormais possible. L’intervention américaine à Caracas et en Iran pourrait non seulement encourager de nouvelles actions contre Cuba, mais aussi inciter la Russie et la Chine à agir dans les régions qu’elles considèrent comme relevant de leur propre sphère d’influence. Pour l’Europe, une telle évolution relèverait de la menace existentielle.
Les faits empiriques démontrent que le multilatéralisme appuyé sur un rôle important attribué aux institutions internationales favorise la paix et la prospérité tout en protégeant la souveraineté des petites démocraties. L’érosion de l’ordre multilatéral est donc de mauvais augure pour l’Europe. Pourtant, des raisons d’espérer subsistent : le continent dispose d’atouts stratégiques considérables qui, utilisés avec discernement, pourraient lui permettre de prospérer même dans un environnement hostile.
Si le pluralisme politique des pays européens est souvent présenté comme une faiblesse sur le plan militaire, la richesse des cultures démocratiques du continent constitue au contraire un rempart contre toute dérive autoritaire. La décentralisation du pouvoir entre de multiples centres de décision pourrait rendre la démocratie plus résiliente en Europe qu’ailleurs. Ce pluralisme démocratique profondément ancré pourrait également s’avérer décisif pour attirer les talents du monde entier.
L’histoire fournit un précédent éclairant : l’exode des meilleurs chercheurs allemands fuyant le fascisme dans les années 1930 a largement contribué à l’essor des États-Unis comme superpuissance académique. Or, depuis quelques années, le monde académique est redevenu, dans de nombreux pays un terrain de plus en plus politisé. Au-delà d’anecdotes particulières, des données rigoureuses démontrent que la liberté académique décline dans de nombreux pays. L’Indice de la liberté académique 2025 révèle que, ces dix dernières années, les libertés académiques ont nettement diminué dans 34 pays – y compris des poids lourds comme les États-Unis, l’Inde et la Russie – tandis qu’elles n’ont progressé que dans huit pays, bien plus petits.
Si dans les prochaines années et décennies, l’Europe se positionne comme un phare de liberté et de démocratie, elle pourrait à son tour attirer les esprits les plus brillants. Le monde académique fuit les environnements où circulent des listes noires de sujets de recherche bannis et où critiquer le gouvernement peut conduire au licenciement, voire à l’incarcération. À l’inverse, les scientifiques attachent une grande valeur à la liberté intellectuelle. La science doit rester suffisamment ouverte pour accueillir une pluralité de perspectives et de méthodes. Le progrès scientifique repose sur la confrontation d’idées diverses soumises à l’épreuve des faits. Un tel environnement, propice aux découvertes majeures et à la prospérité qui en découle, s’épanouit dans des sociétés profondément attachées à la démocratie et aux libertés civiles.
Le « vieux continent » a déjà compris que le moment était propice pour attirer des vedettes désirant quitter les États-Unis. L’Université de Zurich a récemment réussi un coup d’éclat en engageant deux Prix Nobel d’économie, Esther Duflo et Abhijit Banerjee, en provenance du MIT. Au niveau du European Research Council (ERC), l’institution européenne qui finance des projets scientifiques de pointe, il existe un effort concerté pour créer des « super-subsides » sous le label « Sélectionne l’Europe pour la recherche », doublant de 2 à 4 millions d’euros le financement attribué aux nouveaux arrivants extra-européens désirant créer un laboratoire.
Recruter des « stars » venues d’autres horizons peut s’avérer important en termes de visibilité, mais il faut veiller à ne pas oublier la relève. Souvent, les prix Nobel récompensent des recherches menées plusieurs décennies auparavant. Concentrer notre manne financière sur quelques sommités ayant dépassé leur pic de productivité risque d’avoir moins d’impact à long terme qu’investir dans les prix Nobel du futur.
N’oublions pas qu’une grande partie des innovations sont actuellement réalisées par de brillants cerveaux européens ayant tenté leur chance aux États-Unis. Parmi les vingt-trois économistes ayant reçu le prix Nobel ces dix dernières années, presque 40 % sont d’origine européenne, mais tous étaient affiliés à une université d’élite américaine au moment de recevoir ce prix prestigieux.
Pendant des décennies, l’excellent système scolaire public européen a formé des cerveaux qui sont ensuite partis contribuer à la prospérité américaine. Plutôt que viser quelques vedettes vieillissantes, nous devrions améliorer les conditions-cadres pour que nos jeunes talents aient envie de rester en Europe. Cela implique non seulement une défense vigoureuse de la liberté académique, mais également un système de recrutement ouvert et méritocratique, ainsi que des conditions d’engagement attractives dans nos hautes écoles.
Nous vivons une période charnière de l’histoire, caractérisée non seulement par des incertitudes géopolitiques, mais également par des transformations radicales causées par l’intelligence artificielle. Celle-ci pourrait remodeler nos économies à l’échelle de l’industrialisation ou de l’essor des ordinateurs, créant de nouvelles inégalités entre pays et au sein des pays. Les bouleversements du marché du travail et une perte de vitesse de la classe moyenne pourraient mettre davantage de pression sur nos institutions démocratiques et favoriser la montée de populismes de tout bord. Dans cette période, notre continent ne peut se permettre de perdre du terrain : nous devons être en tête du peloton.
Comme de nombreuses études le démontrent de manière convaincante, la démocratie favorise la prospérité à long terme, laquelle se traduit généralement par une puissance politique et militaire accrue. Pour promouvoir ce qu’Emmanuel Macron appelle une « Renaissance » européenne, le continent doit atteindre une véritable autonomie stratégique : être suffisamment solide sur les plans économique, politique et militaire pour faire face à n’importe quelle superpuissance sans accepter des « accords » déséquilibrés imposés sous la contrainte.
Si les investissements de défense à court terme sont indispensables, la voie la plus sûre vers une paix solide et une prospérité durable consiste à renforcer les fondements démocratiques – libertés civiles, liberté de la presse et indépendance de la justice – tout en investissant massivement dans les infrastructures de recherche : financement, liberté académique et reconnaissance par le mérite. Comme l’avait déjà compris Napoléon, « le sabre est toujours vaincu par l’esprit ». Pour assurer l’avenir de l’Europe, nous devons en faire une superpuissance scientifique — condition essentielle de sa force économique, politique et militaire.
Dominic Rohner a dans le passé reçu des financements de recherche du European Research Council (ERC) et du Fonds national suisse (FNS) dont il siège actuellement dans le Conseil national de recherche.
23.03.2026 à 15:38
Marc-Antoine Pérouse de Montclos, directeur de recherches, Institut de recherche pour le développement (IRD)
Le continent africain est marqué par la grande diversité de ses expressions religieuses. Cependant, dans le débat international, il est souvent réduit à un affrontement simpliste entre islam et christianisme. Dans l’ouvrage l’Afrique des religions, à l’épreuve des chiffres et des catégorisations , qui vient de paraître aux éditions Maisonneuve & Larose-Hémisphères, et qu’il a co-dirigé avec Nathalie Bernard-Maugiron, juriste et directrice de recherche à l’Institut de recherche pour le développement, et Aurélien Dasré, démographe et maître de conférences à l’Université Paris Nanterre, Marc-Antoine Pérouse de Montclos, politiste et directeur de recherche à l’Institut de recherche pour le développement, revient sur les histoires locales et les pratiques sociales qui ont forgé la pluralité religieuse du continent, en croisant anthropologie, démographie, droit et sciences politiques. Extrait de l’introduction.
Terre de mission par excellence, l’Afrique intéresse le religieux à bien des égards. Du fait de sa vitalité démographique, d’abord, elle fait l’objet de vifs débats sur l’ampleur, la nature et la profondeur de son islamisation et de son évangélisation, alors que les communautés de croyances des deux plus grosses religions abrahamiques sont elles-mêmes travaillées de l’intérieur par des contestations salafistes et pentecôtistes. L’Afrique subsaharienne, qui plus est, a toujours été une aire d’étude privilégiée pour les anthropologues des religions dites « traditionnelles », « fétichistes », « naturistes » ou « endogènes ». Historiquement, enfin, le continent a joué un rôle important dans le développement de l’islam et de la chrétienté.
Avant même l’hégire vers Médine du prophète Mohammed, l’Abyssinie copte a ainsi accueilli des musulmans persécutés par l’aristocratie mecquoise. Sur la péninsule arabique, le premier muezzin de l’islam, Bilal ben Rabah, était quant à lui un esclave noir éthiopien.
De leur côté, les pères fondateurs de l’Église comprenaient d’illustres figures comme saint Cyprien de Carthage, le théologien tunisien Quintus Tertullien ou bien encore Augustin d’Hippone, évêque de Numidie, dans l’actuelle Algérie. Pendant plusieurs siècles, le patriarcat d’Alexandrie a par ailleurs compté le plus grand nombre de chrétiens de l’Empire byzantin avant d’être officiellement détrôné par la « nouvelle Rome », Constantinople, au concile de Chalcédoine qui, en 451, le relégua au troisième rang dans la hiérarchie ecclésiastique.
De l’Abyssinie copte jusqu’au royaume du Kongo, n’oublions pas non plus que des christianismes africains ont pu se développer avant l’occupation coloniale, qui fut bien plus tardive qu’en Amérique du Sud ou en Asie.
L’arrivée des Européens a alors eu pour particularité de transposer les questionnements sur le religieux dans le registre d’un projet civilisationnel. Bien que leurs relations avec les autorités coloniales aient parfois été tendues, les missionnaires chrétiens ont ainsi précédé puis accompagné la conquête de territoires perçus comme « sauvages » et « arriérés ». Une fois passé le temps des résistances et des révoltes, les clercs musulmans ont, de leur côté, collaboré avec des puissances impérialistes qui, en dépit de craintes fort anciennes sur l’islam, ont fini par adopter des positions pragmatiques en vue de se concilier les bonnes grâces d’alliés de circonstances, notamment au Sahel. Parallèlement, le développement d’administrations étatiques et d’économies marchandes a bouleversé les cultes dits traditionnels ou agraires. L’ère coloniale a en effet consacré le grand basculement des populations d’Afrique subsaharienne dans le monothéisme en favorisant des conversions massives à l’islam ou à la chrétienté.
La période des indépendances a ensuite renouvelé les enjeux sociaux et politiques du religieux. Les catholiques et les anglicans, notamment, ont perdu leur position d’autorité face à la prolifération d’églises « indépendantes » puis « pentecôtistes » qui, pour certaines d’entre elles, existaient déjà depuis plusieurs décennies. En pleine guerre froide ont par ailleurs émergé de nouveaux acteurs du réveil islamique qui ont été qualifiés, tantôt de fondamentalistes, tantôt de réformistes.
Dans un premier temps, les salafistes se sont surtout opposés aux traditionalistes soufis et n’ont guère inquiété les pays occidentaux du fait de leur profonde hostilité au bloc communiste et à l’athéisme marxiste. Mais la guerre « globale » contre le terrorisme et le djihadisme a bientôt remis en cause certains des paradigmes qui avaient jusqu’alors dominé les analyses du religieux en Afrique. À l’orée du XXIe siècle, on a en effet assisté à une floraison d’études sur le salafisme et la « radicalisation de l’islam ».
Dans le même temps, les recherches sur l’Église catholique ou les protestants « orthodoxes » sont tombées en désuétude au profit d’un intérêt renouvelé pour des mouvements évangéliques, pentecôtistes et prophétiques parfois qualifiés de syncrétiques. Les termes du débat n’en ont pas moins continué d’être encadrés par des catégories d’analyse juridiques, démographiques et sociologiques qui dataient en grande partie de la période coloniale.
Ce livre a pour ambition de revisiter les questions religieuses à l’épreuve des chiffres et des catégorisations, entendues ici comme des typologies dans les recensements et des listes de cultes reconnus sur le plan juridique. Dans le cadre d’une approche empirique et sans prétentions théoriques, l’objectif est notamment de confronter les catégories officielles des autorités étatiques avec les réalités du terrain et les diverses interprétations locales ou nationales des phénomènes qualifiés de religieux.
Les chapitres constitutifs de l’ouvrage portent non seulement sur les musulmans et les chrétiens, mais aussi sur des ensembles hybrides et difficilement définissables au regard des récits dominants sur les appartenances confessionnelles à une échelle globale. C’est donc dans le rapport aux autres communautés de croyances et dans les contours de chacune d’entre elles que les études qui suivent visent à comprendre les transformations religieuses en Afrique.
Résolument pluridisciplinaire et innovante, la démarche mobilise des spécialistes du droit, de la démographie, des sciences politiques, de l’anthropologie, de l’histoire et de la science des religions. Elle fait le pari qu’on peut effectivement comparer des systèmes de croyances. Dans le même temps, les auteurs de ce volume reconnaissent pleinement les spécificités des communautés qu’ils analysent. Ils ne cherchent nullement à soutenir que certains concepts d’ordre théologique seraient transposables d’une religion à l’autre. Ils n’ont pas non plus la prétention de produire une synthèse de nos connaissances à partir d’une littérature académique déjà très riche et fort abondante sur la définition des religions, des systèmes de croyances et des communautés de foi en Afrique et, d’une manière générale, dans le monde.
Plus modestement, les objectifs sont triples sur le plan heuristique. En premier lieu, l’idée est de combiner des méthodologies quantitatives et qualitatives pour identifier et mieux cerner les contours de communautés de croyances qui ne sont pas aussi clairement définies qu’on pourrait l’imaginer de prime abord. Pour cela sont exploitées des données statistiques tirées de recensements, d’enquêtes démographiques, de sondages et de sources utilisées par le Pew Research Center aux États-Unis. Sont également évoquées les normes et les modalités de quantification, de codification, de qualification juridique et de reconnaissance des ensembles confessionnels, légalisés ou non. Une telle approche permet de « déchiffrer » autrement les notions de laïcité, d’incroyance, d’islamisation, d’évangélisation et de conversion au prisme de statistiques qui obligent à questionner des définitions pour le moins polysémiques.
En second lieu, l’objectif est de confronter les données démographiques et juridiques disponibles avec les perceptions de l’évolution des appartenances confessionnelles en Afrique. De fait, il existe d’importants écarts entre les réalités objectivables et les représentations véhiculées par les médias, les décideurs politiques et les croyants eux-mêmes.
Un troisième objectif de ce livre est en conséquence de s’affranchir des approches purement quantitatives pour appréhender en finesse la complexité des dynamiques religieuses du continent par le biais d’entretiens semi-directifs et d’observations participantes. À partir de cas d’étude très localisés, l’analyse de l’hybridité et de la fluidité des communautés de croyances questionne en effet les frontières habituellement établies entre l’islam, la chrétienté et les religions dites traditionnelles. Elle interroge également le rapport du religieux au profane, au politique, aux conflits et, d’une manière générale, à l’insécurité spirituelle et matérielle.
Marc-Antoine Pérouse de Montclos a reçu des financements de l'Université Paris Cité, Atrium Humanités et Sciences Sociales France 2030.
23.03.2026 à 15:38
Jean-François Cerisier, Professeur de sciences de l'information et de la communication, Université de Poitiers
Le projet d’interdire les smartphones au lycée et les réseaux sociaux aux mineurs de moins de 15 ans s’inscrit dans une politique de restrictions engagée depuis 2017. Mais bannir les smartphones peut-il vraiment écarter les dangers auxquels sont confrontés les adolescents ? En quoi cette stratégie ne peut-elle se substituer à l’action éducative ?
Après le déploiement du dispositif « Portables en pause » dans tous les collèges en septembre 2025, le chef de l’État a annoncé lors de ses vœux à la nation, fin décembre, son projet d’interdire l’usage des smartphones au lycée ainsi que l’accès aux réseaux sociaux aux moins de 15 ans dès la prochaine rentrée scolaire.
Cette initiative présidentielle s’inscrit dans la continuité d’une politique engagée depuis 2017, fondée sur des restrictions d’accès aux services numériques susceptibles de présenter des dangers pour les jeunes.
Cette stratégie, qui témoigne d’un véritable intérêt pour cette question au plus haut niveau de l’État, est fortement questionnée par les acteurs de terrain et les chercheurs. Quels en sont ses atouts et ses limites en termes de faisabilité et d’efficacité ?
L’exposition des plus jeunes aux dangers des mésusages numériques est une préoccupation affichée de manière récurrente par le président de la République. L’interdiction de l’usage des portables à l’école primaire et au collège figurait déjà dans ses promesses de campagne présidentielle en 2017 et s’est concrétisée par une proposition de loi déposée par le gouvernement à l’Assemblée nationale dès le début de son premier quinquennat.
Adopté et intégré au Code de l’éducation, le texte législatif a été promulgué le 3 août 2018. Il repose sur une interdiction de principe de l’utilisation des smartphones à l’école et au collège, mais prévoit différentes exceptions, notamment pour des usages pédagogiques, sous réserve d’en inscrire la nature et les finalités dans le règlement intérieur de l’établissement. De fait, peu d’établissements se sont saisis de cette possibilité et la loi a été peu respectée, car difficile à faire appliquer.
Face aux inquiétudes relatives aux usages intensifs des réseaux sociaux et des intelligences artificielles génératives par les jeunes, Emmanuel Macron a repris l’initiative il y a deux ans. Le 16 janvier 2024, il a annoncé puis institué la commission dite « des écrans » dont les conclusions lui ont été remises le 30 avril 2024. De ce rapport, intitulé « Enfants et écrans. À la recherche du temps perdu », l’exécutif n’a retenu qu’une seule mesure opérationnelle : l’interdiction stricte du smartphone au collège.
La « Pause numérique » au collège a alors fait l’objet d’une brève « expérimentation » fin 2024, à petite échelle, sans suivi scientifique ni publication de résultats ; les avis étaient mitigés quant à l’intérêt du dispositif. Celui-ci a pourtant été étendu à tous les collèges à la rentrée scolaire 2025 sous le nom de « Portable en pause », ce qui évite la confusion entre les enjeux de l’usage juvénile personnel des smartphones avec l’intérêt des usages pédagogiques des équipements et services numériques en classe.
Ce nouveau dispositif vient renforcer la loi de 2018. Il repose sur différentes stratégies de mise en œuvre possibles pour les chefs d’établissements : depuis la séquestration des smartphones dans des casiers spécifiques ou des pochettes scellées à l’entrée au collège au simple engagement des élèves à ne pas les utiliser. Bien qu’il n’existe pas d’études robustes à ce jour pour évaluer l’effectivité de cette disposition, différents témoignages soulignent les difficultés de son application.
À lire aussi : Smartphones au collège : de quoi la « pause numérique » est-elle le nom ?
Les coûts engagés peuvent être importants (acquisition des équipements de rétention, temps nécessaire au contrôle…). L’État, qui a décidé de la mesure, ne la finance pas, et la marge budgétaire des établissements est très limitée. Le report du financement des équipements vers les familles ou les collectivités territoriales n’est souvent pas possible. Nombre d’élèves contournent les mesures prises au moyen de différents stratagèmes. Certains recourent à d’anciens smartphones pour conserver l’usage des « vrais ». D’autres réalisent des incisions dans les pochettes permettant d’extraire les smartphones. Ainsi, les usages subsistent, hors de la vue des adultes (toilettes, recoins divers des établissements).
Différents témoignages d’enseignants et de chefs d’établissements ont pourtant été publiés qui accréditent, au contraire, l’effet positif de cette mesure, notamment sur le climat scolaire. La plupart d’entre eux rendent compte de l’inscription de la mesure d’interdiction dans un projet plus ambitieux d’éducation au numérique.
Dans le prolongement de cette politique concernant les écoliers et les collégiens, et dans le contexte de la publication de plusieurs rapports alarmants dont celui de la commission d’enquête parlementaire « sur les effets psychologiques de TikTok sur les mineurs » le 4 septembre 2025, le chef de l’État a de nouveau pris l’initiative avec l’annonce, lors de ses vœux du 31 décembre 2025, d’une nouvelle loi sur l’interdiction des smartphones au lycée et de l’accès aux réseaux sociaux aux moins de 15 ans. Celle-ci a été votée le 29 janvier 2026 par l’Assemblée nationale en première lecture selon une procédure accélérée décidée par l’exécutif.
Le texte, voté avec une majorité très nette, modère les propositions du texte initial. S’agissant des réseaux sociaux, l’interdiction intégrale initialement annoncée a été assouplie. Seul l’usage des réseaux sociaux appartenant à une liste noire qui sera définie à partir d’un avis de l’Arcom sera interdit aux moins de 15 ans. Pour les autres, dont WhatApps, très utilisé pour la communication familiale, l’utilisation sera possible sous réserve d’une autorisation parentale avec l’élaboration d’un cadre explicite (durée, horaires et contenus).
L’utilisation des smartphones, quant à elle, sera interdite pendant les cours et dans les couloirs, mais le règlement intérieur de l’établissement pourra décider de zones et de conditions d’usage. Ainsi voté, le texte de la loi a été transmis pour examen au Sénat et le gouvernement a annoncé qu’il espérait que le processus législatif puisse aboutir à une entrée en vigueur dès la rentrée scolaire de septembre 2026.
L’observation des usages réels que les jeunes font du numérique dessine un paysage contrasté et peu visible des adultes. Bien réels, les dangers auxquels ils s’exposent sont documentés : sédentarité excessive ; isolement social, captation de l’attention limitant ou excluant l’engagement dans des activités éducatives ou culturelles ; confrontation à la violence, à la pornographie, à la désinformation, à la propagande, à la manipulation, au harcèlement ; délégation à la machine d’activités pourtant nécessaires aux apprentissages, triche scolaire…
À lire aussi : « Revenge porn », comptes « fisha » : les ados face aux nouvelles cyberviolences
A contrario, les usages émancipateurs et formateurs du numérique restent assez peu connus et souvent minorés. Pourtant, des travaux de recherche montrent l’importance et l’intérêt des pratiques numériques informelles des jeunes. Utiles pour leur développement personnel comme pour leur réussite scolaire, elles s’appuient beaucoup sur l’utilisation de réseaux sociaux, mais pas uniquement. Elles sont diversifiées avec des activités de communication, mais aussi un grand intérêt pour la recherche d’informations, les activités créatives ou ludiques.
À lire aussi : « Revenge porn », comptes « fisha » : les ados face aux nouvelles cyberviolences
L’enjeu de l’action éducative consiste donc à prémunir les jeunes de certains dangers tout en leur permettant de se construire par l’expérience numérique. Pour ce faire, la voie choisie par l’État au cours de ces huit ans privilégie l’interdiction pour répondre à ses obligations de protection des mineurs. Si ce choix politique peut rassurer certains publics, il n’a pas fait la preuve de son efficacité à ce jour.
Les difficultés d’application de la loi de 2018 puis du dispositif « Portables en pause » n’ont pas fait disparaître les risques parfois excessifs pris par les collégiens. Le cyberharcèlement, pour ne prendre que cet exemple, continue de se développer comme le montrent les signalements collectés par le dispositif « Phare de lutte contre le harcèlement à l’école ».
En revanche, ce cadrage institutionnel interdit ou rend très difficile la scolarisation des smartphones, c’est-à-dire l’utilisation à caractère pédagogique, au moment où le budget de l’État et ceux des collectivités territoriales ne laissent guère espérer le renouvellement du matériel obsolète des établissements et l’équipement individuel des élèves. Les proviseurs ne cessent de le répéter, l’extension de ce régime d’interdiction aux lycéens, dont une partie est majeure, semble encore plus difficile à appliquer.
Cette politique d’interdiction pourra-t-elle, à elle seule, régler l’ensemble des problèmes ? De facto, elle ne pourra pas se substituer à d’autres stratégies, faiblement ou insuffisamment activées à ce jour, et dont l’articulation est nécessaire à la fois pour la protection des mineurs et leur émancipation personnelle et citoyenne. Citons-en quatre, sans qu’il soit possible de les hiérarchiser.
La première est celle de la régulation de l’activité de grands acteurs du numérique (Gafam et BATX) : réguler davantage afin de ne pas reporter sur les jeunes la responsabilité qui incombe à ces entreprises. Mais comment réguler alors que la tendance mondiale actuelle est plutôt à la dérégulation, comme l’illustre l’affaiblissement des procédures de modération de la plupart des plateformes de réseaux sociaux ?
La deuxième stratégie consiste à renforcer l’éducation au numérique à l’école, dans une perspective de co-éducation avec les parents. Les activités d’éducation aux médias et à l’information (EMI) organisées en établissement, le plus souvent avec l’appui du CLEMI et de son réseau, y contribuent déjà, mais les moyens qu’y alloue l’État ne sont pas à la hauteur de l’enjeu. Par ailleurs, de la même façon que l’on n’apprend pas à nager depuis le bord du bassin, cette éducation au numérique ne saurait se concevoir sans que les jeunes aient une véritable expérience du numérique et de la citoyenneté numérique.
Le troisième levier est celui de l’offre. Interdire les réseaux sociaux invite à proposer des activités numériques alternatives, avec des formats et des contenus convaincants. C’est la question du soutien à l’édition jeunesse au format numérique qui est soulevée.
Enfin, la quatrième stratégie consiste à reconnaître la légitimité des pratiques numériques juvéniles, à les valoriser autant que possible et à éviter de projeter sur les jeunes des normes d’utilité, de qualité et de bienséance qui correspondent aux attentes des adultes.
Pour les travaux de recherche réalisés depuis plusieurs années qui ont permis la rédaction de cet article, l'unité de recherche Techné de l'université de Poitiers où travaille Jean-François Cerisier a reçu des financements de collectivités territoriales, de l'État (MEN, SGPI) et de la Fondation MAIF.
23.03.2026 à 15:37
Nicolas Fabre, Doctorant en économie des transports, ENTPE
Dans un contexte de tension sur les finances publiques, l’ouverture à la concurrence des lignes régionales est brandie comme une promesse de réduction de la facture pour les Régions. Pour autant, un service qui produit plus, mieux… et à coûts réduits dépend autant de la politique de la Région que du seul opérateur ferroviaire.
En 2021, le ferroviaire connaissait un premier processus d’ouverture à la concurrence sur le segment de la grande vitesse qui, rappelons-le, ne bénéficie d’aucune subvention pour son fonctionnement. Si cette libéralisation est profitable à l’usager en termes de prix et d’offre, il subsiste néanmoins des questions de péréquation territoriale.
Depuis décembre 2023, c’est au tour du ferroviaire régional d’être ouvert à la concurrence. À la différence de la grande vitesse, le TER est un service conventionné, c’est-à-dire que l’équilibre économique du service est assuré par une subvention des Régions. En 2024, les usagers couvraient en moyenne 34 % des coûts de fonctionnement, complété par une participation régionale de 66 %, soit 3,8 milliards d’euros.
À lire aussi : Des TER plus performants ? La mise en concurrence ne pourra pas tout
Jusqu’alors assuré sur l’ensemble des Régions par la SNCF, le service TER est aujourd’hui attribué par des contrats d’exploitation (des lots) qui doivent faire l’objet d’une mise en concurrence. L’arrivée de nouveaux opérateurs, dont certains sont déjà attributaires de lots (voir figure ci-dessous), amorce une recomposition du paysage ferroviaire public.
Calendrier d’ouverture à la concurrence dans le ferroviaire régional
Concernant le rôle des Régions, elles organisent le service TER, c’est-à-dire qu’elles commandent, allouent et financent une offre de trains pour répondre aux besoins des usagers. Les Régions, qui n’avaient pas le choix de l’opérateur, étaient dépendantes de la SNCF. Avec la concurrence, elles doivent monter en compétence pour s’assurer que l’opérateur exécute bien le service au coût le plus raisonnable.
Cette motivation de réduire la facture pour le contribuable est d’autant plus importante que les coûts de l’opérateur historique ont fortement progressé et que les finances des Régions se sont dégradées. Cela s’est déroulé dans un contexte de perte de leur autonomie fiscale et de leurs recettes ces dernières années. L’Autorité de régulation des transports (l’ART) note qu’à ce stade la concurrence a plutôt été bénéfique en termes de coûts et d’offre, y compris dans le cas où la SNCF, qui accumule les victoires, remporte les lots qu’elle exploitait déjà.
Cette réduction des coûts, au bénéfice du contribuable, ne saurait se faire au détriment de la qualité du service, qui concerne l’usager. Les résultats d’une grande enquête de satisfaction administrée par la Chambre régionale des comptes Auvergne-Rhône-Alpes, lorsqu’elle a évalué la politique des TER de la région, montrent que, pour être attractif, le service rendu doit d’abord être performant.
Une autre évolution concerne directement l’économie du ferroviaire. Pour favoriser l’arrivée de nouveaux opérateurs, les Régions ont défini des lots, quatre fois plus petits en moyenne que les marchés régionaux avant l’ouverture à la concurrence. Or, ce « morcellement » peut faire craindre la perte d’économies d’échelle, même s’il est encore trop tôt pour se prononcer.
Pour comprendre l’effet de ces transformations profondes sur l’efficience des TER, le besoin d’évaluation des services et des politiques ferroviaires se fait pressant. Grâce à une analyse à la ligne de train, il est possible de comprendre en détail les facteurs influençant réellement l’efficience d’un service ferroviaire.
Un service de transport ferroviaire efficient est celui qui propose le plus de trains au coût le plus faible. Ce questionnement sur l’efficience a guidé nos travaux, menés à la Chambre régionale des comptes et en partenariat avec l’ART. Plusieurs enseignements concrets en ressortent.
D’abord, comparer l’efficience des lignes de TER révèle une grande hétérogénéité entre, mais aussi au sein des Régions. Si les différences d’efficience entre les Régions sont documentées, celles entre les lignes comparables le sont beaucoup moins. Pourtant, l’analyse à l’échelle de la ligne est utile, car elle montre que l’efficience dépend à la fois de la Région et des opérateurs.
Les caractéristiques du matériel roulant déterminent fortement l’efficience d’une ligne. Celles dotées d’un matériel ancien et peu standardisé ont un coût de fonctionnement plus élevé, toutes choses égales par ailleurs. Pour les Régions, qui le financent, renoncer à investir dans le matériel roulant augmente in fine les coûts. Inversement, une pratique de maintenance vertueuse du matériel par l’opérateur contribue à l’efficience financière d’une ligne.
Dans ce contexte de concurrence, la question du matériel roulant est particulièrement épineuse, puisque le matériel attribué à un lot concourra directement à l’efficience ou non de l’opérateur, quel qu’il soit. C’est d’ailleurs un sujet dont les Régions se sont saisies, avec le développement de sociétés publiques locales consacrées à l’achat et à la gestion du matériel roulant, mais dont on peut craindre qu’elles opacifieront la lecture financière et comptable des TER.
Cette recherche de la « performance des coûts » ne doit pas effacer celle de la qualité du service. Dans le ferroviaire régional, le train à l’heure coûte autant que celui en retard, puisque les régions commandent à l’opérateur un volume de trains, qu’ils soient en retard ou non. Des ajustements sont effectués à travers des pénalités, mais la Cour des comptes relève qu’ils sont finalement assez peu incitatifs. Cette relative décorrélation entre les coûts du service et la qualité produite est déconcertante du point de vue de l’usager. En intégrant la qualité et le coût dans un indicateur unique, nous montrons que les lignes les plus performantes en coûts et qualité sont globalement les plus fréquentées, donc à enjeux.
L’inclusion de critères de qualité permet aussi de valoriser des lignes qui ne sont pas les plus efficaces d’un point de vue économique, mais qui délivrent néanmoins un service fiable aux usagers. Ce sont ces lignes rurales et périphériques, pour lesquelles les évaluations socio-économiques sont pourtant souvent défavorables. En revanche, nous constatons que certaines lignes sont peu performantes à la fois selon des critères de coûts et de qualité. On y retrouve notamment les lignes interrégionales, peut-être plus sujettes aux difficultés de coordination. Ce qui interroge sur d’éventuelles difficultés futures liées au découpage du réseau en lots et à la présence de plusieurs opérateurs.
S’il est encore trop tôt pour tirer des conclusions définitives sur les vertus et limites de la concurrence, nous plaidons pour faire davantage coïncider les attentes du contribuable avec celles de l’usager. Ces recherches proposent une méthodologie « clé en main » pour contribuer à poursuivre ces buts conjointement. Comprendre pourquoi certaines lignes, certaines Régions sont plus performantes permettra de diffuser les bonnes pratiques en isolant ce qui dépend des Régions, des opérateurs et du contexte local.
À cet égard, l’ART a un grand rôle à jouer, puisqu’étant, avec l’opérateur historique, la seule à disposer de l’ensemble des données, elle peut favoriser le partage de ces informations pour un accès équitable et des analyses approfondies. C’est d’ailleurs un choix assumé par l’Autorité qui est porteuse d’une politique forte de transparence par la donnée.
Nicolas Fabre a reçu des financements de la Chambre régionale des comptes Auvergne-Rhône-Alpes.
23.03.2026 à 15:37
Éric Mengus, Professeur associé en économie et sciences de la décision, HEC Paris Business School

Avec la crainte d’une hausse de l’inflation, la question du resserrement monétaire réapparaît au Japon, aux États-Unis, au Royaume-Uni et même dans l’Union européenne. Retour sur cette politique monétaire mise en œuvre après la crise financière de 2008. Concrètement, une remontée des taux d’intérêt directeurs par les banques centrales et de facto sur nos prêts immobiliers.
Dans le contexte du conflit au Moyen-Orient, la réunion des quatre grandes banques centrales – Réserve fédérale américaine, Banque centrale européenne, Banque d’Angleterre et Banque du Japon – est scrutée de près. Avec le prix d’un baril de pétrole à plus de 112 dollars (plus de 96 euros), la peur d’une flambée inflationniste est dans tous les esprits.
L’outil phare des banques centrales pour contrôler l’inflation : le taux d’intérêt directeur. La Banque centrale européenne a décidé de garder son taux à 2 %. La Réserve fédérale américaine à 3,50 %-3,75 %. La Banque centrale du Japon à 0,75 %.
Concrètement, lorsque les banques centrales augmentent leurs taux d’intérêt directeurs, les prêts pour les entreprises et les ménages deviennent plus onéreux, et de facto, la demande de crédit baisse. À l’inverse, une baisse des taux directeurs encourage les crédits et peut potentiellement créer de l’inflation.
Pour garantir une stabilité de leur économie dans ces périodes de crise et freiner l’inflation, les banques centrales ont adopté une politique monétaire dite de « resserrement monétaire ». Explication de la crise financière de 2008 en passant par la pandémie de Covid-19 ou la crise inflationniste de 2022.
L’intensité de la crise financière de 2008 et ses conséquences économiques a conduit les banques centrales à réduire fortement leurs taux d’intérêt directeurs, jusqu’à atteindre 0 %, voire des valeurs négatives.
Parmi ces taux directeurs, on compte généralement le taux sur les marchés interbancaires à très court terme – c’est-à-dire le prix de l’argent pour les banques. La banque centrale, en visant ce taux, affecte via le système financier le coût de financement de toute l’économie.
Diminuer davantage les taux directeurs a été jugé difficile, et non sans risques. Les banques centrales ont pratiqué de nouvelles formes d’intervention – les politiques monétaires dites « non-conventionnelles ». Ces politiques se distinguent de la politique monétaire conventionnelle qui a trait à la manipulation des taux directeurs, mais partage le même objectif de faciliter le financement de l’économie.
On distingue plusieurs politiques non conventionnelles comme le guidage prospectif (ou forward guidance) ou l’assouplissement quantitatif (ou quantitative easing). Dans ce dernier cas, la banque centrale achète de grandes quantités de titres – essentiellement des obligations – auprès des banques qu’elle paie en réserves, c’est-à-dire de la monnaie de banque centrale.
De nombreuses banques centrales ont eu recours à des programmes de quantitative easing : la Fed, la Banque d’Angleterre, la Banque du Japon ou encore, depuis 2015, la Banque centrale européenne (BCE) avec le « Asset Purchase Programme ». En réaction face aux conséquences économiques et financières de la pandémie de Covid-19, la BCE a ajouté le « Pandemic Emergency Purchase Programme ». Par exemple, l’enveloppe du programme est de 1 850 milliards d’euros le 10 décembre 2020.
In fine, la taille des bilans des banques centrales a atteint des niveaux rarement égalés. Dans le cas de la BCE, le bilan consolidé de l’Eurosystème a atteint pratiquement 9 000 milliards d’euros au pic de ces programmes en 2021/2022, soit pratiquement 70 % du PIB de la zone euro. Les chiffres sont encore plus impressionnants pour la Banque du Japon, dont le bilan a dépassé les 130 % du PIB après la pandémie de Covid-19.
À lire aussi : Et si le quantitative easing se mettait au service du plus grand nombre ?
Ces politiques quantitatives n’ont pas été sans critiques. Parmi celles-ci, elles ont été accusées d’avoir des effets redistributifs importants, faisant des banques centrales des acteurs de facto de la politique fiscale. Elle pose la question de leur légitimité démocratique.
L’efficacité de ces politiques a également été questionnée. De multiples articles de recherche, notamment dans le cas de la BCE, ont souligné leurs effets tant sur les marchés financiers que sur l’activité économique. Ben Bernanke, alors président de la Fed et prix Nobel d’économie, avait commenté en 2012 :
« Le problème avec l’assouplissement quantitatif, c’est qu’il fonctionne en pratique, mais pas en théorie. »
Avec la fin des politiques de soutien à l’économie après la pandémie de Covid-19 et le retour de l’inflation en 2022, la politique monétaire a procédé à la constriction des conditions de financement. Ce « resserrement monétaire » a pris la forme d’une remontée importante des taux directeurs, de 0 % jusqu’en juillet 2022 à un pic à 4,5 % en septembre 2023 – le resserrement monétaire conventionnel.
En parallèle, la BCE et l’Eurosystème ont fortement réduit la taille de leur bilan – état des fonds alloués, empruntés et détenus à une certaine date. À la fin 2025, celui-ci avait diminué de plus d’un quart en valeur depuis son pic atteint post-pandémie de Covid-19 – le resserrement monétaire quantitatif ou quantitative tightening.
Ce resserrement quantitatif peut avoir lieu de manière active : la banque centrale vend les titres qu’elle avait acquis, afin de récupérer puis annuler les réserves qu’elle avait émises. Sans même ces ventes, le bilan de la banque centrale se réduit naturellement, lorsque les obligations achetées par cette dernière arrivent à maturité et sont remboursées par leurs créanciers.
Ces remboursements permettent à la banque centrale de récupérer les réserves qu’elle avait émises. Il faudrait alors une intervention active de la banque centrale pour maintenir la taille de son bilan en achetant à de nouveaux titres payés en émettant de nouvelles réserves.
Au-delà d’éventuelles mesures de court terme, la parole des banques centrales sera décortiquée par les analystes financiers ces prochaines semaines. En effet, il sera important d’observer d’éventuels signaux dans les discours des banquiers centraux quant à un changement plus persistant de la politique monétaire. Cela pourrait signifier notamment que d’autres remontées de taux sont possibles.
Ces remontées de taux seraient alors anticipées par les marchés financiers, du moins en partie. Ces derniers exigeraient des taux encore plus élevés, réduisant encore le financement de l’économie. Ce canal de la communication est important pour les banques centrales qui ont bien conscience que leurs mots sont écoutés avec attention.
Éric Mengus ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
23.03.2026 à 15:37
Mourad Touzani, Enseignant-chercheur, Neoma Business School
Norchene Ben Dahmane Mouelhi, Marketing, ESCE International Business School
Dans l’œil des sociologues et des spécialistes du marketing, le mois du ramadan, qui vient de s’achever, est un terrain d’observation très riche qui permet d’étudier comment les rites, notamment alimentaires, s’adaptent aux évolutions sociales et aux habitudes de consommation.
On compte 1,9 milliard de musulmans dans le monde, mais il est difficile de connaître la proportion précise de musulmans qui jeûnent pendant le ramadan. Selon France Culture, parmi les 5,4 millions de Français de confession musulmane, 70 % pratiquent le jeûne. Dans le rapport d’une étude réalisée en 2023 par TGM Research dans 15 pays, 98 % déclarent qu’ils célébreront le ramadan et 94 % affirment qu’ils jeûneront. En France, en 2026, 83 % des musulmans de 18 à 24 ans observent le jeûne du ramadan, selon un sondage Ifop publié en novembre dernier.
Le mois de ramadan correspond au neuvième mois du calendrier lunaire hégirien. Il est au cœur de la vie de millions de musulmans à travers le monde. Traditionnellement associé au jeûne (sawm), à la prière et à l’autodiscipline, ce pilier de l’islam semble, à première vue, être le mois de la déconsommation. Pour un des répondants à une enquête sur le sujet menée auprès de la communauté musulmane en France en 2011 :
« C’est aussi un mois de réflexion et de méditation, et, compte tenu des obligations et des devoirs qu’il implique, nous devons faire face à tous nos désirs humains et à toutes les tentations… C’est un mois de ferveur communautaire et de solidarité, mais aussi un mois de maîtrise de soi. »
Pourtant, une analyse approfondie des pratiques rituelles et culinaires révèle un phénomène bien plus complexe : le ramadan peut devenir un véritable festival de la consommation où le sacré et le profane s’entremêlent.
La rupture du jeûne (iftar), qui correspond au coucher du soleil, ne se résume pas à l’ingestion de calories ; c’est un système codifié de pratiques symboliques. Le rituel commence souvent par la consommation de dattes et de lait, une pratique mimétique qui fait écho aux habitudes du prophète Mohammed telles qu’elles sont relatées dans le Coran. Cet acte simple transforme la nourriture en un lien sacré reliant l’individu à l’ensemble de la communauté musulmane (oumma).
À en croire un autre répondant de notre enquête :
« Nous respectons les horaires que nous distribue la mosquée et le fait de rompre le jeûne exactement au même moment que des centaines d’autres personnes est vraiment un acte magique qui renforce notre sentiment d’appartenance à la communauté musulmane de France. »
Dans plusieurs pays, la table du ramadan devient un « banquet pour les sens ». Ainsi, une des personnes interrogées précise que « la présentation de la table devient un véritable travail d’artiste capable de réveiller tous les sens ».
En Tunisie ou au Maroc, par exemple, on retrouve des plats incontournables comme la chorba ou hrira (soupe traditionnelle), les briks à l’œuf, la pastilla (une sorte de tourte), les tajines, les salades diverses et des pâtisseries parfumées (comme les zlabias, makroudhs, samsas, ou encore les baklawas). Cette focalisation sur l’alimentation est telle que la cuisine devient le véritable « centre de gravité de la maison ».
Le shour (repas pris avant le lever du soleil) est aussi un moment phare de la journée du jeûne lors duquel certains vont prendre un petit déjeuner ou carrément un déjeuner. Certaines journées marquent ce mois saint comme le 14ᵉ ou le 26ᵉ jour, nuit d’Al Qadr, au cours de laquelle les familles préparent souvent du couscous.
La « noëlisation » du ramadan décrit la transformation de ce mois « saint » en une période de consommation intense, comparable à ce qu’est devenue la fête de Noël dans les pays occidentaux. Ce phénomène se manifeste par une augmentation spectaculaire des dépenses en denrées alimentaires, en vêtements et en cadeaux.
Ainsi, selon un récent article des Échos publié en février 2025, les dépenses alimentaires des ménages musulmans en France augmentent de 40 % en moyenne pendant cette période, passant de 282 à 394 euros par mois, et le chiffre d’affaires total du ramadan s’établirait à plus de 400 millions d’euros dans l’Hexagone.
Cette évolution est particulièrement visible lors de l’Aïd-el-Fitr, la fête marquant la fin du jeûne. Initialement centrée sur la spiritualité, elle est devenue, dans de nombreux foyers, la « fête des petits ». On y observe une prolifération de cadeaux, notamment des jouets technologiques (consoles de jeux, smartphones) qui remplacent les jouets traditionnels d’autrefois.
Le marché s’est adapté, proposant des promotions agressives et des décors festifs qui sacralisent le shopping. Le centre commercial devient un lieu de rassemblement où l’expérience de la communauté se vit à travers l’achat. Certaines familles préparent chaque année les mêmes plats pour célébrer la fin du ramadan et l’Aïd-el-Fitr : la soupe hlalem avec des merguez, la mloukhia, ou encore la charmoula et le poisson salé.
Cette journée est l’occasion d’un rassemblement familial : les convives dégustent des pâtisseries traditionnelles et portent des vêtements neufs. Les enfants reçoivent une somme d’argent (mahba).
Le marché français s’est adapté : les supermarchés proposent désormais des produits spécifiques, allant des feuilles de brik aux raviolis halal, permettant un mélange des genres culinaires (on peut manger des frites ou des pizzas à l’Iftar pour faire plaisir aux enfants. Les catalogues des supermarchés français mettent à l’honneur ces périodes particulières de l’année.
Le ramadan est intrinsèquement lié à une volonté de purification du corps et de l’esprit. En s’abstenant de nourriture, de tabac et de parfums, le croyant cherche à retrouver une pureté originelle. Paradoxalement, cette quête d’ascétisme se heurte souvent à une surconsommation ostentatoire.
Une forme de surconsommation s’empare parfois des consommateurs. On achète plus que nécessaire, et le gaspillage alimentaire devient un problème réel. Bien que le jeûne ait pour but de faire ressentir la faim telle que la vivent les pauvres, l’abondance des tables de rupture de jeûne contredit parfois cet idéal de sobriété. Mais cette générosité a aussi un versant positif : les rituels oblatifs (sadakkah) se multiplient, avec des dons de nourriture et d’argent aux plus démunis pour s’assurer que personne ne reste sans repas pour la rupture du jeune ou l’Aïd. Plusieurs plateformes en ligne permettent ainsi de récolter des dons.
Le ramadan n’est pas une pratique figée dans le temps. Il est le fruit d’un syncrétisme culturel permanent où les valeurs ancestrales de l’islam rencontrent les forces de la mondialisation et du capitalisme. Que ce soit à Tunis, Paris ou ailleurs, la nourriture reste le marqueur identitaire le plus puissant de ce mois. Elle permet de passer du « moi privé » au « nous collectif », transformant chaque bouchée en un acte de résistance culturelle ou de dévotion spirituelle.
Pour les spécialistes du marketing et les sociologues, le ramadan est devenu un laboratoire fascinant pour observer comment le sacré peut cohabiter avec le matériel, prouvant que, même dans l’abstinence, l’humain reste un « homo consumericus ».
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.