13.11.2025 à 17:20
David Matelot, Enseignant d'EPS, docteur en physiologie de l'exercice, Université Bretagne Sud (UBS)
Florent Desplanques, Professeur agrégé d'EPS, chargé d'enseignement, École normale supérieure de Rennes
Laurent Beghin, Etudes cliniques, Université de Lille
Vanhelst Jérémy, Maître de conférences en STAPS, Université Sorbonne Paris Nord

Alors que les performances à l’endurance des élèves ont chuté de près de 18 % entre 1999 et 2022, l’éducation nationale commence à mesurer la condition physique des enfants en classe de 6e. Une vaste enquête menée auprès de 2 400 enseignants d’éducation physique et sportive révèle que ceux-ci constatent ce déclin, mais peinent à en faire une priorité, faute de temps, de moyens et de formation. Pourtant, améliorer l’endurance cardiorespiratoire et la force musculaire à l’école apparaît aujourd’hui essentiel pour prévenir les risques cardio-vasculaires et poser les bases d’habitudes durables. Une équipe de chercheurs propose cinq pistes pour redresser la barre.
Les performances des élèves français au Navette 20 mètres, un test d’endurance cardio-respiratoire, ont diminué d’environ 18 % entre 1999 et 2022. Pour comprendre cette évolution, nous avons interrogé environ 2 400 enseignants d’éducation physique et sportive (EPS) en collège et lycée. Plus de 90 % savent que l’endurance cardiorespiratoire et la force musculaire sont associées à une meilleure santé physique.
Parmi les répondants, 91 % considèrent que le niveau d’endurance des élèves a baissé ces vingt dernières années, et 66 % jugent qu’il en va de même pour leur force.
Cependant, comme le montrent les réponses ci-dessus, le développement de ces deux qualités physiques est un objectif plutôt secondaire de leurs cours. De plus, 47 % des enseignants considèrent que les objectifs de l’EPS dans les programmes officiels ne donnent pas une place prioritaire au développement de ces qualités, ce qui freine la prise en compte de cette problématique.
Le développement de la condition physique des élèves en EPS est difficile parce qu’il nécessite pour l’enseignant d’EPS de concevoir des cours adaptés à trois caractéristiques qui varient au sein des élèves d’une même classe : leurs niveaux de force et d’endurance cardiorespiratoire, leurs stades de croissance et de maturation, et leurs motifs d’agir.
Les résultats de ce questionnaire nous ont amenés à développer cinq pistes pour le développement des qualités d’endurance cardiorespiratoire et de force musculaire des collégiens et des lycéens.
« La question des qualités physiques vient buter souvent sur le manque d’attrait pour les élèves d’un engagement dans des efforts […] il faut être habile pour habiller les situations et les rendre ludiques tout en travaillant les qualités physiques. »
Cette réponse illustre une difficulté importante à laquelle les enseignants d’EPS doivent faire face, qui semble également vraie chez les adultes comme le montrent les travaux sur le « syndrome du paresseux ».
Plus spécifiquement pour l’EPS, il semble important de s’intéresser au plaisir et au déplaisir ressentis par les élèves, car ces émotions influencent la construction d’habitudes de pratiques physiques durables. La difficulté principale ici est qu’un même exercice proposé à l’ensemble de la classe va susciter de l’intérêt et du plaisir chez certains élèves mais du désintérêt voire du déplaisir pour d’autres. Chaque élève peut en effet se caractériser par des « motifs d’agir » variés : affronter en espérant gagner, progresser pour soi-même, faire en équipe, vivre des sensations fortes…
Les exercices dits « hybrides » sont une solution développée par des enseignants d’EPS : le principe est de proposer la même situation à tous les élèves, dans laquelle ils peuvent choisir leur objectif pour que chacun s’engage selon sa source de motivation privilégiée. Le « Parkour Gym » est une forme de pratique scolaire de la gymnastique artistique où les élèves composent un parcours en juxtaposant plusieurs figures d’acrobaties, en choisissant le niveau de difficulté. L’objectif pour tous est de réaliser ce parcours le plus rapidement possible, tout en réalisant correctement les figures acrobatiques choisies, qui rapportent des points selon leurs difficultés.
Cette pratique permet à chaque élève de se focaliser sur sa source de motivation privilégiée : améliorer son temps ou son score acrobatique, avoir un score final (temps et difficultés) le plus élevé possible, ou encore travailler spécifiquement la réalisation d’une acrobatie perçue comme valorisante ou génératrice de sensations fortes. Le travail ainsi réalisé en gymnastique, de par le gainage et les impulsions nécessaires, développe le système musculaire.
Le premier frein rapporté par les enseignants est le manque de temps en cours d’EPS, notamment au regard des multiples objectifs à travailler. Par exemple en Lycée Général et Technologique les programmes d’EPS contiennent cinq objectifs à travailler, en deux heures hebdomadaires. Une première solution qui apparaît serait d’augmenter le temps d’EPS obligatoire pour tous les élèves. Ou encore de prévoir des dispositifs de « soutien en EPS » avec des moyens supplémentaires dédiés aux élèves en difficulté dans cette discipline.
Des solutions existent également à moyens constants. La première possibilité est celle de l’association sportive scolaire qui existe dans chaque établissement, et qui propose des activités physiques et sportives aux élèves volontaires. Cette association est animée par les enseignants d’EPS de l’établissement, cette activité fait partie de leur temps de travail. Si les chiffres du graphique ci-dessous sont encourageants, il semble possible d’élargir encore davantage ces offres dans les collèges et lycées de France.
D’autres possibilités existent. L’équipe EPS du collège Les Hautes Ourmes (académie de Rennes) propose un dispositif intéressant, sur le modèle de ce qui est proposé en natation pour les non-nageurs, avec trois enseignants au lieu de deux qui interviennent sur deux classes en même temps. Ce fonctionnement permet de constituer des plus petits groupes de besoin encadrés par chaque enseignant, et de travailler une qualité physique ciblée prioritairement pour ce groupe (endurance cardiorespiratoire, vitesse, force et endurance musculaire, coordination, équilibre).
Enfin, l’académie de Limoges a mis en place des sections sportives scolaires « Sport-Santé ». Ce n’est plus la performance sportive qui est visée mais la recherche d’un bien-être physique, psychologique et social. La section donne l’opportunité aux élèves volontaires de s’impliquer dans la gestion de leur vie physique, en les sensibilisant à l’importance de la pratique sportive.
L’approche est axée sur la valorisation des réussites et de l’estime de soi, et propose des modalités de pratique novatrices et ludiques, adaptées aux spécificités des élèves. L’objectif est donc de donner ou de redonner le goût de la pratique physique à ces élèves, étape indispensable vers un mode de vie actif au-delà de l’École. Ces sections font partie, avec d’autres dispositifs, d’un réel système mis en place pour développer les qualités physiques de leurs élèves à différents niveaux. Nous espérons que cette démarche pourra se généraliser à d’autres Académies.
Les réponses aux deux questions ci-dessus indiquent qu’il serait intéressant de prévoir pendant les cours d’EPS plus de situations qui travaillent les qualités d’endurance cardiorespiratoire et de force musculaire des élèves. Celles-ci peuvent être stimulées et développées pendant toute la durée du cursus collège-lycée. Il est possible de développer ces qualités physiques pendant la pratique des activités physiques et sportives au programme en les intensifiant, ou alors lors de temps dédiés comme pendant un échauffement renforcé ou des exercices intermittents de haute intensité.
Parmi les répondants, 60 % des enseignants disent faire un test d’endurance cardio-respiratoire au moins une fois par an à leurs élèves, ce qui semble déjà élevé mais pourrait encore être généralisé. Pour la force seulement, 14 % des enseignants disent que leurs élèves font un test au moins une fois par an, et ils sont 63 % à ne jamais faire de tests de force pendant leur scolarité dans l’établissement.
Les tests physiques sont globalement assez peu exploités en France. En effet, aucune batterie de tests ni base de données nationale n’existe en France contrairement à d’autres pays (par exemple, les programmes Fitnessgram aux États-Unis, Youth-Fit en Irlande, ou Slofit en Slovénie). Mesurer les qualités physiques par des tests répétés met en évidence les progrès des élèves et améliore leur connaissance de soi, ces tests peuvent être un outil pour l’EPS.
Globalement, les enseignants sont intéressés par une formation sur ce thème (cf. graphique ci-dessous). Si environ 80 % des enseignants disent avoir été suffisamment formés pour évaluer (83 %) et développer (78 %) l’endurance cardio-respiratoire de leurs élèves, concernant la force, ces chiffres descendent à 49 % pour son évaluation et à 58 % pour son développement.
Plusieurs études démontrent que les niveaux d’aérobie et de force des élèves sont liées à leurs risques de développer des pathologies cardio-vasculaires plus tard dans la vie, et plus globalement à leur espérance de vie. Cette association n’est connue que par 41 % des enseignants pour l’aérobie et par 22 % pour la force. La formation continue des enseignants d’EPS dans ce domaine pourrait donc également être renforcée.
Les auteurs tiennent à remercier François Carré, professeur émérite au CHU de Rennes, pour sa contribution à la rédaction de cet article.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
13.11.2025 à 17:20
Anthony Schrapffer, PhD, EDHEC Climate Institute Scientific Director, EDHEC Business School
Élévation du niveau de la mer, intensification des tempêtes… La concentration d’infrastructures sur le littoral les place en première ligne face au changement climatique. Les risques sont nombreux : paralysie des transports, coupures d’électricité, ruptures d’approvisionnement. De quoi inviter à mieux mesurer ces vulnérabilités pour mieux anticiper et prévenir les impacts. Ce travail est aujourd’hui compliqué par des données souvent partielles, des méthodes trop diverses et l’absence d’un cadre commun pour bien appréhender le risque.
La fin du mois d’octobre 2025 a été marquée par le passage dévastateur, dans les Caraïbes, de l’ouragan Melissa. Le changement climatique a rendu ce type d’événement quatre fois plus probable, selon une étude du Grantham Institute de l’Imperial College London. En plus de la soixantaine de morts déplorés à ce stade, le coût des dégâts engendrés a déjà été estimé à 43 milliards d’euros.
De nombreuses grandes agglomérations, ainsi que des ports, des zones industrielles et des infrastructures critiques, se trouvent en milieu littoral. 40 % de la population mondiale vit à moins de 100 kilomètres des côtes et 11 % dans des zones côtières de faible altitude – à moins de 10 mètres au-dessus du niveau marin. Ce phénomène s’explique en partie par la facilité d’accès aux échanges maritimes ainsi qu’aux ressources naturelles telles que l’eau et la pêche, et au tourisme.
Mais avec l’élévation du niveau de la mer et l’intensification des tempêtes, cette concentration d’infrastructures sur le littoral se retrouve en première ligne face au changement climatique. Transports paralysés, coupures d’électricité, ruptures d’approvisionnement… les risques sont plus divers et amplifiés.
La mesure de ces vulnérabilités s’impose pour anticiper les effets économiques, environnementaux et sociaux et, surtout, prévenir les ruptures. Mais comment prévoir l’impact du changement climatique sur les infrastructures côtières sans adopter un référentiel commun du risque ?
Sous l’effet du changement climatique, de la montée du niveau des mers et de l’érosion qui rend les côtes plus fragiles, les tempêtes, cyclones et inondations côtières gagnent en fréquence et en intensité. Les infrastructures littorales sont particulièrement exposées à ces phénomènes extrêmes, avec des bilans humains et économiques toujours plus lourds.
En 2005, l’ouragan Katrina a submergé 80 % de La Nouvelle-Orléans et causé plus de 1 800 morts et 125 milliards de dollars (soit 107,6 milliards d’euros) de dégâts, dévastant des centaines de plates-formes pétrolières et gazières ainsi que plus de 500 pipelines. En 2019, le cyclone Idai a ravagé le Mozambique, entraînant 1 200 victimes, 2 milliards de dollars (1,7 milliard d’euros) de dommages et la paralysie du port de Beira. Deux ans plus tard, des pluies diluviennes en Allemagne, Belgique et Pays-Bas ont inondé villes et campagnes, avec pour conséquences : routes coupées, voies ferrées détruites, réseaux d’eau hors service et les transports ont mis plusieurs semaines à se rétablir.
Au-delà des dommages, ces catastrophes provoquent des interruptions d’activité des services produits par les infrastructures, et laissent moins de temps pour les reconstructions étant donné leur fréquence accrue.
Plus préoccupant encore, il existe des effets en cascade entre secteurs étroitement liés. Une défaillance locale devient le premier domino d’une chaîne de vulnérabilités, et un incident isolé peut tourner à la crise majeure. Une route bloquée par une inondation côtière, une panne d’électricité, sont autant de possibles impacts sur la chaîne d’approvisionnement globale. Faute de mesures adaptées, les dommages engendrés par les inondations côtières pourraient être multipliés par 150 d’ici à 2080.
Il y a donc urgence à mesurer les fragilités des infrastructures côtières de manière comparable, rigoureuse et transparente. L’enjeu étant de mieux anticiper les risques afin de préparer ces territoires économiques vitaux aux impacts futurs du changement climatique.
Estimer les potentiels points de rupture des infrastructures côtières n’est pas évident. Les données sont souvent partielles, les méthodes utilisées dans les études souvent diverses, les critères peuvent être différents et il manque généralement d’un cadre commun. Cela rend la prise de décision plus complexe, ce qui freine les investissements ciblés.
Pour bâtir un référentiel commun, une solution consisterait à mesurer les risques selon leur matérialité financière. Autrement dit, en chiffrant les pertes directes, les coûts de réparation et les interruptions d’activité.
L’agence Scientific Climate Ratings (SCR) applique cette approche à grande échelle, en intégrant les risques climatiques propres à chaque actif. La méthodologie élaborée en lien avec l’EDHEC Climate Institute sert désormais de référence scientifique pour évaluer le niveau d’exposition des infrastructures, mais aussi pour comparer, hiérarchiser et piloter les investissements d’adaptation aux risques climatiques.
Ce nouveau langage commun constitue le socle du système de notations potentielles d’exposition climatique (Climate Exposure Ratings) développé et publié par la SCR. Celle-ci s’appuie sur cette échelle graduée de A à G pour comparer l’exposition des actifs côtiers et terrestres. Une notation de A correspond à un risque minimal en comparaison avec l’univers d’actifs alors que G est donné aux actifs les plus risqués.
Les résultats de la SCR montrent ainsi que les actifs côtiers concentrent plus de notations risquées (F, G) et moins de notation à faible risque (A, B). En d’autres termes, leur exposition climatique est structurellement supérieure à celle des autres infrastructures terrestres.
Dans le détail, la méthode de quantification du risque physique élaborée par l’EDHEC Climat Institute consiste à croiser la probabilité de survenue d’un aléa avec son intensité attendue. Des fonctions de dommage relient ensuite chaque scénario climatique à la perte potentielle selon le type d’actif et sa localisation. Pour illustrer cela, nous considérons par exemple qu’une crue centennale, autrement dit avec une probabilité d’occurrence de 1 % par an, correspond à une intensité de deux mètres et peut ainsi détruire plus de 50 % de la valeur d’un actif résidentiel en Europe.
Ces indicateurs traduisent la réalité physique en coût économique, ce qui permet d’orienter les politiques publiques et les capitaux privés. Faut-il construire ? Renforcer ? Adapter les infrastructures ? Lesquelles, en priorité ?
L’analyse prend aussi en compte les risques de transition : effets des nouvelles normes, taxation carbone, évolutions technologiques… Un terminal gazier peut ainsi devenir un « actif échoué » si la demande chute ou si la réglementation se durcit. À l’inverse, une stratégie d’adaptation précoce améliore la solidité financière et la valeur de long terme d’une infrastructure exposée aux aléas climatiques.
La résilience pour une infrastructure représente la capacité à absorber un choc, et à se réorganiser tout en conservant ses fonctions essentielles. En d’autres termes, c’est la capacité pour ces actifs à revenir à un fonctionnement normal à la suite d’un choc.
L’initiative ClimaTech évalue les actions de résilience, de décarbonation et d’adaptation selon leur efficacité à réduire le risque et leur coût. Cette approche permet de limiter le greenwashing : seules les mesures efficaces améliorent significativement la notation d’un actif sur des bases objectives et comparables. Plus on agit, mieux on est noté.
L’aéroport de Brisbane (Australie), situé entre océan et rivière, en est un bon exemple. Des barrières anti-crues et la surélévation des pistes ont réduit à hauteur de 80 % le risque d’inondations pour les crues centennales. L’infrastructure a ainsi gagné deux catégories sur l’échelle de notation SCR : une amélioration mesurable qui accroît son attractivité.
Le cas de Brisbane révèle qu’investir dans la résilience des infrastructures côtières est possible, et même rentable. Ce modèle d’adaptation qui anticipe les dommages liés aux catastrophes climatiques pourrait être généralisé, à condition que les décideurs s’appuient une évaluation des risques fiable, cohérente et lisible comme celle que nous proposons.
Face au changement climatique, les infrastructures côtières sont à un tournant. En première ligne, elles concentrent des enjeux économiques, sociaux et environnementaux majeurs. Leur protection suppose une évaluation rigoureuse, comparable et transparente des risques, intégrant matérialité financière et évolution climatique. Une telle approche permet aux acteurs publics et privés de décider, d’investir et de valoriser les actions concrètes : rendre le risque visible, c’est déjà commencer à agir.
Anthony Schrapffer, PhD ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
13.11.2025 à 17:19
Nathalie Sonnac, Professeure en sciences de l'information et de la communication, Université Paris-Panthéon-Assas
Les campagnes de dénigrement de l’audiovisuel public, portées par des médias privés, ont récemment pris une ampleur inédite. Le Rassemblement national ne cache pas son intention de le privatiser s’il arrive au pouvoir. Quelles seraient les conséquences de ce choix aux plans économique et politique ?
Nous assistons depuis plusieurs années à une crise des régimes démocratiques, qui se traduit par la montée de dirigeants populistes et/ou autoritaires au pouvoir et à une défiance massive des populations envers les institutions, journalistes et médias. En l’espace d’une génération, les réseaux sociaux les ont supplantés comme les principales sources d’information : 23 % des 18-25 ans dans le monde (Reuters Institute, 2024) s’informent sur TikTok, 62 % des Américains s’informent sur les réseaux sociaux, tandis que seul 1 % des Français de moins de 25 ans achètent un titre de presse.
Pour autant, dans ce nouveau paysage médiatique, la télévision continue d’occuper une place centrale dans la vie des Français, qu’il s’agisse du divertissement, de la culture ou de la compréhension du monde. Elle demeure le mode privilégié d’accès à l’information : 36 millions de téléspectateurs lors d’une allocution du président Macron pendant la crise sanitaire ; près de 60 millions de Français (vingt heures en moyenne par personne) ont suivi les JO de Paris sur France Télévisions. Le groupe public – qui réunit 28 % de part d’audience en 2024 – est la première source d’information chez les Français, il bénéficie d’un niveau de confiance supérieur à celui accordé aux chaînes privées.
Pourtant, tel un marronnier, l’audiovisuel public est régulièrement attaqué par des politiques prônant sa privatisation, voire sa suppression, parfois au nom d’économies pour le contribuable ; d’autres fois, par idéologie. La « vraie-fausse » vidéo des journalistes Thomas Legrand et Patrick Cohen, diffusée en boucle sur la chaîne CNews, donne l’occasion à certains de remettre une pièce dans la machine.
Concrètement, privatiser l’audiovisuel public signifierait vendre les chaînes France 2, France 3 ou France 5 à des acheteurs privés, comme le groupe TF1, propriétaire des chaînes gratuites, telles que TF1, LCI et TFX ; le groupe Bertelsmann, propriétaire des chaînes gratuites M6, W9 ou 6Ter… ou encore le groupe CMA-CGM, propriétaire de BFM TV.
Sur le plan économique, cela relève aujourd’hui du mirage. Même les chaînes privées, pourtant adossées à de grands groupes, peinent à équilibrer leurs comptes. Dans un environnement aussi fortement compétitif, sur l’audience et les revenus publicitaires – les chaînes, les plateformes numériques, comme YouTube, et les services de vidéo à la demande (SVOD), comme Netflix ou Disney+ (qui ont ouvert leur modèle à la publicité), se livrent une concurrence acharnée. Comment imaginer qu’un nouvel entrant aussi puissant qu’une chaîne du service public soit viable économiquement ? Cela revient à ignorer la situation du marché de la publicité télévisée, qui n’est plus capable d’absorber une chaîne de plus.
Ce marché a reculé de 9 % entre 2014 et 2024. Et la télévision ne pèse plus que 20 % du marché total contre 26 % en 2019, quand le numérique capte désormais 57 % des recettes et pourrait atteindre 65 % en 2030. La fuite des annonceurs vers les plateformes en ligne fragilise toutes les chaînes gratuites de la TNT, dont le financement repose quasi exclusivement sur la publicité.
Une chaîne de télévision, ce sont d’abord des programmes : documentaires, films, séries, jeux, divertissements et informations. Or, malgré l’arrivée de nouveaux acteurs, comme les services de vidéo à la demande, qui investissent à hauteur d’un quart des obligations versées au secteur, la production audiovisuelle reste largement dépendante des chaînes de télévision. Ce secteur pèse lourd : plus de 5 500 entreprises, 125 000 emplois et un chiffre d’affaires d’environ 3 milliards d’euros.
Le paysage audiovisuel français reste dominé par trois groupes : TF1, M6 et France TV concentrent plus de 90 % du chiffre d’affaires des chaînes gratuites et assurent 75 % de la contribution totale de la production. Parmi eux, le groupe public France TV est le premier partenaire de la production audiovisuelle et cinématographique nationale : il investit chaque année 600 millions d’euros en achat de programmes audiovisuels et cinématographiques et irrigue ainsi toute l’industrie culturelle.
Le secteur de la production audiovisuelle, malgré l’arrivée des acteurs de la SVOD et leur demande croissante de programmes de création originale française (films, animation, documentaires), demeure largement dépendant des commandes des chaînes de télévision : la diminution du nombre de chaînes, notamment publiques, conduirait à fragiliser l’ensemble de la filière audiovisuelle et culturelle.
Une étude d’impact, réalisée en 2021, établit que le groupe France Télévisions génère 4,4 milliards d’euros de contribution au produit intérieur brut (PIB) pour 2,3 milliards d’euros de contributions publiques, 62 000 équivalents temps plein (pour un emploi direct, cinq emplois supplémentaires sont soutenus dans l’économie française), dont 40 % en région et en outre-mer » et pour chaque euro de contribution à l’audiovisuel public (CAP) versé, 2,30 € de production additionnelle sont générés. Loin d’être une charge, le service public audiovisuel est donc un levier économique majeur, créateur d’emplois, de richesse et de cohésion territoriale.
Au-delà des chiffres, l’audiovisuel public constitue un choix démocratique. Les missions de services publics sont au cœur des missions de l’Europe, déjà présentes dans la directive Télévision sans frontière, à la fin des années 1980. Aujourd’hui, c’est la directive de services de médias audiovisuels qui souligne l’importance de la coexistence de fournisseurs publics et privés, allant jusqu’à formuler qu’elle caractérise le marché européen des médias audiovisuels.
Le Parlement européen l’a rappelé en réaffirmant l’importance d’un système mixte associant médias publics et privés, seul modèle capable de garantir à la fois la diversité et l’indépendance. Il ajoute en 2024 dans le règlement sur la liberté des médias l’indispensable « protection des sources journalistiques, de la confidentialité et de l’indépendance des fournisseurs de médias de service public ».
L’étude publiée par l’Observatoire européen de l’audiovisuel en 2022, malgré la diversité des médias publics européens, tous s’accordent autour de valeurs communes : l’indépendance face aux ingérences politiques, l’universalité pour toucher tous les publics, le professionnalisme dans le traitement de l’information, la diversité des points de vue, la responsabilité éditoriale.
En France, un suivi très concret et précis du fonctionnement des services publics est assuré par l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom). Ces principes sont encadrés par des contrats d’objectifs et de moyens (COM) qui garantissent leur mission démocratique, leur transparence et font l’objet d’un suivi rigoureux par l’autorité de régulation. Plus de 70 articles déterminent les caractéristiques de chaque service public édité, qui vont de la nécessité de faire vivre le débat démocratique à la promotion de la langue française ou l’éducation aux médias et à l’information, en passant par la communication gouvernementale en temps de crise ou encore la lutte contre le dopage. Un cahier des charges est adossé à des missions d’intérêt général, il garantit le pluralisme, la qualité de l’information et l’indépendance éditoriale.
L’information est une de ses composantes essentielles de sa mission d’intérêt général. Elle représente 62,6 % de l’offre globale d’information de la TNT (hors chaînes d’information) en 2024 : JT, émissions spéciales au moment d’élections, magazines de débats politiques et d’investigations. Ces derniers apparaissent comme des éléments distinctifs de l’offre.
Une consultation citoyenne de 127 109 personnes, menée par Ipsos en 2019 pour France Télévisions et Radio France, faisait apparaître que « la qualité de l’information et sa fiabilité » ressortaient comme la première des attentes (68 %), devant « un large éventail de programmes culturels » (43 %) et « le soutien à la création française » (38 %). Dans un climat généralisé de défiance à l’égard des institutions, l’audiovisuel public demeure une référence pour les téléspectateurs.
Le cocktail est explosif : concurrence féroce entre chaînes d’info, fuite des annonceurs vers les plateformes numériques, déficit chronique des chaînes privées. En pleine guerre informationnelle, sans réinvestissement massif dans le service public et sans réflexion sur le financement de la TNT, le risque est clair : l’affaiblissement des piliers démocratiques de notre espace public.
En France, ce rôle doit être pleinement assumé. L’État, à travers l’Arcom, est le garant de la liberté de communication, de l’indépendance et du pluralisme. Il va de sa responsabilité d’assurer la pérennité du financement du service public et de protéger son rôle contre les dérives des logiques commerciales et idéologiques.
Nathalie Sonnac est membre du Carism et du Laboratoire de la République.
13.11.2025 à 17:19
Laure Raynaud, Météorologiste, Météo France
L’intelligence artificielle a déjà impacté de nombreux secteurs, et la météorologie pourrait être le suivant. Moins coûteux, plus rapide, plus précis, les modèles d’IA pourront-ils renouveler les prévisions météorologiques ?
Transport, agriculture, énergie, tourisme… Les prévisions météorologiques jouent un rôle essentiel pour de nombreux secteurs de notre société. Disposer de prévisions fiables est donc indispensable pour assurer la sécurité des personnes et des biens, mais également pour organiser les activités économiques. Dans le contexte du changement climatique, où les épisodes de très fortes pluies, de vagues de chaleur ou de mégafeux ne cessent de se multiplier, les populations sont d’autant plus vulnérables, ce qui renforce le besoin en prévisions précises à une échelle très locale.
L’élaboration d’une prévision météorologique est un processus complexe, qui exploite plusieurs sources de données et qui demande une grande puissance de calcul. Donner du sens et une utilité socio-économique à la prévision pour la prise de décision est aussi un enjeu majeur, qui requiert une expertise scientifique et technique, une capacité d’interprétation et de traduction de l’information en services utiles à chaque usager. L’intelligence artificielle (IA) peut aider à répondre à ces défis.
Comme on peut le lire dans le rapport Villani sur l’IA, rendu public en mars 2018, « définir l’intelligence artificielle n’est pas chose facile ». On peut considérer qu’il s’agit d’un champ pluridisciplinaire qui recouvre un vaste ensemble de méthodes à la croisée des mathématiques, de la science des données et de l’informatique. L’IA peut être mise en œuvre pour des tâches variées, notamment de la prévision, de la classification, de la détection ou encore de la génération de contenu.
Les méthodes d’IA parmi les plus utilisées et les plus performantes aujourd’hui fonctionnent sur le principe de l’apprentissage machine (machine learning) : des programmes informatiques apprennent, sur de grands jeux de données, la meilleure façon de réaliser la tâche demandée. Les réseaux de neurones profonds (deep learning) sont un type particulier d’algorithmes d’apprentissage, permettant actuellement d’atteindre des performances inégalées par les autres approches. C’est de ce type d’algorithme dont il est question ici.
La prévision météorologique repose actuellement, et depuis plusieurs décennies, sur des modèles qui simulent le comportement de l’atmosphère. Ces modèles intègrent des lois physiques, formulées pour calculer l’évolution des principales variables atmosphériques, comme la température, le vent, l’humidité, la pression, etc. Connaissant la météo du jour, on peut ainsi calculer les conditions atmosphériques des prochains jours. Les modèles météorologiques progressent très régulièrement, en particulier grâce à l’utilisation de nouvelles observations, satellitaires ou de terrain, et à l’augmentation des ressources de calcul.
La prochaine génération de modèles aura pour objectif de produire des prévisions à un niveau de qualité et de finesse spatiale encore plus élevé, de l’ordre de quelques centaines de mètres, afin de mieux appréhender les risques locaux comme les îlots de chaleur urbains par exemple. Cette ambition soulève néanmoins plusieurs challenges, dont celui des coûts de production : effectuer une prévision météo requiert une puissance de calcul très importante, qui augmente d’autant plus que la précision spatiale recherchée est grande et que les données intégrées sont nombreuses.
Cette étape de modélisation atmosphérique pourrait bientôt bénéficier des avantages de l’IA. C’est ce qui a été démontré dans plusieurs travaux récents, qui proposent de repenser le processus de prévision sous l’angle des statistiques et de l’apprentissage profond. Là où les experts de la physique atmosphérique construisent des modèles de prévision où ils explicitement le fonctionnement de l’atmosphère, l’IA peut apprendre elle-même ce fonctionnement en analysant de très grands jeux de données historiques.
Cette approche par IA de la prévision du temps présente plusieurs avantages : son calcul est beaucoup plus rapide – quelques minutes au lieu d’environ une heure pour produire une prévision à quelques jours d’échéance – et donc moins coûteux, et la qualité des prévisions est potentiellement meilleure. Des études montrent par exemple que ces modèles sont déjà au moins aussi efficaces que des modèles classiques, puisqu’ils permettent d’anticiper plusieurs jours à l’avance des phénomènes tels que les cyclones tropicaux, les tempêtes hivernales ou les vagues de chaleur.
Les modèles d’IA sont encore au stade de développement dans plusieurs services météorologiques nationaux, dont Météo France, et font l’objet de recherches actives pour mieux comprendre leurs potentiels et leurs faiblesses. À court terme, ces modèles d’IA ne remplaceront pas les modèles fondés sur la physique, mais leur utilisation pour la prévision du temps est amenée à se renforcer, à l’instar du modèle AIFS, produit par le Centre européen de prévision météorologique à moyen terme, opérationnel depuis début 2025.
Au-delà des modèles, c’est toute la chaîne d’expertise des prévisions et des observations météorologiques qui pourrait être facilitée en mobilisant les techniques d’IA. Cette expertise repose actuellement sur des prévisionnistes qui, chaque jour, analysent une grande quantité de données afin d’y détecter des événements potentiellement dangereux, d’élaborer la carte de vigilance météorologique en cas d’événements extrêmes, comme les fortes pluies, ou encore les bulletins à destination de différents usagers. Dans un contexte où le volume de données à traiter croît rapidement, l’IA pourrait aider les prévisionnistes dans l’extraction et la synthèse de l’information.
Une grande partie des données météorologiques étant assimilable à des images, les méthodes d’IA utilisées en traitement d’images, notamment pour la reconnaissance de formes et la classification automatique, peuvent être appliquées de façon similaire à des données météo. Les équipes de recherche et développement de Météo France ont par exemple mis en œuvre des méthodes d’IA pour l’identification du risque d’orages violents à partir de cartes météorologiques. D’autres travaux ont porté sur le développement d’IA pour la détection de neige sur les images issues de webcams, et l’estimation des quantités de pluie à partir d’images satellites. Enfin, des travaux sont en cours pour utiliser les grands modèles de langage (à l’origine des applications comme ChatGPT) comme support d’aide à la rédaction des bulletins météo.
Dans tous les cas il ne s’agit pas de remplacer l’humain, dont l’expertise reste essentielle dans le processus de décision, mais de développer des IA facilitatrices, qui permettront de concentrer l’expertise humaine sur des tâches à plus forte valeur ajoutée.
En poursuivant les efforts déjà engagés, l’IA contribuera à répondre aux défis climatiques et à renforcer les services de proximité avec une réactivité et une précision accrues. Faire de l’IA un outil central pour la prévision du temps nécessite néanmoins une vigilance particulière sur plusieurs aspects, en particulier la disponibilité et le partage de données de qualité, la maîtrise de l’impact environnemental des IA développées en privilégiant des approches frugales, et le passage de preuves de concept à leur industrialisation.
Cet article est publié dans le cadre de la Fête de la science (qui a lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.
Laure Raynaud a reçu des financements de l'Agence Nationale de la Recherche (ANR), l'Union Européenne.
13.11.2025 à 14:31
Allane Madanamoothoo, Associate Professor of Law, EDC Paris Business School
Et si la gestation ou, du moins, une partie du processus, pouvait être externalisée au moyen de dispositifs extra-utérins, que ce soit pour poursuivre le développement de nouveau-nés prématurés ou pour des visées plus politiques, comme lutter contre la baisse des naissances ? Une telle technologie est encore très loin d’être réalisable, mais des recherches sont bel et bien menées dans ce domaine.
En août dernier, la rumeur circulait qu’un chercheur chinois, Zhang Qifeng, fondateur de Kaiwa Technology, travaillait au développement de robots humanoïdes dotés d’utérus artificiels, capables de porter un fœtus jusqu’à dix mois. Le prototype serait presque finalisé et devrait être prêt d’ici à 2026. Prix du « robot de grossesse » : 100 000 yuans (environ 12 000 euros).
Après vérification, il s’avère que cette technique de procréation, appelée « ectogenèse », ne verra pas le jour en Chine et que les informations relayées sont fausses. Il en est de même de l’existence de Zhang Qifeng.
Toutefois, même si pour l’heure l’utérus artificiel (UA) relève de la science-fiction, la création d’un tel dispositif technique – perçu comme le prolongement des couveuses néonatales et des techniques de procréation médicalement assistée – fait l’objet de recherches dans plusieurs pays.
L’idée de concevoir et de faire naître un enfant complètement en dehors du corps de la femme, depuis la conception jusqu’à la naissance, n’est pas nouvelle. Le généticien John Burdon Sanderson Haldane (1892-1964), inventeur du terme « ectogenèse », l’avait imaginé en 1923.
Selon les prédictions de ce partisan de l’eugénisme, le premier bébé issu d’un UA devait naître en 1951.
Henri Atlan, spécialiste de la bioéthique et auteur de l’Utérus artificiel (2005), estimait, quant à lui, que la réalisation de l’UA pourrait intervenir d’ici le milieu ou la fin du XXIᵉ siècle.
Même si l’UA n’existe pas encore, les chercheurs ont d’ores et déjà commencé à faire des essais chez les animaux, dans l’espoir de développer par la suite des prototypes d’UA applicables à l’être humain.
En 1993, par exemple, au Japon, le professeur Yoshinori Kuwabara a conçu un incubateur contenant du liquide amniotique artificiel permettant à deux fœtus de chèvres (de 120 jours et de 128 jours, la gestation étant de cinq mois chez la chèvre, soit autour de 150 jours) de se développer hors de l’utérus pendant trois semaines. À leur naissance, ils ont survécu plus d’une semaine.
En 2017, un article publié dans Nature Communications a révélé les travaux de l’équipe d’Alan Flake, chirurgien fœtal à l’hôpital pour enfants de Philadelphie (États-Unis), qui ont permis à des fœtus d’agneaux de se développer partiellement, là encore dans un dispositif extra-utérin rempli de liquide amniotique artificiel, pendant quatre semaines. Avec un apport nutritionnel approprié, les agneaux ont connu une croissance apparemment normale, notamment au niveau du développement des poumons et du cerveau.
Côté développement embryonnaire, toujours chez l’animal, en 2021, des chercheurs chinois ont mis au point un système capable de surveiller le développement d’embryons de souris de manière entièrement automatisée, abusivement surnommé « nounou artificielle ».
L’utilisation d’animaux à des fins de recherche, bien qu’elle soit réglementée dans de nombreux pays, y compris les pays de l’Union européenne (Directive européenne 2010/63 UE) et aux États-Unis (Animal Welfare Act), soulève néanmoins des questions éthiques.
Dans le domaine de la procréation humaine, les avancées sont également considérables. Il est possible depuis 1978 – année de la naissance de Louise Brown, premier « bébé-éprouvette » du monde – de concevoir un embryon par fécondation in vitro (FIV), puis de l’implanter avec succès dans l’utérus de la mère.
En 2003, les travaux de la chercheuse américaine Helen Hung Ching Liu ont démontré la possibilité d’implanter des embryons dans une cavité biodégradable en forme d’utérus humain et recouverte de cellules endométriales. Faute d’autorisation légale, les embryons, qui se développaient normalement, ont été détruits au bout de six jours.
En 2016, un article publié dans Nature Cell Biology a également révélé que le développement embryonnaire pouvait se poursuivre en laboratoire, grâce à un système in vitro.
Le défi pour les chercheurs consiste à combler la période qui suit les 14 premiers jours de l’embryon conçu par FIV – période qui correspond à un seuil critique car elle comprend des étapes clés du développement de l’embryon.
À ce jour, de nombreux pays ont défini une limite de quatorze jours à ne pas dépasser pour le développement embryonnaire in vitro à des fins de recherche ou pour la fécondation, soit sous la forme de recommandations, soit par l’intermédiaire d’une loi, comme c’est le cas en France.
Les recherches actuelles sur le développement de l’UA « partiel » dans lequel l’enfant serait placé dans un dispositif extra-utérin rempli de liquide de synthèse sont motivées par des raisons thérapeutiques, notamment la réduction de la mortalité des nouveau-nés prématurés.
Toutefois, l’UA « total » qui permettrait une gestation extra-corporelle, de la fécondation à la naissance, pourrait se déployer pour répondre à d’autres objectifs. Il s’agit naturellement d’un exercice de prospective, mais voici certains développements qui semblent envisageables si l’UA « total » venait à être développé et à devenir largement accessible.
Certaines femmes pourraient y avoir recours pour des raisons personnelles. Henri Atlan en avait déjà prédit la banalisation :
« Très vite se développera une demande de la part de femmes désireuses de procréer tout en s’épargnant les contraintes d’une grossesse […] Dès qu’il sera possible de procréer en évitant une grossesse, au nom de quoi s’opposera-t-on à la revendication de femmes pouvant choisir ce mode de gestation ? »
Dans une société capitaliste, certaines entreprises pourraient encourager la « culture des naissances » extra-corporelles afin d’éviter les absences liées à la grossesse humaine. Une discrimination pourrait alors s’opérer entre les salariées préférant une grossesse naturelle et celles préférant recourir à l’UA dans le cadre de leur projet de maternité. Dans un contexte concurrentiel, d’autres entreprises pourraient financer l’UA. Rappelons à cet égard que, aux États-Unis, plusieurs grandes entreprises (Google, Apple, Facebook, etc.) couvrent déjà le coût de la FIV et/ou de la congélation des ovocytes afin d’attirer les « meilleurs profils », bien qu’aucune de ces pratiques ne constitue une « assurance-bébé ». Plusieurs cycles de FIV peuvent en effet être nécessaires avant de tomber enceinte.
L’UA pourrait être utilisé afin de pallier l’interdiction de la gestation pour autrui (GPA) en vigueur dans de nombreux États, ou être préféré à la GPA afin d’éviter les situations où la mère porteuse, après s’être attachée à l’enfant qu’elle portait, refuse de le remettre aux parents d’intention, ou encore pour une question de coût.
L’industrie de la fertilité pourrait développer ce qui serait un nouveau marché — celui de l’UA —, parallèlement à ceux de la FIV, du sperme, des ovocytes et de la GPA, déjà existants. Nous aboutirions alors à une fabrication industrielle de l’humain, ce qui modifierait profondément l’humanité.
Indéniablement, l’UA pourrait mener à la revendication d’un droit à un designer baby (bébé à la carte ou bébé sur mesure) sous le prisme d’un eugénisme privé. Avec un corps pleinement visible et contrôlable dans l’UA, les parents pourraient exiger un « contrôle de qualité » sur l’enfant durant toute la durée de la gestation artificielle.
Aux États-Unis, plusieurs cliniques de fertilité proposent déjà aux futurs parents de choisir le sexe et la couleur des yeux de leur enfant conçu par FIV, option couplée à un diagnostic préimplantatoire (DPI). D’autres, telles que Genomic Prediction, offrent la possibilité de sélectionner le « meilleur embryon » après un test polygénique, avant son implantation dans l’utérus de la mère. La naissance de bébés génétiquement modifiés est aussi possible depuis celles de Lulu et de Nana en Chine, en 2018, malgré l’interdiction de cette pratique.
Dernier élément de cet exercice de prospective : l’UA pourrait être utilisé à des fins politiques. Certains pays pourraient mener un contrôle biomédical des naissances afin d’aboutir à un eugénisme d’État. D’autres États pourraient tirer avantage de l’UA pour faire face au déclin de la natalité.
En envisageant la séparation de l’ensemble du processus de la procréation – de la conception à la naissance – du corps humain, l’UA suscite des débats au sein du mouvement féministe.
Parmi les féministes favorables à l’UA, Shulamith Firestone (1945-2012), dans son livre The Dialectic of Sex : The Case for Feminist Revolution (1970), soutient que l’UA libérerait les femmes des contraintes de la grossesse et de l’accouchement. Plaidant contre la sacralisation de la maternité et de l’accouchement, elle estime que l’UA permettrait également aux femmes de ne plus être réduites à leur fonction biologique et de vivre pleinement leur individualité. Cette thèse est partagée par Anna Smajdor et Kathryn Mackay.
Evie Kendel, de son côté, juge que, si l’UA venait à devenir réalité, l’État devrait le prendre en charge, au nom de l’égalité des chances entre les femmes.
Chez les féministes opposées à l’UA, Rosemarie Tong considère qu’il pourrait conduire à « une marchandisation du processus entier de la grossesse » et à la « chosification » de l’enfant. Au sujet des enfants qui naîtraient de l’UA, elle affirme :
« Ils seront de simples créatures du présent et des projections dans l’avenir, sans connexions signifiantes avec le passé. C’est là une voie funeste et sans issue. […] Dernière étape vers la création de corps posthumains ? »
Tous ces débats sont aujourd’hui théoriques, mais le resteront-ils encore longtemps ? Et quand bien même l’UA deviendrait un jour réalisable, tout ce qui est techniquement possible est-il pour autant souhaitable ? Comme le souligne Sylvie Martin, autrice du Désenfantement du monde. Utérus artificiel et effacement du corps maternel (2012), tous les êtres humains naissent d’un corps féminin. Dès lors, en cas d’avènement de l’UA, pourrions-nous encore parler « d’être humain » ?
Allane Madanamoothoo ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
13.11.2025 à 14:06
Jérôme Baray, Professeur des universités en sciences de gestion, Le Mans Université
La croissance de la dette publique fait l’objet de toutes les attentions. Toutefois, si tel est le cas, c’est en raison des choix qui ont été faits pour l’assumer. Recourir aux marchés financiers n’est pas neutre. Et si la solution passait par une définanciarisation de la gestion de la dette.
« L’État vit au-dessus de ses moyens. » La phrase est si souvent répétée qu’elle n’est plus questionnée. De moins de 20 % du produit intérieur brut (PIB) dans les années 1970, la dette atteint aujourd’hui environ 110 %. Au-delà de ces chiffres, de nombreux travaux critiques, de Thomas Piketty à Pierre Bourdieu, montrent une autre réalité.
Loin d’être née d’un excès de dépenses sociales, la dette est aussi née d’une série de choix politiques favorables aux marchés financiers, comme l’ont montré Frédéric Lordon ou François Chesnais, la financiarisation de l’État transformant la dette en outil de transfert de richesses vers le secteur privé.
L’interdiction de la monétisation directe (c’est-à-dire le financement de la dette par émission monétaire), les privatisations massives et les aides publiques non conditionnées ont affaibli l’État, tout en enrichissant le secteur financier. Ainsi, chaque année, des milliards d’euros d’intérêts (68 milliards d’euros en 2025, soit un peu plus que le budget de l’éducation nationale) rémunèrent les créanciers privés, tandis que les services publics doivent se restreindre. Le récit dominant occulte la responsabilité de choix politiques assumés et construits dans le temps long.
Jusqu’en 1973, l’État pouvait se financer auprès de la Banque de France à taux nul. La loi du 3 janvier 1973 y a mis fin, imposant l’emprunt sur les marchés. Cette décision s’inscrivait dans un contexte d’inflation forte et dans l’adhésion aux idées monétaristes naissantes : limiter la création monétaire publique était perçu comme un moyen de stabiliser les prix et de moderniser la politique économique.
Cette dépendance a été renforcée par les traités européens : l’Acte unique européen (1986), le traité de Maastricht (1992) puis le traité de Lisbonne (2007).
À lire aussi : Mille ans de dettes publiques : quelles leçons pour aujourd’hui ?
Cette réforme, souvent présentée comme une modernisation, peut aussi être lue – et c’est la perspective que je défends – comme un basculement structurel vers une dépendance durable aux marchés financiers. Ce choix était motivé par la crainte de l’inflation et par la volonté d’inscrire la France dans le mouvement de libéralisation financière qui gagnait les économies occidentales à la même époque.
Dans les années 1980, avec la désinflation compétitive, l’endettement a été transformé en une sorte d’impôt implicite, la « taxe intérêts de la dette » ayant remplacé la « taxe inflation ». En effet, à cette époque, le taux d’intérêt était devenu supérieur au taux de croissance de l’économie. Dès lors, la dette augmentait même en l’absence de nouveaux déficits : c’est l’effet dit de « boule de neige », où le poids des intérêts croît plus vite que les recettes publiques.
Ce tournant illustre la manière dont la dette, de simple outil, s’est muée en carcan durable. Il a aussi renforcé l’idée que les marges de manœuvre budgétaires étaient contraintes par des forces extérieures, ce qui a profondément marqué la culture économique et politique française.
À cette contrainte monétaire s’est ajoutée la vente d’actifs publics : banques, télécoms, énergie, autoroutes, aéroports. Ces privatisations ont dépossédé l’État de dividendes réguliers, réduisant sa capacité d’action à long terme. Parallèlement, les aides aux entreprises se sont multipliées, atteignant plus de 210 milliards d’euros en 2023 (Sénat, rapport 2025).
Si certaines aides ont pu avoir des effets positifs à court terme, leur généralisation sans contrepartie claire pose problème. C’est à ce moment-là que l’État s’est progressivement privé d’un levier de régulation.
En additionnant privatisations (moins de ressources régulières) et aides (davantage de dépenses), l’endettement apparaît comme le résultat d’un appauvrissement de l’État, appauvrissement révélateur d’une orientation stratégique privilégiant la rente sur l’investissement collectif. Cette rente est payée par les contribuables sous forme d’intérêts de la dette, et captée par les détenteurs d’obligations d’État – banques, fonds et assureurs.
Le résultat de toutes ces orientations prises au fil du temps est qu’en 2023, le service de la dette a coûté 55 milliards d’euros, soit plusieurs fois le budget de la justice). Ces montants bénéficient surtout aux banques, fonds et assureurs… Une partie est détenue via l’épargne domestique, mais ce circuit reste coûteux : les citoyens prêtent à l’État, paient les intérêts par l’impôt, pendant que les intermédiaires captent la marge. Autrement dit, la collectivité se prête à elle-même, mais avec intérêts.
Pierre Bourdieu parlait de « noblesse d’État » pour désigner les élites circulant entre ministères, banques et grandes entreprises. Dans ce système de connivence, la dette devient une rente pour les acteurs économiques et financiers qui détiennent la dette souveraine, mais aussi pour certains hauts fonctionnaires et dirigeants d’entreprises passés du public au privé. D’où les appels à réorienter la gestion des actifs stratégiques (infrastructures, énergie, transports, recherche) et à renégocier les intérêts jugés illégitimes.
Ces débats dépassent la seule technique financière : ils interrogent la légitimité même du mode de gouvernance économique.
Le discours économique dominant mobilise des termes technocratiques – « règle d’or », « solde structurel » – qui transforment des choix politiques en nécessités. Plus de 90 % de la monnaie en zone euro est créée par les banques commerciales au moment du crédit. En renonçant à la création monétaire publique, l’État rémunère des créanciers privés pour accéder à sa propre monnaie, institutionnalisant sa dépendance. En termes simples, lorsqu’une banque commerciale accorde un prêt, elle crée de la monnaie ex nihilo ; à l’inverse, l’État, privé de ce pouvoir, doit emprunter cette monnaie avec intérêts pour financer ses politiques publiques. À mesure que l’austérité progresse se déploie une « gouvernance par les instruments » : indicateurs, conditionnalités, surveillance numérique des dépenses.
Comme l’avaient anticipé Michel Foucault, dans Surveiller et punir. Naissance de la prison, 1975), et Gilles Deleuze (Post-scriptum sur les sociétés de contrôle, 1990), l’économie se confond avec un dispositif disciplinaire. La dette devient ainsi l’alibi qui légitime les restrictions et le contrôle social.
Dans le quotidien des citoyens, cela se traduit par des dispositifs concrets : notation bancaire, suivi des allocataires sociaux, encadrement des dépenses publiques, autant de mécanismes qui étendent la logique de surveillance. Ces pratiques ont un effet durable, car elles façonnent des comportements de conformité et réduisent l’espace du débat politique, en donnant l’impression que « l’économie impose ses propres lois ».
Repenser la dette suppose de l’utiliser de façon ciblée, à taux nul, comme avant 1973. Les aides aux entreprises devraient être conditionnées à des engagements vérifiables en matière d’emploi et d’innovation, au profit des petites et moyennes entreprises. La fiscalité doit être rééquilibrée, en réduisant les niches, en taxant les rentes, en imposant aux grandes entreprises actives en France d’y payer leurs impôts. L’exemple de la taxe sur les superprofits énergétiques (UE, 2022) montre que c’est possible. Il s’agit là d’une mesure de justice élémentaire, que beaucoup de citoyens comprennent intuitivement, mais qui peine encore à s’imposer dans le débat public.
En outre, une loi antitrust limiterait la concentration excessive dans le numérique, la finance ou l’énergie. Pour être efficace, elle devrait s’accompagner d’autorités de régulation fortes, capables de sanctionner réellement les abus de position dominante. Enfin, une cotisation sociale sur l’intelligence artificielle permettrait de partager les gains de productivité et de financer la protection sociale. Une telle mesure contribuerait aussi à une meilleure répartition du temps de travail et à un équilibre de vie plus soutenable. Au-delà de ces leviers, une simplification des structures administratives libérerait des marges de manœuvre budgétaires, permettant de renforcer les métiers à forte utilité sociale et d’améliorer la qualité du service rendu aux citoyens.
La dette publique française n’est pas le fruit d’un peuple dépensier, mais celui d’un système construit depuis 1973 pour enrichir une minorité et fragiliser la puissance publique. Privatisations, aides sans condition, rente d’intérêts et connivence entre élites ont transformé l’endettement en transfert de richesses. Rompre avec cette logique suppose de recourir à l’emprunt à taux nul, de conditionner les aides, de rééquilibrer la fiscalité, de réguler les monopoles et de taxer l’IA.
Reprendre la main sur la dette, c’est gouverner la monnaie et les priorités collectives en fonction de l’intérêt général. C’est aussi affirmer que l’économie n’est pas une fatalité technique, mais un choix de société qui engage la souveraineté et le contrat social de demain.
Jérôme Baray est membre de l'Académie des Sciences Commerciales.