28.04.2026 à 15:55
Nathalie Chapon, Professeur des universités en sciences de l'éducation et de la formation, Université Marie et Louis Pasteur (UMLP)
Annie Lasne, Maîtresse de conférences en sociologie de l'éducation, Université Marie et Louis Pasteur (UMLP)
On discute beaucoup des effets des écrans sur la santé des enfants. On s’interroge moins souvent sur leurs usages précoces du numérique dans un monde ultraconnecté. Quels sont leurs savoir-faire réels ? Une enquête fondée sur des observations et des entretiens lève le voile sur ces pratiques du quotidien et sur les mécanismes de socialisation au numérique d’élèves de maternelle.
En l’espace de cinquante ans, les technologies numériques se sont progressivement imposées dans tous les espaces du quotidien et à tous les âges de la vie. De la télévision aux téléphones portables, en passant par les ordinateurs et les consoles, les écrans occupent aujourd’hui une place centrale dans les foyers.
Les recherches scientifiques, particulièrement développées depuis une dizaine d’années, ont principalement étudié les effets des écrans sur la santé, le sommeil et l’activité physique des enfants et des adolescents. Les résultats soulignent des répercussions notables, quel que soit l’âge des enfants.
Cependant, peu d’études se sont intéressées aux savoirs numériques des tout-petits. Dans le cadre d’un programme de recherche sur la parentalité numérique et d’un partenariat avec le TNE 25-Territoire numérique éducatif du Doubs, nous avons souhaité explorer cette question. Est-ce que les tout-petits ont des connaissances numériques ? Quelles compétences détiennent-ils exactement ?
Cette recherche explore les savoirs numériques des tout-petits d’enfants âgés d’à peine 4 ans et permet de questionner l’idée selon laquelle ils seraient dépourvus de connaissances numériques et ne seraient capables d’utiliser un téléphone seulement dans un cadre précis.
L’étude a été menée auprès de 59 élèves répartis en petite, moyenne et grande sections d’une école maternelle située dans une ville de l’est de la France.
Plusieurs méthodes ont été mobilisées : des observations participantes filmées, des entretiens individuels, des focus groups et des mises en situation des enfants sous la forme d’ateliers. Le recueil de données a été organisé sur une période de deux mois afin de favoriser un climat de confiance.
Les premiers résultats concernent les enfants de moyenne section de maternelle, âgés d’environ quatre ans. Ils mettent en évidence le rôle déterminant du cadre familial. Les pratiques parentales apparaissent comme le principal facteur de socialisation numérique. Les influences du père et de la mère, puis celles des frères et sœurs structurent les usages des enfants et participent à une transmission intergénérationnelle et fraternelle des pratiques.
À lire aussi : Petite histoire des jeux vidéo en famille, entre inquiétudes et transmission culturelle
Chez les garçons, l’initiation aux jeux vidéo est majoritairement associée à une influence paternelle et fraternelle. Les pères, notamment les plus jeunes, jouent fréquemment avec leurs fils, partageant leurs propres pratiques vidéoludiques. Cette socialisation est souvent genrée : les garçons sont encouragés à jouer à des jeux de combat, de survie ou ils mettent en scène des super-héros. Lorsque le père n’est pas un joueur, les grands frères prennent le plus souvent le relais.
Cette transmission familiale favorise le développement de compétences numériques précoces chez les tout-petits. Certains enfants de quatre ans ont une connaissance fine de jeux vidéo pour adultes et maîtrisent aussi la recherche et l’ouverture d’applications sur smartphone, notamment la navigation sur YouTube.
Sous-jacente à cette connaissance pratique du smartphone, on constate que les contenus auxquels ces enfants ont accès ne sont pas toujours adaptés à leur âge. Une majorité de garçons joue à des jeux destinés aux adolescents, voire aux adultes. Ces jeux comportent des scènes de violence ou sont associés à des conflits, des guerres avec des scènes de tueries où la mort peut être rachetée selon le jeu.
Ces expositions conduisent les enfants à développer des stratégies d’imitation et d’identification aux figures héroïques, accélérant ainsi leur processus de socialisation vers des codes préadolescents alors qu’ils sont encore dans l’enfance. L’apprentissage du numérique est essentiellement implicite donc, les enfants acquièrent des savoirs expérientiels, c’est-à-dire des compétences construites par la pratique directe, avant même la maîtrise de la lecture.
Les petites filles sont moins concernées par les jeux vidéo. Elles sont davantage tournées vers le visionnage de dessins animés ou l’utilisation d’applications liées à la photographie et à la musique. Les mères encadrent plus fréquemment l’usage du téléphone dans ce cas. Elles définissent les temps d’écran, autorisent certaines applications et accompagnent leurs filles dans leur découverte des outils numériques. Les contenus utilisés sont généralement plus adaptés à l’âge des enfants.
La transmission entre sœurs se manifeste notamment dans l’apprentissage de la prise de photos, de la mise en scène face à la caméra ou de l’écoute de musique. Les filles développent ainsi des compétences liées à l’expression de soi et à la représentation.
Contrairement aux garçons, aucune transmission marquée autour des jeux vidéo n’a été observée entre mères et filles ou entre sœurs. Il en résulte une socialisation numérique fortement différenciée selon le genre, tant dans les contenus que dans les modalités d’accès.
Afin d’identifier plus précisément les savoirs des enfants, les chercheuses ont organisé des ateliers de lecture autour d’un album traitant de l’usage du téléphone. Ces échanges ont permis de mettre en lumière les connaissances des enfants concernant les applications et leurs usages.
La prise de photos et le visionnage de dessins animés constituent les usages les plus fréquemment évoqués. Lorsqu’ils manipulent un téléphone, les enfants reconnaissent aisément certaines applications grâce à leurs symboles et à leurs couleurs. L’icône de l’appareil photo est généralement identifiée par la plupart des enfants rencontrés, celle de YouTube est aussi la plus largement connue. La reconnaissance repose principalement sur l’association visuelle entre un pictogramme, une couleur et une fonction.
Les observations révèlent par ailleurs une grande dextérité technique. Les enfants savent balayer les écrans horizontalement et verticalement pour accéder aux différentes pages et applications. Cette gestuelle maîtrisée témoigne d’une autonomie réelle dans l’usage de l’appareil. À quatre ans, certains enfants possèdent déjà des compétences numériques avancées, acquises dans un cadre familial de façon expérientielle.
Ces premiers résultats soulignent l’importance d’un accompagnement parental et éducatif précoce. Car, si le numérique favorise l’autonomie, la créativité et l’accès à de nouvelles formes d’apprentissage, il expose également les enfants à des contenus inadaptés à leur âge et à une éducation familiale genrée.
Nathalie Chapon a reçu des financements de Région Bourgogne Franche-Comté.
Annie Lasne ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.04.2026 à 15:51
Tegui Yvan Arnold, Doctorant en tourisme durable et finance publique, Université de Perpignan Via Domitia

La pandémie de Covid-19 a profondément reconfiguré le tourisme français au profit des territoires ruraux qui comptent une progression de nuitées tant dans les campings que dans les hôtels. Aujourd’hui, cette transformation perdure-t-elle ou assiste-t-on à un retour à la normale ? Explication en cartes et en données.
Avant 2020, le tourisme français était massivement concentré sur les métropoles, comme Paris, Lyon, Marseille ou Bordeaux. Entre 2015 et 2019, elles dominaient l’hôtellerie avec 76 % des nuitées et 69 % des locations de courte durée entre particuliers (PAP), les territoires ruraux ne pesant que 15 % et 23 % sur ces segments.
La pandémie de Covid-19 a amorcé un rééquilibrage progressif du tourisme français. Les zones rurales gagnent des parts de marché modestes en apparence (+ 1 et + 3 points en hôtellerie et en location PAP), mais représentant environ 8 millions de nuitées supplémentaires en hôtellerie et 19 millions en location PAP. Cette double dynamique explique pourquoi la reprise touristique rurale dépasse les niveaux d’avant-crise.
Quels départements tirent leur épingle du jeu ? Quels types d’hébergement portent cette transformation ? Et surtout, cette redistribution territoriale est-elle durable ?
Mes recherches démontrent que la résilience supérieure des zones rurales face aux métropoles sur 2020-2022 n’était pas un épiphénomène. En 2024, cette tendance se confirme. Les territoires ruraux résistent mieux à la baisse des fréquentations que les grandes métropoles, notamment franciliennes.
Pour analyser cette redistribution, j’ai classé les départements selon trois catégories, suivant une méthodologie en fonction de la population hexagonale, de la faible densité et de l’éloignement, expliquée en détail dans mon article scientifique.
L’analyse distingue 41 départements de villes métropoles, où la majorité de la population vit dans une agglomération de plus de 250 000 habitants – Paris ou le Rhône – ; 13 urbains intermédiaires, structurés autour de villes moyennes – l’Ain ou la Moselle – et 42 ruraux, à faible densité et éloignés des grands pôles urbains – l’Allier ou la Lozère. Pour chaque département, j’ai modélisé la trajectoire de fréquentation qui aurait été observée en 2020 sans pandémie de Covid-19, en prolongeant les tendances 2015-2019. Les nuitées réellement enregistrées sont ensuite rapportées à cette projection.
Un indice de 70 % signifie que le territoire n’a réalisé que 70 % de sa fréquentation projetée, tandis qu’un indice de 131 % signifie qu’il la dépasse de 31 points. En 2020, la fréquentation touristique s’est effondrée partout : les territoires ruraux sont tombés à 68 % de leur niveau projeté, les urbains à 61 % et les métropoles à 57 %. En 2024, tous ont dépassé leurs niveaux de référence avec les zones urbaines à 139 %, rurales à 131 % et les métropoles à 128 %. Les trois typologies surperforment même par rapport à 2019.
Cette homogénéité cache des réalités contrastées. En hôtellerie, la reprise reste timide en 2024, à 95 % dans les zones rurales, à 96 % dans les zones urbaines et à 94 % dans les métropoles. En revanche, l’occupation des campings progresse fortement, de 110 % en territoire rural et 112 % dans les métropoles. Les locations de courte durée entre particuliers (PAP) connaissent quant à elles une croissance spectaculaire. Les zones rurales doublent quasiment leur niveau d’avant-pandémie de Covid-19 à 187 %, derrière les zones urbaines à 214 % mais devant les métropoles (179 %), témoignant d’une diversification réussie de l’offre rurale.
Au-delà de ces tendances moyennes par typologie, l’analyse détaillée des 96 départements révèle que les zones rurales dominent le podium des territoires les plus résilients. En 2024, les trois départements enregistrant le rebond le plus fort sont tous ruraux : la Creuse à 154 % de son niveau projeté, le Lot-et-Garonne à 133 % et la Lozère à 131 %. Ces territoires confirment la capacité des zones rurales à transformer la crise en opportunité.
L’évolution du Top 10 en hôtellerie penche également du côté rural. En 2020, neuf départements sur les dix plus performants étaient ruraux. En 2024, la reprise d’activité semble s’équilibrer – cinq départements ruraux, trois urbains et deux métropolitains –, mais avec toujours une présence marquée des zones rurales. À l’inverse, l’Île-de-France ferme la marche ; de la Seine-Saint-Denis au Val-d’Oise, les nuitées n’atteignent que 76 % à 86 % de leur niveau projeté. Même Paris, malgré l’effet des Jeux olympiques de 2024, plafonne à 95 % de son niveau d’avant-pandémie de Covid-19. Selon nos données, la plupart des grandes métropoles régionales n’ont pas retrouvé leur niveau de 2019 en hôtellerie. Cette évolution se retrouve dans les autres segments.
Pour les campings, la domination rurale – neuf départements sur dix en 2020 – s’est également diluée. En 2024, les départements des villes métropoles occupent six places du Top 10, témoignant de l’explosion du camping péri-urbain. Les locations de courte durée entre particuliers (PAP) continuent également leur croissance dans le rural et l’urbain. En 2024, le Top 10 se partage entre cinq départements ruraux et cinq urbains, sans aucune métropole. Ce segment valorise particulièrement les territoires de « seconde couronne », ni grandes villes ni rural isolé, comme l’Oise aux portes de Paris ou la Saône-et-Loire à proximité de Lyon.
Trois facteurs expliquent ce basculement durable.
D’abord, la fragilité structurelle des métropoles, dépendantes du tourisme d’affaires et international. La généralisation du télétravail et des visioconférences a durablement réduit les déplacements professionnels. Les zones rurales, moins exposées, ont mieux résisté.
Le second facteur tient d’un changement durable des préférences. Les voyageurs recherchent nature, espace et faible densité. Les restrictions de mobilité ont conduit les Français à redécouvrir les territoires ruraux proches, créant des habitudes durables. Le télétravail – 26 % des cadres selon la direction de l’animation de la recherche, des études et des statistiques (Dares) et la « workation » (contraction de work et de vacation) renforce cette tendance, avec le changement climatique. Les canicules urbaines rendent les métropoles moins attractives, tandis que les zones montagnardes offrent une fraîcheur recherchée.
Enfin, la hausse de 18 % du prix des transports en France entre 2019 et 2024 a favorisé le tourisme de proximité. Les zones rurales en ont particulièrement bénéficié, combinant accessibilité depuis les métropoles et attributs recherchés post-pandémie de Covid-19.
Cette dynamique n’est pas acquise. Les territoires ruraux restent pénalisés par un déficit d’accessibilité, une offre numérique en retard et un parc d’hébergement vieillissant. Transformer l’afflux post-pandémie de Covid-19 en fréquentation durable suppose de combler ces écarts structurels, un défi que les données actuelles ne permettent pas encore de considérer comme relevé.
Cette redistribution territoriale ne semble pas désigner un vainqueur unique. Si les zones rurales ont globalement mieux résisté à la baisse du tourisme avec la pandémie de Covid-19, les zones urbaines intermédiaires, villes moyennes combinant accessibilité et cadre de vie, émergent comme un profil territorial gagnant. Les véritables perdants de cette recomposition sont clairement les grandes métropoles, particulièrement l’Île-de-France.
Les facteurs structurels qui portent cette redistribution ne s’inverseront pas. Les acteurs territoriaux doivent donc intégrer cette nouvelle donne dans leur politique de développement touristique. L’enjeu n’est plus de savoir si cette recomposition persiste, mais comment les territoires s’y adaptent.
Tegui Yvan Arnold ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.04.2026 à 15:51
Auguste Gires, Ingénieur en chef des Eaux, Ponts et Forêts, chercheur au laboratoire Hydrology, Meteorology and Complexity (HM&Co), École Nationale des Ponts et Chaussées (ENPC)
Eleonora Dallan, Ingénieure en environnement et enseignante-chercheuse au département TESAF (Terre, Environnement, Agriculture et Forêts), University of Padua

Dans leur ouvrage Balade sous la pluie, paru en 2025 aux Presses des Ponts, Auguste Gires, ingénieur en chef du corps des Ponts, eaux et forêts, et chercheur au laboratoire Hydrologie, météorologie et complexité de l’École nationale des ponts et chaussées, et Eleonora Dallan, ingénieure en environnement et chercheuse au département Terre, environnement, agriculture et forêts, de l’Université de Padoue en Italie, nous emmènent en promenade pour découvrir un phénomène très courant, mais finalement peu connu : la pluie.
Pour la quatrième « escale » de ce livre-promenade, ils nous expliquent comment se forment physiquement les gouttes de pluie dans les nuages. Extrait.
N’est-il pas surprenant que tous ces cumulus (nuages cotonneux de basse altitude) semblent se former à la même altitude ? En réalité, cela est lié à la façon dont les nuages, et plus largement les précipitations, sont générés. Sur Terre, les conditions de température et de pression permettent à l’eau d’exister naturellement dans trois états : liquide (comme dans les océans, les rivières, ou l’eau du robinet), solide (tel que la glace, la neige, la grêle, la pluie verglaçante), et gazeuse, dans l’air sous forme de vapeur invisible. Les interactions entre ces trois états sont, entre autres, à l’origine de la pluie.
Tout commence par l’évaporation, c’est-à-dire qu’une partie de l’eau liquide présente à la surface de la Terre s’évapore sous l’action du soleil. La vapeur d’eau se mélange à l’air ambiant près de la surface. Cet air, réchauffé par le soleil, devient plus chaud que celui du dessus. Sa masse volumique devient plus faible que celle de l’air qui l’entoure (on dit qu’il est plus léger dans le langage courant), ce qui facilite sa montée. En effet, les molécules qu’il contient bougent plus vite sous l’effet de la chaleur et occupent alors plus de place, tout en gardant la même masse.
En raison de la baisse de la température avec l’altitude, généralement d’environ 6,5 °C tous les 1 000 mètres, l’air initialement chaud se refroidit progressivement en montant. Il s’avère que la quantité de vapeur d’eau que l’air peut contenir diminue avec sa température (environ 7 % par degré). Dans un air plus froid, les molécules sont plus proches les unes des autres, ce qui réduit l’espace disponible pour d’autres molécules de gaz comme la vapeur d’eau. C’est la relation de Clausius-Clapeyron.
Ainsi, à une altitude donnée, qui dépend de la température et de la quantité initiale de vapeur d’eau, l’air devient saturé et ne peut plus contenir autant de vapeur d’eau qu’au moment de l’évaporation, quand l’air était encore proche de la surface. Les spécialistes appellent cela le point de rosée. Une partie de l’eau se condense et retrouve sa forme liquide d’origine. La formation de ces gouttelettes de nuages se fait généralement autour de noyaux de condensation, comme une poussière, de la glace ou du sel. Elles sont beaucoup plus petites que les gouttes de pluie dont nous avons parlé précédemment, avec une taille proche de 0,02 millimètre. Ces gouttelettes sont si petites que les turbulences de l’air ambiant sont suffisamment fortes pour les maintenir en suspension dans l’air, les empêchant de tomber au sol. Cette concentration de gouttelettes dans l’air forme un nuage. Le processus peut également se produire à température négative, et dans ce cas, le nuage est constitué de petits cristaux de glace.
D’une certaine manière, vous êtes tous témoins de la formation de nuages au quotidien. Profitons justement des températures hivernales. Inspirez, expirez… Vous remarquerez qu’une sorte de petit nuage se forme en expirant. Oui, il s’agit bien d’un petit nuage ! L’air qui sort de vos poumons, chaud et humide, rencontre de l’air plus frais dans l’atmosphère extérieure. Une partie de la vapeur d’eau qu’il contient se condense et forme des gouttelettes.
Le même phénomène est à l’œuvre lorsque vous faites bouillir de l’eau. Juste au-dessus de l’eau chaude dans la casserole, l’air est très chaud et contient beaucoup de vapeur d’eau. En remontant, il rencontre de l’air plus frais et une partie de l’eau se condense en gouttelettes. Ce que vous voyez n’est donc certainement pas de la vapeur d’eau, qui est invisible, mais bien un petit nuage.
La quantité d’eau liquide contenue dans les nuages, soit la teneur en eau liquide, varie fortement en fonction du type de nuages. Elle est exprimée en masse d’eau liquide par unité de volume d’air, en gramme par mètre cube (g/m3). Elle présente une très grande variabilité d’un nuage à l’autre, voire au sein d’un même nuage. Les ordres de grandeur peuvent aller de 0,06 g/m3 pour des nuages non précipitants comme les cirrus, des nuages de haute altitude, à 0,4 g/m3 pour des nuages engendrant des pluies, tels que les stratocumulus,** **qui sont à plus basse altitude. Les valeurs sont plus élevées pour les cumulonimbus, dont il sera question lors de la prochaine escale.
Qu’en est-il de la pluie ? Pour qu’elle se forme, il faut que les gouttelettes contenues dans les nuages grossissent de façon à être suffisamment lourdes pour tomber. Cela se produit principalement grâce à deux processus.
Le premier, le processus Wegener-Bergeron-Findeisen, implique la croissance de cristaux de glace dans des nuages en phase mixte. Ces nuages, caractérisés par des températures négatives, contiennent simultanément de l’eau dans ses trois états : de la glace, de l’eau surfondue (de l’eau en dessous de 0 °C, mais pas encore solidifiée) et de la vapeur d’eau. Dans cet environnement sous-saturé en eau liquide, celle-ci s’évapore rapidement, tandis que la vapeur d’eau se dépose tout aussi vite dans les cristaux de glace, entraînant une croissance soudaine de ces derniers. Le deuxième est la coalescence. Dans les nuages contenant assez de gouttelettes, certaines d’entre elles entrent en collision au cours de leur mouvement, fusionnent et grossissent progressivement.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
28.04.2026 à 15:50
Mehdi Achouche, Maître de conférences en cinéma anglophone et études américaines, Université Sorbonne Paris Nord

Lorsque Twin Peaks débarque sur les petits écrans états-uniens, le 8 avril 1990, le public est dérouté. Mélange étrange d’intrigue policière, de thriller fantastique et de soap opera, le feuilleton créé par Mark Frost et David Lynch, actuellement rediffusé en France sur Arte, ne ressemble à aucun autre. Pourtant, la série mythique a influencé bon nombre des productions ultérieures de la télévision américaine.
La chaîne ABC prend un gros risque, en 1990, avec Twin Peaks, afin de contrer la montée en puissance des chaînes du câble et de la Fox. De fait, beaucoup de critiques ne croient pas au succès de la série, trop « auteuriste » pour un grand public habitué à Arabesque, Matlock et autres Cosby Show. « Twin Peaks sera-t-elle un succès ? », se demande Entertainment Weekly deux jours avant la diffusion du premier épisode, avant de répondre : « Aucune chance. » – la série est de trop grande qualité… Pourtant, Twin Peaks cartonne dès son pilote, aux États-Unis comme à l’étranger, transformant à jamais la télévision.
Lynch est reconnu jusqu’alors comme un auteur de cinéma qui reçoit, six semaines à peine après le lancement de la série, la Palme d’or du meilleur film pour Sailor et Lula. Il est très rare à l’époque qu’un cinéaste se compromette à produire une série télévisée, forme souvent perçue comme sans intérêt artistique. La série Alfred Hitchcock Presents date des années 1950, tandis que le mieux que trouve à dire un critique du Décalogue, de Krzysztof Kieślowski, série de dix téléfilms produits pour la télévision polonaise (1988-1989) et remontée ensuite en film, est qu’il s’agit « d’un chef-d’œuvre du cinéma moderne ». Il oublie ainsi un peu vite qu’il s’agit à l’origine d’une œuvre de télévision.
Lynch est un cinéaste respecté depuis Elephant Man (1980) et Blue Velvet (1986). Ce dernier film préfigure déjà Twin Peaks en s’intéressant aux secrets inavouables d’une communauté en apparence parfaite, typique de l’Amérique profonde. La séquence d’introduction du film et le générique de la série offrent des images d’Épinal qui se succèdent en paisibles fondus enchaînés, accompagnées par une musique doucereuse, dénotant une vie idyllique bientôt démentie par leurs intrigues respectives.
Le film jette Kyle MacLachlan, futur agent Cooper, dans une intrigue policière aux relents de films noirs qui gravite – déjà – autour d’un personnage féminin supplicié par le sadisme et l’appétit sexuel d’hommes sans scrupules. Lynch y développe son goût pour l’ironie et le kitsch, clôturant son film de la même façon qu’il ouvre Twin Peaks : un oiseau gazouille à la branche d’un arbre, symbole d’une innocence de carton-pâte.
En se tournant vers la télévision, Lynch en subvertit certes une partie des codes, mais il prouve aussi que le petit écran peut se prêter à des ambitions similaires. Dès 1992, il adapte Twin Peaks au cinéma dans Fire Walk With Me, qu’il présente à Cannes (et qui s’ouvre, bien sûr, sur la destruction d’un poste de télévision). La boucle sera complète lorsque, dix ans plus tard, Lynch échoue à produire un spin-off de Twin Peaks qui aurait suivi les aventures d’Audrey Horne à Hollywood. Il transformera cette idée initiale en film : Mulholland Drive. Avec Lynch, la frontière entre cinéma et télévision a définitivement disparu.
Si Lynch vient du cinéma, Mark Frost, co-créateur de Twin Peaks parfois injustement oublié, est un homme de télévision, qui a travaillé trois ans comme scénariste sur Capitaine Furillo (Hill Street Blues, NBC, 1981-1987). Cette série innovait déjà en proposant des intrigues qui s’étendaient sur plusieurs épisodes. Les deux hommes s’en souviendront avec Twin Peaks et son intrigue au long cours, dont chaque épisode est la suite directe du précédent.
Typique du soap, le format est encore rare dans les dramas : Horace Newcombe est parmi les premiers à remarquer l’évolution et à théoriser le « récit cumulatif », au milieu des années 1980. Mais c’est surtout Un flic dans la mafia (CBS, 1987-1990) qui développe la logique feuilletonnante pour un polar. En 1992, Lynch confie à Libération à quel point « l’idée de continuité à la télévision est formidable. Ne jamais dire au revoir… ».
Twin Peaks ouvre ainsi la voie aux thrillers feuilletonnants en forme de puzzle qui se concentrent souvent sur une communauté isolée et les nombreux secrets qu’elle renferme. C’est ce que J. J. Abrams, co-créateur de Lost, qualifie en 2007 de « Mystery Box », ce feuilleton aux récits opaques qui invitent les téléspectateurs à tenter d’en forcer l’ouverture. Et quoi de plus opaque qu’un récit de David Lynch ? Le concept a fait florès depuis, dans X-Files d’abord puis Lost, Yellow Jackets ou Dark parmi tant d’autres.
L’avènement d’Internet renforce l’émergence de ce que le chercheur et essayiste américain Henry Jenkins, spécialisé dans le domaine des nouveaux médias, appelle très tôt une culture participative qui redonne la parole aux fans ne souhaitant plus être des téléspectateurs passifs.
Selon Jason Mittell, spécialiste de la télévision et des médias, ceux-ci deviennent même parfois des « narratologues amateurs » : les premiers posts discutant de Twin Peaks sur le réseau Usenet, précurseur de l’Internet moderne, datent du 16 avril 1990. Un membre, se rappelant Agatha Christie, s’y demande déjà si la ville entière n’a pas commis le meurtre…
Mais Twin Peaks démontre aussi les dangers d’un tel format, les téléspectateurs se lassant peu à peu des méandres d’une narration labyrinthique qui, comme Lynch lui-même, s’intéresse plus aux questions qu’aux réponses. Les choses empirent quand la chaîne force Frost et Lynch à révéler l’identité du tueur et que la série perd son fil rouge. Là encore, Twin Peaks ouvre la voie à de nombreuses déconvenues similaires.
Enfin, Twin Peaks mélange allègrement les genres, s’inspirant largement de celui qui est traditionnellement le plus méprisé à la télévision, le soap opera. Les soaps utilisent depuis longtemps la narration feuilletonnante pour tenir leurs spectateurs en haleine, en particulier ceux diffusés en prime time et nommés d’après la ville où se situe l’histoire, comme Peyton Place ou Dallas. Le cliffhanger final de la saison une de Twin Peaks, quand Cooper se fait tirer dessus par un assaillant inconnu, rappelle d’ailleurs Dallas, lorsque la même chose arrive à J.R.
Le mélange détonnant du soap et du récit d’adolescence, du policier et du film noir (Laura Palmer a tout de la femme fatale, Cooper du détective qui révèle la corruption littérale et morale), du fantastique et du conte de fées, est pour beaucoup dans le caractère étrange et baroque de la série. Les embardées surréalistes – et parfois incompréhensibles – de la série sont restées célèbres, Lynch s’inspirant à nouveau largement de la logique des rêves – ou des cauchemars : le même épisode peut ainsi offrir des scènes d’humour absurde ou de pure terreur. Le grand public n’a jamais connu ça.
Le succès de Twin Peaks incitera beaucoup d’autres séries à combiner des genres et des tons disparates, à commencer par X-Files, qui lui doit beaucoup. Desperate Housewives s’en inspirera également, et choisit même – avant de la remplacer – Sheryl Lee (Laura Palmer) pour jouer la narratrice dont le fantôme commente les vicissitudes d’une communauté soi-disant parfaite. Danny Glover confie avoir voulu faire « Twin Peaks avec des rappeurs » en créant Atlanta.
Bryan Fuller (Dead Like Me, Hannibal) qualifie la découverte de la série « d’expérience religieuse » et avoue :
« Lynch et Twin Peaks influencent tout ce que je fais. »
Matthew Weiner (Mad Men) dit avoir réalisé tout le potentiel de la télévision lorsque, jeune homme, il découvrit Twin Peaks. Noah Hawley, créateur des très lynchiens Legion et Fargo, qualifie sa découverte de la série de « révélation ».
Plus près de nous, la narration, le ton et le style de Severance, dont l’équipe apprend la mort de Lynch en direct lors d’une interview, rappellent énormément la série mythique. Car comme Lynch le remarquait lui-même, depuis quelques années, ce n’est plus le cinéma mais la télévision – ou le streaming – qui propose des histoires « d’art et d’essai ». Là encore, Twin Peaks a montré la voie.
Mehdi Achouche ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.04.2026 à 15:50
Élodie Faisca, Maîtresse de conférences en sciences de l'éducation et de la formation, Université de Rouen Normandie
D’après les textes sur la protection de l’enfance, les enfants et les adolescents ont le droit de contribuer aux décisions qui les concernent. Dans les faits, leur participation est très inégale. Et si leur parole est effectivement recueillie, elle n’est pas pour autant prise en compte.
La Convention relative aux droits de l’enfant reconnaît aux enfants le droit d’exprimer leur opinion sur toute question les intéressant et d’être entendus dans les procédures administratives ou judiciaires qui les concernent. Pourtant, les rapports publics, les témoignages et les travaux de recherche confirment que les décisions en protection de l’enfance se prennent encore trop souvent pour et sans les enfants.
Comment expliquer ce décalage entre les textes, les pratiques et les expériences des premiers concernés ? Les résultats de cette recherche doctorale montrent que la participation des enfants est un processus complexe, construit dans le temps, à travers des interactions spécifiques, des espaces et des temporalités parfois inadaptés.
Un même enfant peut ainsi connaître des expériences de participation très différentes au cours d’une même intervention, de la non-participation à la participation significative, en passant par la participation symbolique.
Entre 2020 et 2023, nous nous sommes intéressées aux expériences vécues par des enfants de 8 à 14 ans, placés et accompagnés au sein des services de l’aide sociale à l’enfance (ASE). Cette recherche a combiné des entretiens avec l’observation d’une succession d’actes professionnels pour plusieurs enfants et permet de comprendre combien la participation des enfants en protection de l’enfance évolue au fil des interactions et des décisions.
Un même enfant peut ainsi vivre, au cours d’une même intervention, des expériences radicalement différentes, oscillant entre la non-participation, la participation symbolique et la participation significative.
Nina et Nathalia ont vécu plusieurs expériences de non-participation avant de pouvoir vivre ce que nous considérons comme une première expérience de participation significative. Dans ces situations, ce n’est pas le fait de voir une décision conforme à leurs opinions qui est important, mais bien de se sentir écoutées, entendues et associées à toutes les étapes du processus décisionnel.
A contrario, tous les enfants rencontrés ont vécu des expériences de non-participation. Ces expériences sont souvent marquées par une absence ou un déficit d’informations (sur leurs droits, les décisions à venir, les enjeux de leur participation…), de rares opportunités de rencontres avec des professionnels, des changements fréquents ou encore des systèmes et pratiques oppressifs envers les enfants.
Entre ces deux extrêmes, d’autres enfants ont connu des situations où leur parole était entendue mais disqualifiée ou, au contraire, invisibilisée par des processus décisionnels morcelés et complexes. Par exemple, les observations d’un processus décisionnel pour Laura pourraient traduire un niveau élevé de participation : le point de vue de Laura est entendu, relayé et sa demande portée et soutenue par le magistrat. Pourtant, elle considère ne pas avoir participé à cette décision.
Ce que nous comprenons à partir de cette expérience, qualifiée de minimale peut s’expliquer par un processus de captation institutionnelle de la parole de l’enfant. Laura ne sait pas si, comment ni auprès de qui sa parole a été relayée et pense que ce n’est pas son avis qui a compté dans la décision prise.
Certains moments (entretiens, audiences, synthèse) favorisent l’expression, tandis que d’autres la rendent plus difficile. Nous identifions quatre actes professionnels qui influencent l’expérience des enfants.
Les entretiens individuels avec les enfants sont souvent perçus comme un espace privilégié pour recueillir leur avis. Pourtant, le contexte, le contenu et la forme de ces échanges impactent leurs expériences. Les enfants sont souvent contraints par le cadre (lieu, durée, présence d’autres personnes) et peu préparés aux questions posées.
Le contenu des échanges, souvent centré sur les difficultés familiales et suivant la temporalité administrative et judiciaire, laisse peu de place à l’expression de leurs émotions ou de leurs souhaits. Enfin, les formes et les supports pour soutenir l’expression (langage, outils utilisés) ne sont pas toujours apparus adaptés pour faciliter une connexion et une communication avec l’enfant.
Les rencontres pluriprofessionnelles (réunions d’équipe, synthèses, bilans) sont des moments clés des processus décisionnels. Ces espaces permettent de réunir l’ensemble des acteurs professionnels impliqués dans l’intervention, lesquels partagent leurs observations, actions et analyses. Les enfants sont absents de ces instances et, actuellement, il n’existe pas, au sein des services concernés par la recherche, de support ou processus permettant de systématiser le recueil de leurs points de vue en amont et pendant ces échanges.
Pourtant, de récents travaux montrent des effets positifs de la prise de décision partagée et de la participation sur les résultats des décisions. Ces éléments font écho à d’anciennes recherches qui mériteraient d’être poursuivies à propos des effets et du vécu de la présence des enfants aux réunions qui les concernent. La prise en compte de la perspective de l’enfant reste aléatoire et parfois superficielle : même quand il s’exprime, son avis n’est pas encore systématiquement intégré dans les synthèses ou les décisions.
Les écrits professionnels (comptes-rendus, synthèses, projets pour l’enfant) sont des outils importants dans le processus décisionnel. Les enfants sont rarement cités directement dans les textes et, quand c’est le cas, leurs propos peuvent être repris de manière décontextualisée ou découpés. Là encore, ces résultats s’appuient sur et complètent d’autres travaux scientifiques.
Les écrits devraient pouvoir permettre de savoir si et comment l’enfant a été associé au processus, de restituer son opinion sur les propositions ou les décisions et, conformément aux principes de la convention et du cadre juridique, d’accorder à son point de vue le poids qui lui revient eu égard à son âge et à son degré de maturité. Ces documents pourraient devenir des outils de participation s’ils intégraient de manière plus systématique les observations et expressions des enfants, et s’ils étaient partagés avec eux pour validation.
Enfin, le temps de l’audience constitue le dernier moment analysé pour comprendre l’expérience des enfants. Les enfants sont souvent peu préparés au déroulement et au contenu des échanges. Ils ne savent pas toujours qui seront les personnes présentes, comment prendre la parole et ne savent pas, en l’absence de restitution complète des rapports, comment leurs propos pourraient être repris devant l’ensemble des personnes, y compris leurs parents.
Cela n’est pas sans conséquences sur la construction des expériences de participation. Par exemple, Angel, âgée de 9 ans, découvre que ce qu’elle a exprimé au cours d’un entretien a été transmis au juge. La juge s’appuie donc sur le propos d’Angel disant que l’un de ses parents est plus gentil que l’autre. Angel tentera de prendre la parole, constatant la peine provoquée chez son autre parent et se mettra à pleurer en expliquant qu’elle n’a jamais dit ça. En sortant de l’audience, Angel s’adressera avec colère à sa référente en disant « Ça m’a pas du tout aidé ce que vous avez fait ».
Les enfants en protection de l’enfance ne vivent pas une, mais des expériences de participation, expériences qui sont interconnectées. Au regard de la gravité des décisions à prendre, de la nécessité de trouver un équilibre entre des intérêts multiples et parfois divergents (de l’organisation, des parents, de l’enfant, du décideur), du coût émotionnel, les prises de décision en protection de l’enfance sont un exercice pénible et complexe.
La participation des enfants est un processus tout aussi exigeant, qui ne peut se réduire au seul recueil du point de vue de l’enfant. Elle exige des espaces sécurisés, des temporalités adaptées, des professionnels formés et des organisations sur lesquelles s’appuyer.
Cette recherche démontre empiriquement que la participation ne se décrète pas mais se construit, jour après jour, dans les interactions et les décisions qui façonnent la vie des enfants. Dès lors la question n’est plus « Pourquoi les enfants ne participent pas ? » mais « Comment les organisations peuvent-elles créer et soutenir les espaces et les processus producteurs des expériences ? ».
Élodie Faisca a reçu des financements de l'ANRT dans le cadre d'une Cifre.
28.04.2026 à 15:49
François Langot, Professeur d'économie, Directeur adjoint de l'i-MIP (PSE-CEPREMAP), Le Mans Université
Jean-Olivier Hairault, Professeur d'économie et Directeur Scientifique de l'Observatoire Macro du Cepremap, Paris School of Economics – École d'économie de Paris
Pour réduire le poids de la dette, la France devra-t-elle adopter des règles budgétaires strictes ? Le débat entre les tenants de cette solution et ses opposants doit intégrer la situation réelle des finances publiques. En outre, une règle budgétaire permet au secteur privé d’anticiper à moyen et long terme, quand l’absence de règles produit angoisse et attentisme. Loin d’être une camisole, les règles budgétaires, si elles sont bien pensées, peuvent être d’autant plus efficaces qu’elles renforcent la coordination.
Le débat entre Thierry Breton et Xavier Timbeau pose une question majeure. Le premier promeut une règle budgétaire alors que le second affirme qu’une règle ne remplacera jamais la politique. Les deux ont raison, et pourtant, le débat reste incomplet. Pour dégager les vertus ou les dangers d’une règle budgétaire, encore faut-il regarder les faits.
La France n’a jamais connu plus de deux années successives de désendettement depuis cinquante ans. La France est un cas presque unique parmi les grands pays avancés. La Banque de France rappelle que la dette publique française augmente de façon continue depuis 1974. D’autres pays ont connu des poussées d’endettement, parfois massives. Mais ils ont aussi connu des phases de reflux.
Entre 2013 et 2019, l’Allemagne a vu son ratio de dette continûment se réduire pour finalement diminuer de 21 points de PIB. La Belgique l’a réduit pendant quatorze années de suite (entre 1994 et 2007), le diminuant alors de 51 points de PIB. Durant dix années successives (entre 1995 et 2004), l’Italie a connu un épisode de désendettement lui permettant de réduite son ratio dette sur PIB de 26 points. L’Espagne a réduit sa dette entre 1997 et 2007 de 30 points. Les États-Unis ont également connu une baisse de dix points entre 1997 et 2000. La Suède a engagé un redressement durable depuis sa crise des années 1990. La Suisse a abaissé fortement sa dette depuis l’introduction de son frein à l’endettement en 2003. La Pologne a également connu une baisse après son pic du milieu des années 2010. La France, elle, n’a jamais réussi à enclencher une dynamique durable de désendettement.
Cette singularité économique s’accompagne d’une singularité institutionnelle. L’Allemagne a un frein à l’endettement de rang constitutionnel. La Suisse aussi. L’Espagne a inscrit la stabilité budgétaire dans sa Constitution et l’a complétée par une règle de dépense. L’Italie dispose depuis 2013 d’un triptyque règle de dépense, règle d’équilibre et règle de dette, lui aussi adossé à une réforme constitutionnelle. La Pologne a un plafond de dette inscrit dans sa Constitution. La Suède s’est dotée d’un cadre cohérent fondé sur un plafond de dépenses, un objectif de solde et une ancre de dette. La Belgique a utilisé successivement plusieurs règles nationales de dépenses, de recettes et de solde.
À lire aussi : De Chirac à Macron, comment ont évolué les dépenses de l’État
Même les États-Unis, sans frein constitutionnel comparable au modèle allemand, disposent de procédures telles que des plafonds de dépenses, des règles imposant le financement de toutes nouvelles dépenses et de règles d’équilibre dans presque tous les États fédérés (FMI pour un descriptif à l’échelle mondiale des règles budgétaires de chaque pays).
La France, elle, n’a ni frein constitutionnel ni véritable règle nationale de désendettement. Elle a des engagements européens, des lois de programmation, et surtout une habitude : celle de renvoyer chaque année à l’année suivante l’effort qui n’a pas été consenti en pariant sur une croissance qui réduira son endettement.
Dette publique et règles budgétaires
Bien sûr, corrélation n’est pas causalité. Mais quand un pays est, sur un demi-siècle, presque le seul à cumuler hausse continue de sa dette publique et absence de règle budgétaire interne, tandis que ceux qui ont réussi à la réduire se sont souvent dotés d’une règle budgétaire, il devient difficile de soutenir que l’architecture institutionnelle est secondaire.
Une fois ces faits rappelés, le travail de l’économiste est alors d’évaluer si, à effort budgétaire donné, la règle est plus efficace pour contenir la dette publique qu’un ajustement discrétionnaire revoté chaque année, au gré des alternances, des crises et des rapports de force.
Des travaux de l’i-MIP visent à évaluer l’efficacité de l’adoption de règles budgétaires. Une des originalités des méthodes développées à l’i-MIP est de prendre ne considération la formation des anticipations en réponse aux annonces de politique économique. Cela donne à ses méthodes un avantage pour l’évaluation des règles budgétaires, fortement dépendante des changements de comportements qu’elles peuvent induire.
Deux scénarios doivent alors être comparés pour mesurer l’impact d’une règle budgétaire. Pour une même restriction budgétaire pluriannuelle en valeur, le premier scénario introduit des réductions de dépenses perçues par les agents économiques comme une suite de mesures votées annuellement, se succédant les unes aux autres sans engagements à long terme. Le second scénario implémente ces mêmes économies via une règle engageant l’État, dès le premier vote, sur ces mêmes réductions de dépenses. Dans le premier cas, les agents économiques revoient leurs anticipations année après année, alors que, dans le second, ils adaptent de façon durable leurs comportements.
Si tout l’ajustement porte sur la consommation publique, la baisse du ratio dette sur PIB serait plus forte (de 2,1 points après cinq ans) si ces baisses de dépenses étaient implémentées via une règle plutôt qu’avec la possibilité qu’elles soient remises en cause chaque année. Si les économies reposent uniquement sur les transferts aux ménages, le ratio dette sur PIB baisserait de 3,1 points de plus (après cinq ans) avec une règle qu’avec des baisses de dépenses discrétionnairement votées chaque année.
Comme les décisions économiques reposent en grande partie sur les anticipations, la règle permet de coordonner les agents économiques sur des projets de plus long terme, davantage créateurs d’emploi et de richesse. En revanche, l’incertitude autour des votes « parlementaires » réduit l’amplitude des décisions de tous les acteurs (ménages et entreprises), dans l’attente des futurs votes. Ainsi, lorsque les agents savent qu’une trajectoire de finances publiques sera effectivement tenue, ils ajustent dès aujourd’hui et plus fortement leurs décisions d’épargne, de travail, de prix et de consommation.
Les évaluations de l’i-MIP montrent que la règle réduit non seulement le niveau de la dette mais aussi le risque de dérapage pouvant conduire à de fort niveau de dette. Elle génère aussi davantage de croissance. Le point décisif est là : une règle budgétaire n’est pas une camisole. C’est un dispositif de coordination des anticipations sur le moyen terme, horizon sur lequel se fondent les embauches et les investissements.
Le gouvernement doit conduire sa politique budgétaire en intégrant l’information sur la dette héritée, et pas seulement se donner une cible fixe de déficit public. Une règle budgétaire doit garantir que la dette n’est pas seulement stabilisée en éliminant l’effet boule de neige, mais progressivement ramenée vers une cible. Pour ce faire, le solde primaire doit d’une part couvrir le service de la dette passée, net de la croissance nominale, et d’autre part engager le remboursement de l’excès de dette courante par rapport à sa cible de long terme. Ce besoin de financement est donc proportionnel à l’écart entre la dette courante et sa cible de long terme et a pour fonction de déterminer explicitement le rythme du retour vers le niveau souhaité de dette. L’application concrète de cette règle suppose non seulement de définir ce rythme d’ajustement, mais aussi de préciser une cible de dette, qui sert d’ancrage au retour progressif de la trajectoire budgétaire.
Cette règle indexée sur le niveau hérité de la dette et de son écart à sa cible implique que l’excédent primaire requis décroît avec le ratio de dette : l’objectif n’est donc pas un niveau donné et intangible de solde primaire ou total, mais une règle d’indexation sur le niveau de la dette. Cette règle permet un déficit total équivalent aux gains liés au remboursement d’une dette passée avec des revenus intégrant la croissance nominale d’aujourd’hui, amputés d’un terme de correction, visant à financer le retour de la dette vers sa cible. Si le taux d’intérêt net de la croissance devient négatif, la dynamique de la dette devient suffisamment favorable pour que, même au-dessus de la cible, le retour progressif vers celle-ci puisse demeurer compatible avec un déficit primaire.
Aujourd’hui le déficit primaire de l’État français est de 2,9 points de PIB avec un ratio dette sur PIB à 115,6 %. L’application immédiate de la règle décrite ci-dessus nécessiterait de présenter en 2026 un budget excédentaire d’au moins 0,55 point de PIB afin de stabiliser la dette à son niveau d’aujourd’hui. Ensuite, pour que le ratio dette sur PIB passe sous les 100 % dans 20 ans (réduction de l’écart à une cible de long terme fixée à 60 % en accord avec le traité européen), un second excédent de 1,15 point de PIB est nécessaire. L’addition de ces deux composantes de la règle conduit alors à un excédent primaire de 1,7 point de PIB pour 2026. Ainsi, avant même d’engager une réduction de la dette publique, le seul objectif de la stabiliser en une période est certainement irréaliste compte tenu de l’ampleur du déficit actuel. C’est donc un engagement sur un plan budgétaire sur un horizon pluriannuel qui doit garantir la stabilisation, puis le retour vers la cible de long terme. C’est ce type de règle, dans le cadre d’un plan pluriannuel, qui est testée dans les simulations de l’i-MIP et permet d’accroître l’efficacité d’une politique de consolidation.
Thierry Breton a raison sur un point essentiel : un pays ne peut vivre éternellement dans le déni budgétaire. Xavier Timbeau a raison sur un autre : aucun chiffre gravé dans le marbre ne remplacera jamais l’intelligence économique. Mais la conclusion à tirer n’est ni l’austérité constitutionnalisée ni le refus de toute règle. Elle est plus simple, la France a besoin d’une gestion budgétaire crédible et surtout prévisible.
Autrement dit, d’une règle pluriannuelle, transparente, suspendable en cas de choc majeur, mais suffisamment contraignante pour empêcher ce que nous pratiquons depuis cinquante ans : promettre le redressement demain pour éviter de le décider aujourd’hui. Parce qu’elle coordonne les décisions sur un horizon plus long, une telle règle réduit l’incertitude économique, toujours défavorable à l’embauche comme à l’investissement. Et si cette discipline avait été à l’œuvre ces deux dernières années, nous disposerions peut-être aujourd’hui des marges budgétaires nécessaires pour financer un nouveau bouclier tarifaire.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.