ACCÈS LIBRE UNE Politique International Environnement Technologies Culture
04.06.2025 à 13:58
Petite histoire de la boîte de nuit, des sous-sols du Royaume-Uni aux plages d’Ibiza
Texte intégral (1747 mots)

Des sous-sols de la banlieue de Manchester aux plages enflammées d’Ibiza, la boîte de nuit n’a jamais cessé de se réinventer. Avant d’être le lieu de fête par excellence, le club était surtout un refuge pour adolescents, car isolé du monde des adultes. Depuis, la culture du club s’est largement développée et les boîtes de nuit sont devenues de véritables espaces de liberté : une évolution autant sociale qu’artistique.
Quand le rock est arrivé au Royaume-Uni au milieu des années 1950, il y avait très peu d’endroits destinés aux jeunes pour danser sur ce tout nouveau genre musical. Mais, au début des années 1960, des lieux spécialement adaptés pour cela ont commencé à voir le jour dans les villes. Contrairement aux salles de bal, parfois grandioses et opulentes, qui avaient été les lieux de prédilection de la génération précédente, les nouvelles discothèques des années 1960, destinées aux adolescents, étaient le plus souvent situées dans des espaces totalement différents, en matière d’architecture et d’ambiance.
Plusieurs de ces nouvelles discothèques pour jeunes se trouvaient dans les sous-sols de bâtiments plutôt délabrés. Dépourvues des licences requises pour ouvrir un débit de boissons, elles s’adressaient à des jeunes n’ayant pas atteint l’âge légal pour consommer de l’alcool.
La nouveauté de ces espaces se reflétait dans l’incertitude quant à la manière de les décrire : ils étaient parfois qualifiés de « coffee dance clubs », parfois de « continental style ». Pour l'essentiel, ils diffusaient de la musique enregistrée, souvent très énergique, ce qui avait un effet direct sur les danseurs, et qui allait permettre aux adolescents britanniques, dont beaucoup s’identifiaient aux mods (la sous-culture des jeunes stylés qui a fleuri entre le début et le milieu des années 1960), de découvrir des artistes afro-américains de R&B.
Dans notre nouveau livre, Transatlantic Drift : The Ebb and Flow of Dance Music, nous évoquons ces clubs pionniers et les musiciens, interprètes et DJ novateurs, qui ont incité les gens à se réunir et à danser.
Dans les sous-sols
Le fait qu’ils soient installés dans des sous-sols renforce l’attrait exercé par les clubs. Les participants se sentaient appartenir à un mouvement clandestin et étaient littéralement cachés du monde des adultes. Pendant quelques années, entre 1963 et 1966, l’hédonisme souterrain a existé sous la surface – et la scène des clubs mods a prospéré. L’architecture de ces espaces offrait aux jeunes danseurs des environnements uniques qui leur permettaient de vivre des expériences particulièrement viscérales.
Il s’agissait d’espaces où régnait souvent une chaleur étouffante, peu éclairés, bondés, remplis de fumée et de sueur, où la musique ricochait sur les surfaces et se répercutait directement sur les corps des danseurs. L’emplacement souterrain est parfois souligné dans le choix des noms de ces clubs : Cavern, Dug Out, Dungeon, Catacombs, Heaven and Hell.
Le Sinking Ship Club de Stockport (sud de Manchester, Angleterre) était situé dans une grotte creusée dans des rochers de grès rouge. La condensation qui retombait sur les danseurs était imprégnée des dépôts minéraux rouges, leur laissant un souvenir sensoriel particulièrement vibrant d’une session de danse ayant duré toute la nuit.
À la fin de l’ère des clubs modernes, en 1966, les stars américaines du R&B Etta James et Sugar Pie DeSanto ont enregistré le titre « In the Basement (Part 1) ». Bien que la chanson fasse référence à une fête dans une maison plutôt qu’à une boîte de nuit, elle reflète l’esprit du milieu des années 1960, l’ère de la danse moderne, et les endroits où elle s’est épanouie. DeSanto, en particulier, était extrêmement populaire auprès des mods.
Outre la tendance à nommer les clubs en référence à leur emplacement souterrain, une autre tendance consistait à les nommer en référence à des lieux situés en dehors du Royaume-Uni, afin de donner un sentiment d’évasion et de glamour.
Il s’agissait souvent de mots d’origine latine comme La Discothèque, La Bodega, ou encore El Partido. Cette référence à l’Europe correspondait à la passion des mods pour le style européen continental. On peut également y voir un signe avant-coureur de ce qui allait se passer au fur et à mesure que ces lieux se transformaient.
Et la lumière fut
La fin du XXe siècle a enfin mis en lumière la culture des clubs. Une glorieuse rencontre entre divers effets spéciaux (musicaux, météorologiques et pharmaceutiques) s’est combinée pour former, pourrait-on dire, la dernière grande « sous-culture spectaculaire ». Dans les années 1980, des rythmes électroniques bruts partis de villes américaines comme Chicago et Detroit ont traversé l’Atlantique, d’abord au compte-gouttes, puis par vagues, et ont investi les clubs européens.
À Ibiza, par exemple, Alfredo Fiorito (qui avait fui les restrictions imposées par la junte dans son Argentine natale) jouait de la house de Chicago et de la techno de Detroit, en plus de son habituelle pop européenne et de l’electronica. Sa toile était la piste de danse de la boîte de nuit Amnesia, où il faisait le DJ tout au long de la nuit et jusqu’au matin. Ce n’est pas tant que son DJ mix ait fait exploser le toit de l’endroit, mais plutôt que l’Amnesia n’avait pas de toit à l’origine.
Au soleil, la vitamine D s’est mélangée a réagi au flux moins naturel de la drogue E dans le corps. La MDMA (ou ecstasy), abrégée en E, présentait une autre combinaison intrigante – cette fois, celle de l’ingéniérie allemande et de l’appropriation américaine. Pour les consommateurs, elle est devenue le parfait filtre pharmaceutique permettant d’apprécier la musique house.
Les Britanniques en vacances à Ibiza en 1987 ont eu une sorte de révélation et ont ramené la culture de la drogue au Royaume-Uni. De retour au pays, les fêtes se sont multipliées, avec notamment des raves illégales dans les fermes et les champs autour de l’autoroute M25 (la plus fréquentée du Royaume-Uni, la « M25 London orbital road » est l’autoroute circulaire de la métropole du Grand Londres, ndlr).
Des événements comme Sunrise, Energy et Biology évitèrent complètement les boîtes de nuit, préférant s’installer en plein air. Les ravers ont découvert que faire la fête au soleil les ramenait à quelque chose de primitif et de païen. Ils ont fait la fête dans et avec la nature, dans un Arden shakespearien reconstitué, alimenté par le soleil d’en haut et l’énergie du sol d’en bas.
C’est ainsi que l’histoire de la culture des clubs a émergé des caves et des sous-sols d’un monde souterrain et nocturne et a trouvé son chemin vers la lumière.
Les répercussions de cette dérive transatlantique, de ce flux musical de rythmes et d’idées, se sont ensuite propagées comme des vagues sonores à travers la planète. Nous pouvons en voir les traces dans des festivals tels que le carnaval de Notting Hill. Nous pouvons également suivre cette aventure qui a quitté les week-ends, puis le Royaume-Uni, pour suivre une piste néo-hippie qui a traversé l’Europe, et en particulier l’Europe de l’Est, jusqu’à la scène trance de Goa et aux fêtes de la pleine lune en Thaïlande.
À Ibiza, les nouvelles lois et réglementations sur les nuisances sonores ont littéralement permis de remettre le toit en place ; mais, ailleurs, l’esprit des raves et de la boule à facette, de la disco al fresco, semble inarrêtable.

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
04.06.2025 à 13:57
Personnes âgées : une solidarité familiale trop souvent passée sous silence
Texte intégral (2186 mots)
Contrairement à un cliché tenace, à l’approche de l’été, les familles ne s’empressent pas de déposer leurs proches âgés en maison de retraite pour partir en vacances. Pourtant, l’idée d’un entourage égoïste persiste, entretenu par les médias et les politiques au fil de crises, comme celle de la canicule de 2003. Les recherches sur les solidarités familiales dessinent une tout autre histoire. Comment expliquer son invisibilisation ?
Les réticences face à l’adoption d’une loi sur l’accompagnement de la fin de vie réactivent un certain nombre de représentations négatives sur les familles et leur supposé égoïsme. Certaines d’entre elles seraient susceptibles d’encourager, par intérêt, leur parent âgé à recourir à cette aide à mourir – soit pour recevoir un héritage, soit pour ne plus payer l’Ehpad. Quant aux personnes vulnérables concernées, elles seraient davantage susceptibles de la solliciter lorsque le sentiment d’abandon par leurs proches et d’isolement relationnel serait le plus aigu.
Lors de la crise sanitaire du Covid-19 ou de la canicule de l’été 2003, l’opprobre avait déjà été jeté sur les familles soupçonnées de délaisser leurs proches, tant en institution qu’à domicile.
Sans nier la réalité d’un sentiment d’isolement chez certains, il semble nécessaire d’éclairer la réalité de ces solidarités familiales intergénérationnelles. Et surtout de comprendre comment des représentations négatives, construites au cours des deux derniers siècles, se sont renforcées depuis les années 2000.
Des solidarités familiales invisibilisées
Les familles sont depuis longtemps soupçonnées de se défausser de leur responsabilité sur la solidarité publique. Cette vision naît avec le développement d’un système d’assistance en France, parallèlement au développement d’une pensée anti-individualiste et moralisante au XIXᵉ siècle.
La solidarité vis-à-vis des personnes âgées relève d’une logique de subsidiarité, fondée notamment sur l’article 205 du Code civil (1804) et l’obligation alimentaire des descendants vis-à-vis des ascendants. L’assistance publique intervient – pour des vieillards de bonnes mœurs et sans ressource – uniquement si les familles sont défaillantes ou trop pauvres pour aider leur parenté. Cela concerne le placement en hospices comme le versement de prestations à domicile, généralisé avec la loi d’assistance du 14 juillet 1905. Selon celle-ci, les sommes versées par les familles pour soutenir leur proche âgé sont défalquées des sommes (pourtant minimes) attribuées par la solidarité publique.
Or, les besoins sont immenses dans une société où il n’existe pas de dispositif de retraite et où les corps sont usés par le travail. De nombreux vieillards sont contraints de demander à entrer en institution pour échapper à la misère et rejoignent ainsi une longue liste d’attente. Dans ce contexte, les familles optent alors massivement pour une aide clandestine : il s’agit de dissimuler aux pouvoirs publics les quelques ressources qu’elles pourraient verser à leurs vieux parents restés à leur domicile.
Cette situation est révélée au grand jour lors de la Première Guerre mondiale lorsque des fils, envoyés sur le front, ne peuvent plus assurer ce transfert secret d’argent. Privées de ce complément financier, de nombreuses personnes âgées sombrent alors dans la misère la plus extrême. L’invisibilisation de ces solidarités au début du siècle a construit le mythe selon lequel les familles abandonneraient leurs proches à leur propre sort ou qu’elles frauderaient pour éviter de faire jouer l’obligation alimentaire ou la récupération sur succession après décès.
Cohabiter ou vivre en voisins
Durant l’entre-deux-guerres, le nombre d’entrées en institution continue sa hausse, parallèlement à une suspicion croissante vis-à-vis des familles. Celles-ci font pourtant ce qu’elles peuvent mais la dégradation de la conjoncture et le spectre du chômage rendent plus difficiles d’aider un proche âgé.
Durant l’Occupation et les années 1950, la cohabitation intergénérationnelle augmente pourtant, avec son lot de tensions intrafamiliales, mais elle est contrainte, et due aux circonstances exceptionnelles de la période. Il y a d’abord la nécessité de sortir son parent de l’hospice pour éviter qu’il ne meure de faim puis, après-guerre, une crise aiguë du logement que subissent toutes les générations françaises.
Le fort recul de cette cohabitation à partir des années 1960 et l’augmentation de la part des personnes âgées vivant seules sont lus comme un déclin des solidarités au sein des familles – y compris par les sociologues qui se focalisent sur l’éclatement des liens familiaux contemporains, en parallèle à la hausse des divorces. De leur côté les médecins dénoncent ce qu’ils désignent comme « le syndrome de la canne à pêche » : le dépôt à l’hôpital de leur proche âgé par les familles pour les vacances.
Ces condamnations moralisatrices et culpabilisantes masquent pourtant une autre réalité : le manque criant de soutien des pouvoirs publics aux familles aidantes et l’absence de dispositifs de répit pour permettre à ces dernières de souffler quelques semaines. Par ailleurs, les mutations sociales renforcent l’invisibilité des solidarités. La cohabitation intergénérationnelle recule avec la sortie de la crise du logement, les personnes âgées, en meilleure santé aspirent à vivre de manière autonome.
Mais vivre seul ne signifie pas vivre de manière isolée. La géographe Françoise Cribier et la sociologue Claudette Collot prouvent au début des années 1970 l’importance de l’habitat de proximité entre les générations. La régularité de visites des enfants adultes permet alors de nouvelles relations d’intimité à distance. À leur suite, plusieurs travaux comme ceux d’Agnès Pitrou montrent l’importance de cette redécouverte des solidarités familiales et de l’habitat choisi.
Se multiplient ainsi les études qui définissent la parenté comme réseau d’entraide. Les sciences sociales utilisent alors, durant les années 1980, l’expression d’« aidants familiaux » : la capacité protectrice de la famille est mise en regard des limites de la protection publique.
Ces travaux insistent sur le rôle attendu et assumé par les familles dans la promotion de la santé des personnes âgées fragiles. Ils utilisent différentes notions empruntées pour partie au monde anglo-saxon : support, secours, soins, assistance.
Les recherches en gérontologie et en sociologie de la santé traitent de la solidarité familiale en termes de soutien ou de support social ; elles mettent aussi au jour l’existence de « générations pivots » ou « générations sandwichs », des générations d’aidants au croisement de l’aide aux aînés et du support aux enfants ou jeunes adultes.
Tous les quinze jours, nos auteurs plongent dans le passé pour y trouver de quoi décrypter le présent. Et préparer l’avenir. Abonnez-vous gratuitement dès aujourd’hui !
Des clichés persistants sur les liens intergénérationnels
Si les travaux scientifiques sur l’aide familiale font pièce aux représentations d’un désengagement familial, cette vision biaisée continue d’être alimentée par des politiques et dans les médias. Dans le Paravent des égoïsmes, publié en 1989, l’ancienne ministre de la santé et de la famille, Michèle Barzach, reprend le schéma d’un supposé déclin des solidarités, dénonçant un « égoïsme collectif, qui nous mène à un lent dépérissement de la population, et un égoïsme individuel qui, au nom de la solidarité nationale, nous dispense de regarder autour de nous ». Elle condamne également la fin de la cohabitation avec les aînés qui n’aurait pas été remplacée par « d’autres formes de solidarité ». Voilà qui « aurait favorisé l’exclusion des personnes âgées, l’amélioration de leur situation matérielle ne suffisant pas à compenser leur isolement ».
En 1989, pour se prémunir de familles financièrement intéressées, la loi sur l’accueil familial fixe les conditions de rémunérations des familles nourricières, mais en exclut les familles naturelles qui hébergeraient un parent âgé. Durant les années 1990, lors des débats sur la création d’une allocation dépendance, certains sénateurs disent suspecter les familles de vouloir se « décharger de leurs obligations sur l’aide sociale ».
Ces conceptions idéologiques sont réactivées lors de la canicule de 2003 dont l’essentiel des victimes (14 802 morts) a plus de 75 ans. Les dirigeants et les médias accusent à tort les familles d’avoir délaissé leurs proches durant l’été comme le démontre bien l’historien Richard Keller. Ils diffusent cette affirmation alors même que 64 % des personnes sont mortes en institution, notamment en Ehpad.
Durant les années 2000-2020, dans un contexte où l’injonction est au maintien au domicile, les familles qui placent malgré tout leur parent âgé en institution restent soupçonnées de l’abandonner. Et comme le coût de l’hébergement en Ehpad, une fois soustraite l’ASH est à leur charge, elles sont également suspectées d’espérer un séjour le plus court possible. De là à voir certains membres familiaux souhaiter un décès rapide il n’y a qu’un pas, surtout qu’il pourrait être franchi en complicité avec une partie du corps médical qui y verrait une forme de thérapie létale – risques que brandissent les pourfendeurs de la loi sur l’aide à mourir.
C’est oublier pourtant que ces familles – en particulier les femmes aidantes – constituent les principales pourvoyeuses de « care » dans nos sociétés contemporaines, que le proche âgé soit maintenu au domicile ou en établissement. Et qu’une loi sur la fin de vie d’une telle portée sociétale ne peut être acceptée sans que les familles françaises y soient associées et y souscrivent, d’une façon ou d’une autre. C’est à cette condition que cette nouvelle disposition fonctionnera pleinement, comme nous le montrent les exemples belges ou néerlandais.
Cet article s’inscrit dans le projet KAPPA « Conditions d’accès aux aides et politiques publiques de l’autonomie. Origines, implications et perspectives d’évolution de la segmentation par âge », bénéficiant du soutien de l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

Christophe Capuano a reçu des financements de la MIre/Drees et de la CNSA.
03.06.2025 à 16:35
Bac, brevet, CAP : petite histoire des examens en cinq questions
Texte intégral (2375 mots)
À quoi les premières sessions du baccalauréat ressemblaient-elles ? Quand le brevet des collèges a-t-il été créé ? À partir de quand l’université s’est-elle féminisée ? En quelques grandes questions, retour sur l’histoire des examens alors que les lycéens et étudiants passent les dernières épreuves de l’année.
Le recours systématique à l’organisation d’examens et à la collation de « grades » attestés dans des diplômes pour valider les connaissances acquises par l’enseignement est une pratique apparue avec les premières universités médiévales au tournant des XIIe et XIIIe siècles.
L’élément central du dispositif a été la licence qui, de simple acte juridique (l’octroi d’une « autorisation », d’un « droit d’enseigner ») s’est assez vite transformée en « examen » et en « grade » pour se retrouver elle-même encadrée rapidement par deux autres grades, eux-mêmes conférés après examen : le baccalauréat d’abord et la maîtrise ensuite.
Ce dispositif « à trois étages » de validation des connaissances s’est imposé partout. La quasi stabilité du vocabulaire qui permet de le décrire – baccalauréat (certes parfois appelé « determinatio »), licence, maîtrise (ou master) – est la meilleure preuve de sa prégnance qui a survécu jusqu’à nos jours.
Alors que les lycéens passent les dernières épreuves du bac et que les étudiants guettent leurs résultats de fin d’année, retour en cinq questions sur l’histoire des premiers examens du parcours scolaire.
À quoi le baccalauréat servait-il lorsqu’il a été institué en 1808 ?
Il a gardé de l’ancien baccalauréat sa face universitaire et il a été le point de départ des baccalauréats dits « généraux » que nous connaissons. Mais avec une grande différence, au début, puisqu’il s’agissait d’un examen entièrement oral dont le jury était uniquement composé d’universitaires.
Le statut du 16 février 1810 précise que les examinateurs du baccalauréat doivent être au nombre de trois universitaires. Cet examen oral porte sur « tout ce que l’on enseigne dans les hautes classes des lycées » (les deux dernières). Peu à peu, des épreuves écrites sont ajoutées. Surtout, peu à peu également, le jury qui fait effectivement passer l’examen du baccalauréat comporte de moins en moins d’universitaires et de plus en plus de professeurs du secondaire.
Pour Napoléon Ier qui a été le créateur de ce baccalauréat, il s’agissait avant tout d’instruire dans les lycées nouvellement créés les futurs officiers et hauts administrateurs de son Empire. De fait, selon l’expression du philosophe Edmond Goblot, le baccalauréat a été tout au long du XIXe siècle « un brevet de bourgeoisie ».
Quand les filles ont-elles eu pour la première fois accès au lycée et à l’université ?
Même quand la loi Camille Sée de décembre 1880 institue avec le soutien de Jules Ferry des établissements d’enseignement secondaire féminin publics, les filles peuvent très difficilement passer le baccalauréat et suivre un cursus à l’université. En effet, à la différence des lycées de garçons institués en 1802, le plan d’études des lycées de jeunes filles ne comporte pas les disciplines qui sont alors le fleuron de l’enseignement secondaire et du baccalauréat : le latin, le grec et la philosophie.

Mais le baccalauréat n’est pas juridiquement interdit aux jeunes filles ; et certaines d’entre elles le passeront en candidates libres : une trentaine en 1890, une centaine en 1909. La première bachelière qui a obtenu le diplôme du baccalauréat est Julie Daubié, en 1861. Elle sera aussi la première licenciée es lettres française en 1871.
Il a fallu presque un demi-siècle pour qu’un décret en date du 25 mars 1924 aménage officiellement une préparation au baccalauréat présentée comme une section facultative alignée totalement sur le secondaire masculin, tout en perpétuant un enseignement secondaire féminin spécifique institué en 1880 (avec son diplôme spécifique de « fin d’études secondaires », au titre significatif…).
À lire aussi : Histoire : la longue marche des filles vers l’université
Les jeunes filles commencent alors leur « longue marche » conquérante. Dès 1936, les jeunes filles représentent le quart des élèves reçus à l’examen du baccalauréat. En 1965, leur taux d’accès arrive au même niveau que celui des garçons : 13 % de la classe d’âge. Et le pourcentage de jeunes filles inscrites à l’université monte vite : un quart des étudiants en 1930, un tiers en 1950, pour atteindre la moitié en 1981.
Pourquoi a-t-on créé le brevet ?
D’abord, de quel brevet parle-t-on ? Au XIXe siècle, le « brevet » est d’abord et avant tout un « brevet de capacité » qui certifie que l’on est « en capacité » de devenir maître (ou maîtresse) d’école, et plus généralement un examen qui est parfois requis pour être « en capacité » d’exercer certains métiers appartenant à ce que l’on appellerait maintenant la sphère des cadres intermédiaires.
Tous les quinze jours, nos auteurs plongent dans le passé pour y trouver de quoi décrypter le présent. Et préparer l’avenir. Abonnez-vous gratuitement dès aujourd’hui !
En 1947, dès le début de la forte augmentation du taux de scolarisation dans l’enseignement secondaire qui commence sous la IVe République, le « brevet » est transformé en « brevet d’études du premier cycle du second degré » (BEPC), son appellation nouvelle signant ce qu’il est devenu avant tout, à savoir un examen qui scande un cursus secondaire désormais clairement constitué de deux cycles. Mais ce n’est nullement une condition pour passer en classe de seconde et cela ne l’a jamais été jusqu’ici, même si cela est envisagé.
À partir de 1981, le diplôme – désormais intitulé « brevet des collèges » – est attribué sans examen, au vu des seuls résultats scolaires. Mais, en 1986, un « examen écrit » est réintroduit avec le triple objectif annoncé de « revaloriser le diplôme », de « motiver » davantage les élèves, et de les « préparer » à aborder des examens ultérieurement. Lors de sa première mouture, le taux de reçus n’a pas dépassé 49 %.
CAP, BEP, bac pro : quand les diplômes de la voie professionnelle ont-ils été créés ?
Le certificat d’aptitude professionnelle (CAP), destiné à sanctionner un apprentissage, est institué en 1911. Cet examen est réservé aux « jeunes gens et jeunes filles de moins de dix-huit ans qui justifient de trois années de pratiques dans le commerce et l’industrie » (décret du 24 octobre 1911). Mais comme le CAP n’a pas été rendu obligatoire ni même associé à une grille de rémunération, le CAP demeurera un diplôme rare dans un premier temps.
Le brevet d’enseignement professionnel (BEP) a été créé en 1966. Il a été institué dans le but de remplacer progressivement le CAP en ayant un caractère plus théorique et moins pratique. Préparé en deux ans après la classe de troisième, il relevait d’une conception plus scolaire de la qualification ouvrière face aux exigences techniques de l’industrie et du commerce modernes.
À lire aussi : Lycée : surmonter les clichés sur la voie professionnelle
Le baccalauréat professionnel, institué en 1985, parachève cette évolution. Selon Jean-Pierre Chevènement, le ministre de l’éducation nationale, il s’agit en premier lieu de répondre aux besoins de la modernisation du pays en formant des « ouvriers » de plus en plus qualifiés, « souvent au niveau du baccalauréat, quelquefois à un niveau supérieur encore »(28 mai 1985).
Quand le bac s’est-il vraiment démocratisé ?
Le taux de titulaires d’un baccalauréat dans une classe d’âge donnée a été longtemps très restreint ce qui induit qu’il était réservé de fait, sauf exception, aux enfants de milieux socioculturellement favorisés. Il a été de moins de 3 % tout au long de la IIIe République. Et c’est seulement dans les dernières années de cette période que les établissements secondaires publics sont devenus gratuits, alors que c’était déjà le cas pour les établissements primaires publics depuis le début des années 1880.
Il y a eu alors un petit desserrage dans la sélection sociale, concomitant avec la montée du taux de titulaires du baccalauréat dans une classe d’âge. Mais la grande période de l’envolée du taux de bacheliers généraux se situe dans la période gaullienne : on passe de 10 % à 20 % de 1959 à 1969. Il reste à peu près à cet étiage durant presque vingt ans.
Mais un autre baccalauréat est créé en 1970 : le « baccalauréat technologique ». Il va apporter un taux supplémentaire de titulaires d’un baccalauréat dans une classe d’âge : autour de 16 % – un taux qui reste quasiment constant depuis 1989. Les élèves des lycées technologiques sont d’origines socioculturelles plutôt modestes, et leurs destinations scolaires ou sociales aussi.
En 1985, une troisième couche apparaît : le « baccalauréat professionnel ». Le 8 octobre 1985, le ministre Jean-Pierre Chevènement précise qu’il s’agit « d’offrir, à l’issue de la classe de troisième, trois voies d’égale dignité » :
la voie générale, dans laquelle « peuvent s’engager ceux qui ont les capacités de poursuivre des études aux niveaux les plus élevés de l’Université » ;
la voie technologique, « qui conduira la majorité des jeunes qui s’y engagent vers un niveau de technicien supérieur » ;
la « voie professionnelle, qui assure, après l’obtention d’une qualification de niveau V, une possibilité de poursuivre la formation jusqu’au niveau du baccalauréat et même vers un niveau plus élevé ».
Il y a donc l’affirmation par le titre de baccalauréat d’une égalité de dignité, mais non d’un égalité de parcours – même si l’obtention du baccalauréat permet juridiquement l’entrée à l’Université. Entre 1987 et 2008, le taux de bacheliers professionnel dans une classe d’âge atteint 12 %, puis passe de 12 % en 2008 à 24 % en 2012 (en raison d’un changement de curriculum). Il se stabilise ensuite autour de 21 %.
Par ailleurs, dans le cadre de l’horizon annoncé par Jean-Pierre Chevènement de « 80 % d’une classe d’âge au niveau bac en l’an 2000 », on a une nouvelle accélération du taux de titulaires d’un baccalauréat général dans une classe d’âge qui passe de 22 % en 1987 à 37 % en 1995. Ces dernières années, il atteint 43 %.

Claude Lelièvre ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
03.06.2025 à 16:35
Covid-19 : de nouvelles molécules anticoronavirus isolées à partir de l’argousier
Texte intégral (2650 mots)

L’arsenal pharmaceutique dont nous disposons pour combattre les coronavirus demeure très limité. En raison de la grande diversité des composés qu’elles produisent, les plantes pourraient s’avérer de précieuses alliées pour l’étoffer. Y compris les plus communes d’entre elles : des composés anticoronavirus ont en effet été découverts dans l’argousier, un arbuste épineux qui peuple nos rivages.
Cinq ans après l’émergence du SARS-CoV-2, responsable de la pandémie de Covid-19, très peu de molécules antivirales efficaces contre ce coronavirus sont disponibles pour soigner les patients. Malgré les efforts des équipes de recherche académique et pharmaceutiques à travers le monde, le repositionnement des médicaments existants n’a pas donné les résultats escomptés.
Même si la pandémie est désormais considérée comme terminée, et que les vaccins permettent de protéger les personnes les plus à risque de faire des formes sévères, il demeure important de poursuivre les recherches. En effet, les spécialistes s’accordent sur le fait que l’émergence d’autres coronavirus hautement virulents se produira dans le futur.
La poursuite des efforts pour identifier des molécules actives contre cette famille de virus s’impose donc, notamment parce qu’il est particulièrement difficile d’anticiper l’apparition de ces nouveaux épisodes infectieux.
C’est précisément l’objet des recherches que nous menons en collaboration depuis plusieurs années au sein de nos équipes respectives. Nos travaux ont pour but de diversifier les sources de molécules antivirales, d’identifier de nouvelles cibles virales ou cellulaires, ou de découvrir de nouveaux mécanismes d’action.
Ils nous ont permis d’identifier un composé anticoronavirus prometteur à partir d’une plante commune, l’argousier (Hippophae Rhamnoides L., Elaegnaceae). Si ces travaux sont encore préliminaires, ils démontrent l’intérêt d’explorer le potentiel antiviral des molécules présentes dans les végétaux.
Peu de molécules efficaces contre les coronavirus
Les coronavirus humains se divisent en deux groupes : les coronavirus « peu virulents », responsables de simples rhumes (tels que HCoV-229E, HCoV-HKU-1, ou HCoV-NL63, par exemple), et les coronavirus « hautement virulents ». On trouve parmi ces derniers non seulement le SARS-CoV-2, responsable de la pandémie de Covid-19, mais aussi le SARS-CoV-1, à l’origine en 2003 d’une épidémie qui avait contaminé plus de 8 000 personnes et entraîné près de 800 décès, ou encore le MERS-CoV, qui circule au Moyen-Orient.
Cinq ans après l’apparition du SARS-CoV-2, et malgré un effort international colossal en matière de recherche de molécules efficaces contre cet agent infectieux, un seul antiviral par voie orale est disponible sur le marché français, le Paxlovid. Celui-ci est basé sur l’association de deux composés : le nirmatrelvir, qui inhibe une enzyme nécessaire à la réplication du coronavirus SARS-CoV-2, et le ritonavir, un second inhibiteur d’enzyme qui permet, dans ce contexte, d’augmenter les concentrations sanguines du nirmatrelvir.
Un autre antiviral, le remdesivir, qui inhibe la polymérase virale (autre enzyme indispensable au virus pour se reproduire), est également disponible, mais par voie intraveineuse et seulement pour certains patients.
Cet arsenal limité souligne à quel point il est compliqué de mettre au point des molécules spécifiques dans des délais courts. La recherche d’antiviraux est un processus de longue haleine.
Les plantes, une réserve de substances actives à préserver
Les plantes représenteraient la seconde plus grande source de biodiversité de notre planète : on estime en effet que le nombre d’espèces végétales est compris entre 300 000 et 500 000. Parmi elles, de 20 000 à 50 000 sont employées en médecine traditionnelle.
Chaque plante a sa propre identité « phytochimique » : elle produit plusieurs centaines de composés dont les structures sont souvent uniques et complexes. Les végétaux constituent donc un réservoir majeur de molécules ayant potentiellement des activités biologiques très différentes les unes des autres.
De nombreux médicaments couramment utilisés à travers le monde s’appuient sur des principes actifs d’origine végétale. Ces derniers peuvent être utilisés après avoir été directement extraits de la plante, comme la morphine, extraite du pavot. Ils peuvent aussi être légèrement modifiés par réaction chimique, comme dans le cas du taxol (un anticancéreux obtenu par hémisynthèse, processus consistant à fabriquer une molécule à partir de composés naturels dont la structure chimique est déjà proche du composé souhaité) à partir d’un précurseur isolé de l’if européen ou des dérivés hémisynthétiques de l’artémisinine, une molécule à activité antipaludique extraite de l’armoise annuelle.
Cependant, à l’heure actuelle, seuls 15 à 20 % des plantes terrestres ont été évaluées pour leur potentiel pharmaceutique. En outre, jusqu’à présent, les molécules d’origine végétale ont été très peu étudiées par les scientifiques recherchant des antiviraux, qu’ils soient dirigés contre les coronavirus ou d’autres familles de virus.
En raison de leur grande diversité et des nombreuses molécules qu’elles produisent, les plantes constituent pourtant une source potentielle d’agents antiviraux très intéressante, pouvant être utilisés tels quels ou légèrement modifiés. Les composés produits par les plantes peuvent aussi inspirer la conception d’antiviraux obtenus par synthèse totale (autrement dit fabriqués entièrement artificiellement). Mais avant d’en arriver là, encore faut-il réussir à identifier les molécules actives, ce qui n’est pas une mince affaire.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Des milliers de molécules à séparer
Identifier une molécule biologiquement active à partir d’organismes vivants n’est pas simple, en raison du très grand nombre de composés qui constituent ces derniers. Cela requiert de passer par un « fractionnement bioguidé » : il s’agit de tester l’activité biologique à chaque étape du processus de séparation des composés (fractionnement). Ce fractionnement peut être accéléré en combinant des approches analytiques et statistiques.
Concrètement, lorsque l’on cherche à identifier un composé actif dans un végétal, la plante concernée est d’abord broyée et mise en contact avec des solvants (eau, éthanol, solvants organiques…). Les filtrats récupérés (appelés « extraits ») sont ensuite séchés. Ils contiennent des centaines, voire des milliers de molécules.
Ces extraits sont ensuite testés sur différents modèles (comme des cultures de bactéries, de champignons, de virus, de cellules tumorales, etc) afin de détecter une activité biologique (on parle de « criblage »).
S’il s’avère qu’un extrait présente un effet, il va subir plusieurs étapes de purification successives, par des techniques dites de chromatographie préparative. Le but est de séparer les nombreux composés différents qu’il contient pour ne garder que celui (ou ceux) responsable(s) de l’activité.
À chaque étape, du début à la fin de ce processus, les nouveaux extraits produits (on parle de « fractions ») à partir de l’extrait précédent sont testés, afin de suivre l’activité biologique. La phase ultime de ce « fractionnement bioguidé » est d’obtenir une molécule active purifiée dont on pourra déterminer la structure par des techniques spectroscopiques.
Le potentiel antiviral des plantes adaptées à des conditions extrêmes
Nos deux équipes s’intéressent depuis plusieurs années aux plantes extrêmophiles, qui, comme leur nom l’indique, vivent dans des conditions extrêmes. Ces espèces végétales doivent, en partie, leur capacité à survivre dans des milieux difficiles à des molécules spécifiques qui leur permettent de s’y adapter. Nous avons étudié en particulier les plantes halophytes, autrement dit poussant sur des sols qui contiennent des teneurs en sel très élevées.
En 2019, nos travaux ont permis d’identifier un agent antiviral d’origine naturelle, actif contre la réplication du virus de l’hépatite C, nommé dehydrojuncusol ; ce composé phénanthrénique a été découvert dans le rhizome de jonc de mer (Juncus maritimus Lam.) suite au criblage d’une quinzaine d’extraits de plantes halophytes et à un fractionnement bioguidé. Le déhydrojuncusol possède un mécanisme d’action similaire à celui de médicaments efficaces utilisés dans le traitement de l’hépatite C en inhibant une protéine du virus nécessaire à sa réplication.
Cette étude in vitro était la preuve que les plantes halophytes pouvaient contenir des antiviraux puissants aux mécanismes d’action similaires à ceux issus de la chimie de synthèse.
Dans la continuité de ces travaux, vingt-deux plantes strictement halophytes ou tolérantes au sel ont ensuite été collectées sur le littoral des Hauts-de-France, en partenariat avec les gestionnaires de ses sites naturels, dans le but cette fois de rechercher une activité contre les coronavirus humains.
L’argousier, une source d’inspiration d’agents antiviraux ?
Les extraits réalisés à partir de ces vingt-deux nouvelles plantes, parmi lesquelles la salicorne, la criste marine, la matricaire maritime, l’argousier, l’euphorbe maritime, l’oyat, ou encore le saule des dunes, ont été testés contre le coronavirus HCoV-229E, responsables de rhumes bénins.
Ceux qui se sont révélés les plus actifs ont ensuite été testés contre le coronavirus SARS-CoV-2, responsable de la Covid-19. Le but de ces recherches était en effet d’identifier des antiviraux capables de traiter plusieurs coronavirus humains.
Le meilleur candidat s’est avéré être un extrait d’argousier. Cette plante indigène, relativement tolérante au sel et à caractère envahissant, pousse dans les massifs dunaires de la région des Hauts-de-France.
Après un fractionnement bioguidé, des composés actifs ont pu être isolés et identifiés. Les plus prometteurs se sont avérés capables d’inhiber (in vitro) non seulement l’infection par le SARS-CoV-2, mais aussi par le HCoV-229E.
Quelle suite à ces travaux ?
Ces travaux ont permis de démontrer, au laboratoire, l’intérêt de molécules d’origine végétale dans la lutte contre les maladies humaines d’origine virale. Ils ne constituent cependant que l’étape préliminaire dans le long parcours semé d’embûches qui mène à la mise au point de nouveaux médicaments.
Après cette première étape de mise en évidence de molécules d’intérêt réussie, il faut ensuite poursuivre les essais, en passant notamment à des essais précliniques, autrement dit, sur des cellules humaines primaires isolées de biopsie de patients ou sur des animaux de laboratoire.
Si les résultats sont concluants, viendront ensuite les premières administrations chez l’humain, en général sur un petit nombre de volontaires sains (essais cliniques de phase I). La phase suivante (phase II) consiste à administrer le médicament à un plus grand nombre de patients afin de tester son efficacité, sa posologie et son devenir dans l’organisme (pharmacodynamique). Les essais de phase III portent sur un nombre encore plus grand de participants. Il faudra également les tester in vitro sur d’autres membres de la famille des coronavirus humains, tels que le MERS-CoV.
Toutes ces étapes nécessitent d’importants financements. Lorsqu’il s’agit d’identifier de nouveaux « candidats médicaments » (« drug candidate » en anglais), la finalisation de la recherche préclinique puis le passage en clinique reste le maillon faible, en raison du manque de moyens.
Il est cependant urgent aujourd’hui de trouver les moyens d’amener ces molécules d’intérêt à un stade plus avancé. En effet, dans l’optique de se préparer à une prochaine épidémie ou pandémie de coronavirus humains, disposer de médicaments actifs contre l’ensemble des coronavirus serait un atout majeur.
Rappelons qu’il faut en moyenne quinze ans pour qu’une molécule présentant un intérêt arrive sur le marché, et que le taux d’échec est très important (plus de la moitié des molécules qui arrivent en phase III échouent…). Il n’y a donc pas de temps à perdre. Actuellement, nos équipes continuent à chercher des composés antiviraux dans d’autres collections de plantes.
Nos travaux soulignent aussi que la découverte de molécules bioactives est très étroitement liée à la biodiversité végétale. La problématique de la dégradation des milieux naturels, qui s’est accentuée ces dernières décennies, doit donc être prise en considération dans le cadre des programmes de recherche qui ciblent le potentiel biologique des molécules d’origine naturelle.
Les autrices tiennent à remercier Malak Al Ibrahim, doctorante sur le projet (2021-2024, programme HaloHcoV PEARL), le Dr Gabriel Lefèvre (pour la sélection, la collecte et l’identification des différentes plantes testées), les gestionnaires de sites qui ont participé aux échanges et partagé leurs connaissances, ainsi que l’ensemble des membres des équipes de recherche.

Céline Rivière est membre de sociétés savantes (Association Francophone pour l'Enseignement et la Recherche en Pharmacognosie, Phytochemical Society of Europe). Elle est aussi experte pour l'ANSES. Elle a reçu des financements de la Région Hauts-de-France, de l'Union Européenne "Horizon 2020 Research and Innovation program" et I-Site ULNE (PEARL programme) et de l'ANR.
Karin Séron a reçu des financements de la Région Hauts-de-France, de l'Union Européenne "Horizon 2020 Research and Innovation program" et I-Site ULNE (PEARL programme) et de l'ANR.
03.06.2025 à 16:34
Niches socio-fiscales : comment faire le tri ?
Texte intégral (2237 mots)
Comment gouverner un pays qui possède 471 dépenses fiscales, pourrait s’exclamer en le paraphrasant le successeur du général de Gaulle ? Alors que pour réduire le déficit et donc la dette de la France, il faudrait voter 40 milliards d’économies, l’ensemble des niches socio-fiscales représenteraient un manque à gagner de 83 milliards d’euros par an.
Mais comment faire le ménage dans des niches réputées bien gardées ? Bonne nouvelle : la tâche peut être accomplie sans peser sur l’économie, à condition de définir au préalable une méthode rationnelle de tri des bonnes et des mauvaises niches.
La dérive du déficit public, encore attendu en 2025 à 5,4 % du PIB à peine plus bas qu’en 2024 (5,8 %) rappelle au pays qu’il est désormais l’homme malade de la zone euro et contraint le gouvernement à chercher 40 milliards d’euros en 2026 pour le ramener à 4,6 % l’an prochain.
Dans ce contexte, Bercy reprend une antienne de ses prédécesseurs : la chasse aux dépenses fiscales. Le gisement est important puisque les 471 niches recensées représenteraient selon le gouvernement un manque à gagner de l’ordre de 83 milliards par an, soit 25 % des recettes budgétaires ou 2,8 % du PIB. En ajoutant les exonérations de cotisations sociales, estimées dans le projet de loi de financement de la Sécurité sociale pour 2025 à 91 milliards, la perte de recettes théorique sur l’ensemble des prélèvements obligatoires serait donc de 174 milliards soit très exactement la totalité du déficit public…
L’univers des dépenses socio-fiscales en 2025
Dans notre thèse consacrée aux dépenses socio-fiscales, nous les qualifions ainsi :
À lire aussi : La tronçonneuse de Buenos Aires et le DOGE de Washington : vague d’austérité sur le continent américain
Concrètement, tout comme leur évaluation qui doit tenir compte de la réaction des contribuables devant la fin d’une carotte fiscale, le périmètre des niches socio-fiscales est particulièrement difficile à tracer. À titre d’exemple doit-on suivre le gouvernement qui a déclassé certains taux réduits de TVA en simples modalités d’imposition et divisé par deux leur coût alors que ces différents taux avantageux pour les consommateurs représentent un manque à gagner pour les finances publiques de plus de 50 milliards par an.
Des méthodes globales inefficaces
Pour réduire le coût de ces avantages fiscaux, les méthodes dites globales ont montré leur inefficacité. Ainsi le plafonnement général en valeur absolue des seules niches fiscales instauré par les lois de programmation des finances publiques de 2012-2017 puis 2014-2019 a toujours été dépassé du fait de l’impossibilité juridique de restreindre le droit d’amendement des parlementaires au cours de l’examen des lois de finances.
Limité au seul impôt sur le revenu, le plafonnement des niches actuellement de 10 000 euros par foyer a été instauré sous la présidence de François Hollande au 1ᵉʳ janvier 2013. Il est lui-même mité de nombreuses exceptions et son rendement s’avère modeste puisque le supplément d’impôt collecté s’élève à environ 50 millions par an. Plus efficace serait la généralisation aux foyers imposables de la contribution différentielle (qui s’ajoute donc à la contribution exceptionnelle de 2011) sur les hauts revenus (sur le modèle de L’Alternative Minimum Tax américaine datant de 1969) et qui contraint depuis cette année les contribuables les plus aisées à payer au moins 20 % d’IR.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Trois types de mesures suggérées ou déjà appliquées dans le passé sont également à proscrire car elles agissent de manière indifférenciée sur des niches utiles. Il s’agit du rabot, de la règle du gage qui implique la suppression d’une mesure pour toute nouvelle création ou de la suppression d’office de niches à coût faible préconisée par la ministre chargée des comptes publics qui n’aurait qu’un impact marginal sur les finances publiques tout en détruisant des mesures utiles pour la sauvegarde d’un écosystème social, économique ou environnemental rare voire unique. Parmi les propositions globales, seule l’instauration d’une sunset clause, courante dans les pays anglo-saxons, qui conditionne le maintien d’une mesure à l’évaluation de son efficacité est pertinente. Encore faudrait-il commencer à chiffrer la cinquantaine de niches toujours non évaluées.
Une analyse individuelle et analytique
Notre théorie générale des dépenses socio-fiscales propose une méthode rationnelle de gestion de ces dispositifs fondée sur une série de cinq filtres successifs interrogeant d’abord leur légitimité (ainsi l’ancienneté d’une niche n’est jamais un critère pertinent de conservation d’une niche et l’effet d’aubaine est toujours un critère d’élimination), leur utilité (économique, sociale, écologique, etc.), leur pertinence (le dispositif bénéficie-t-il aux contribuables ou est-il capté par des intermédiaires ?), leur efficacité (en prenant en compte tous les coûts y compris ceux de gestion du fisc) ainsi que leur substituabilité (est-il possible de remplacer la mesure par une simple subvention moins coûteuse ?).
Pour mettre en œuvre les résultats, il faut encore franchir un sixième et ultime filtre à savoir l’acceptabilité sociale de la disparition de la mesure, une question éminemment politique.
Les niches illégitimes à supprimer
L’intégralité des niches dites brunes qui subventionnent les gaz à effet de serre et autres produits toxiques, dont le coût est au bas mot de 7 milliards d’euros, sont évidemment à supprimer, encore faut-il prévoir des mesures d’accompagnement pour les secteurs qui seraient lourdement touchés comme l’agriculture, la pêche ou les transports. L’abattement de 10 % sur les pensions, plafonné à 4 321 euros par foyer en 2024, est la deuxième niche fiscale la plus coûteuse à près de 5 milliards. Créée en 1977 pour compenser le fait que les pensions étaient parfaitement connues du fisc, ce qui interdisait toute fraude elle n’a désormais plus aucune justification d’autant qu’elle est par nature inéquitable, car régressive puisque ne profitant qu’aux foyers imposables.
Les taux réduits de TVA de 10 % sur les travaux (quatrième niche coûteuse), ou dans les DOM (huitième niche) et l’exonération d’IR des heures supplémentaires ou sur les pourboires (neuvième niche) coûtent chacun environ 2 milliards et ne semblent ni légitimes ni utiles. Il en est de même des nombreux avantages fiscaux liés à l’épargne (intéressement, assurance-vie…), mal évalués mais supérieurs à 6 milliards d’euros.
Dans ce dernier cas, la perte de cotisations sociales en fait en outre des niches sociales coûteuses. Enfin, l’alignement du taux de CSG des retraités les plus favorisés limité à 8,3 % contre 9,2 % pour les smicards est une évidente mesure d’équité sociale. D’ailleurs les multiples exonérations et taux réduits de CSG sur les retraites de base et les allocations chômage sont estimés à 4,3 milliards en 2019.
Des niches à aménager
Si la fiscalité des dons aux associations contribue au dynamisme d’un secteur mêlant bénévoles et salariés et doit être maintenue, il serait juste de transformer la réduction d’impôt au titre des dons aux associations (qui pèse près de 2 milliards d’euros par an) en un véritable crédit d’impôt, permettant ainsi à tous les donateurs, même les plus modestes, de bénéficier d’un avantage fiscal actuellement réservé, de manière inique, aux seuls contribuables dont les revenus dépassent le seuil effectif d’imposition.
Dans le même esprit, la demi-part supplémentaire accordée aux contribuables de plus de 74 ans titulaires de la carte du combattant bénéficiant à plus de 800 000 ménages et coûtant 480 millions d’euros devrait être remplacée, à coût constant, par un versement per capita à tous les anciens combattants.
Des niches économiquement ou socialement utiles
Trois des plus importantes dépenses socio-fiscales sont économiquement utiles et doivent être conservées après ajustements pour éviter les effets d’aubaine. La première, d’un coût de l’ordre de 80 milliards, est l’allégement massif des cotisations patronales initié en 1993 pour atténuer le poids des cotisations des entreprises, le plus élevé au monde, et qui a permis le maintien de millions d’emplois.
La seconde est le crédit d’impôt en faveur de la recherche, la plus coûteuse des dépenses fiscales (7,8 milliards en 2025), qui contribue puissamment à l’attractivité fiscale du pays en facilitant la création d’un écosystème de recherche appliquée très favorable à l’innovation. La troisième est le crédit d’impôt de 50 % des charges salariales (plafonnées à 12 000 euros par an) pour emploi d’un salarié à domicile pour un coût de 6,8 milliards d’euros par an en 2025 qui n’est probablement pas une véritable dépense fiscale mais plutôt une mesure de simplification traitant les ménages comme n’importe quelle microentreprise dont les charges doivent logiquement s’imputer sur leur revenu. Elle est dans tous les cas légitime au nom de la création d’emploi et de la lutte contre le travail au noir.
Quelle majorité pour voter ?
Les présentes recommandations aboutiraient à une économie budgétaire de 20 à 25 milliards d’euros par an mais se traduiraient par une nouvelle hausse des prélèvements obligatoires déjà les plus élevés de l’OCDE. En toute logique il faudrait les alléger d’un montant équivalent mais la dérive persistante des comptes publics rend cette hypothèse hautement improbable tout comme… leur adoption par l’Assemblée nationale. Dans ces conditions, on voit mal comment le pays pourra éviter les injonctions du FMI.

Éric Pichet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.