25.02.2026 à 16:40
Maria Elena Buslacchi, socio-anthropologue, chercheuse post-doc à L'Observatoire des publics et pratiques de la culture, MESOPOLHIS UMR 7064, Sciences Po / CNRS / Aix-Marseille Université, Aix-Marseille Université (AMU)

This year the cities of Trenčín in Slovakia and Oulu in Finland took the helm as Europe’s cultural beacon cities. As the Old Continent redefines its role on the global geopolitical stage, the European Capitals of Culture (ECoC) programme is at a turning point. The European Commission recently launched a public forum initiative to collectively rethink the future of the programme after 2033. ECoC’s role as a tool for cultural diplomacy is now more important than ever.
Created in 1985 against a backdrop of thawing Cold war tensions and the political construction of the European Union project, the European Capital of Culture initiative was initially designed to celebrate the continent’s cultural diversity. Since then, it has become a laboratory for contemporary policies, but also a barometer of the hopes, contradictions and challenges of Europe itself.
Historical context is key to understanding the launch of the European Capitals of Culture: the end of the Cold War, in a divided Europe where the Iron Curtain was beginning to crumble and the European Economic Community (EEC) was gradually expanding. The programme came about, incidentally, thanks to a chance conversation at an airport between two prominent politicians: Jack Lang, who was France’s Minister for Culture Culture at the time, and Melina Mercouri, an activist actress who was then Greece’s Secretary of State for Culture.
Both had an ambitious vision: to use culture as a vehicle for unity, even though it seemed an overlooked aspect of European policy, as Monica Sassatelli, a sociologist at the University of Bologna, points out in her study on the role of culture in the historiography of European politics. The first cities which were chosen – Athens, Florence, Amsterdam, then Paris translates an aspiration for awarding the future European Union symbolic legitimacy. These historical capitals, as beacons of artistic and intellectual heritage, embody Europe’s arts, creativity and traditions, which transcend political and economic division.
Next up was Glasgow (Scotland, UK). A declining industrial city marked by deindustrialisation and endemic unemployment, Glasgow City Council developed a strategy to revitalise the city centre in the late 1980s, aiming to mark a symbolic turning point and pave the way for its title as European Capital of Culture in 1990.
The promotional campaign “Glasgow’s Miles Better” pioneered the mix of former warehouses and culture, with the aim of revamping certain key cultural institutions (Scottish Opera, Ballet and Orchestra, BBC Symphony Orchestra, Citizen Theatre) and creating a new exhibition centre capable of hosting local and international artists and events. The Scottish city’s Arts Director Robert Palmer, future author of the first report on the initiative in 2004, considered the 1990 event as the starting point for a participatory process of redefining local culture “from the bottom up”, which could include artistic excellence as well as historical, rural and industrial traditions, and reconnect with a well-established tradition of popular culture and leisure activities.
Alongside major concerts by Luciano Pavarotti and Frank Sinatra, a whole series of associations and small local collectives took to the stage. In Glasgow, the year 1990 redefined the boundaries of the word “culture”, ultimately embracing the city’s industrial history and allowing its population to identify with it.
According to sociologist Beatriz Garcia, this regenerative effect on images and local identities is the strongest and most lasting legacy of the ECoC, beyond its economic and material impacts. This pioneering case, alongside other contemporary examples such as Bilbao and Barcelona in Spain, serves as a model. In other European cities, industrial premises are being transformed into theatres, museums or festival venues: the “Creative City” attracts millions of visitors and stimulates the local economy. When Lille in Northern France was elected “ECoC 2004”, it unveiled a dozen “maisons folies” across greater Lille and Belgium. These “crucibles of artistic and cultural innovation”, local initiatives cropped up, for the most part, on abandoned sites or former industrial wasteland.
In 2008, Liverpool (England, UK) used the programme to regenerate its waterfront and attract investment. At the turn of the century, the ECoC initiative was no longer limited to promoting cities that were already shining a light on international cultural scene, but became a real tool for urban transformation, used by places that were struggling to economically or socially reinvent and reposition themselves.
This change marks an evolution in urban policy, where culture is increasingly seen as a lever for economic development, on a par with infrastructure and policies designed to attract visitors. European Capitals of Culture are becoming an instrument of this policy, capable of attracting public and private funding, creating jobs in the cultural and tourism sectors, and improving the image of cities that are often stigmatised.
However, this approach has its critics. The first reflective studies conducted in the early 2010s highlight how they can also exacerbate social and spatial inequalities if they are not accompanied by inclusive public policies. In Marseille in the South of France, in 2013, the issue became public with the organisation of an unofficial programme on the sidelines – i.e. parallel and alternative fringe events denouncing the side effects and undesirable consequences of the official programme. While Marseille’s stint as an ECoC was still an expression of the regeneration logic at work in previous years, it also marked the moment when social inclusion emerged as a central issue for these mega-events.
The Europe-wide cultural initiative has always been open to criticism, partly thanks to the very mechanics of the project, which often sees people who played a key role in previous editions of the programme returning to the selection panels for electing new European Capitals of Culture. Their participation, which had been questioned during Marseille-Provence 2013, has thus become an essential part of successive editions – in Matera-Basilicata (Italy) 2019, and citizen involvement will be one of the project’s key themes.
At the end of the 2010s, European Capitals of Culture also became a platform for the major challenges of the 21st century and a space for experimenting with ecological, social and digital transitions. Rijeka, Croatia, European Capital of Culture in 2020, illustrates the evolution. The city, marked by its industrial past and significant migration flows, focuses its programme on issues of migration and minorities, echoing the humanitarian crises affecting Europe. The cultural projects that have been set up: exhibitions, artist residencies, public debates brought together under the slogan ‘Port of Diversity’ – aim to promote intercultural dialogue and question the multiple identities of contemporary Europe. Similarly in the French town Bourges, in the running for 2028, is building its bid around ecological transition. The “Bourges, territory of the future” project is taking on the challenge of carbon neutrality for the event, using the ECoC as a springboard for climate action at the local level.
While the European Capitals of Culture scheme is currently scheduled to run until 2033, the future of the title is under debate. The European Commission has launched a public consultation to imagine tomorrow’s ECoCs, in a context marked by geopolitical and environmental crises. The 2025 European Capitals of Culture, Chemnitz (Germany) and Nova Gorica/Gorizia (Slovenia), have developed a white paper on the future of the cultural initiative, based on observations from 64 past and future European Capitals of Culture. Forty recommendations are proposed to influence the programme reform process in the post-2034 cycle.
Among its key themes, the white paper emphasises the desire to strengthen the European dimension. This could be achieved by introducing a fundamental selection criterion based on European identity, emphasising European values in programming, developing a unified branding strategy and strengthening cross-border cooperation.
The selection and monitoring process, deemed too bureaucratic, is also being called into question, with the main recommendation being to favour encouraging rather than punitive monitoring. The legacy of the event is also up for debate: cities should be held accountable for delivering on the promises made in their bids, and national governments should be more involved in supporting cities during and after their capital year. The dissemination of good practices, peer review and mentoring between former and future ECoCs, which already exist informally, should be recognised and institutionalised, in particular through the possible creation of a central platform supported by the European institutions.
The challenge now is reconciling its symbolic and strategic role, ensuring that future editions do not merely celebrate, but aim to bolster democratic participation and transnational solidarity in an increasingly fragmented geopolitical landscape.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
Maria Elena Buslacchi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
25.02.2026 à 12:48
Kevin Foster, Associate Professor, School of Languages, Literatures, Cultures and Linguistics, Monash University
Frappes de drones, annonces sur les réseaux sociaux, revendications publiques : l’assassinat n’est plus une opération clandestine honteuse mais un message politique. Dans son nouveau livre, l’historien Simon Ball enquête sur la normalisation d’une violence d’État.
En novembre 2012, les Forces de défense israéliennes (FDI) ont utilisé Twitter – comme on l’appelait alors – pour annoncer qu’elles avaient tué Ahmed al-Jabari, chef des Brigades al-Qassam, la branche militaire du Hamas, à Gaza.
Cette annonce, accompagnée d’un lien vers une vidéo pixellisée de la frappe aérienne visant la voiture d’al-Jabari, marquait le début d’une nouvelle incursion des FDI à Gaza. Comme l’ont noté les historiennes Adi Kuntsman et Rebecca L. Stein dans leur livre Digital Militarism, elle a fait de l’opération « Pilier de défense » d’Israël « la première campagne militaire à avoir été déclarée via Twitter ».
Ce qui frappait également dans cette annonce, c’était la fierté et l’audace avec lesquelles les FDI célébraient ce qu’elles avaient fait. À peine une décennie plus tôt, Israël, comme les États-Unis, le Royaume-Uni et les puissances européennes, aurait éludé les questions sur sa responsabilité dans l’attaque ou nié avec ténacité. Les gouvernements n’assassinaient pas des personnes – c’était le fait de fanatiques politiques et d’extrémistes religieux.
Les choses avaient changé. Et profondément. La même année, le président Barack Obama demanda à John Brennan, son conseiller adjoint à la sécurité intérieure et à la lutte contre le terrorisme, de faire une déclaration publique sans ambiguïté sur la politique des États-Unis concernant l’usage de frappes de drones pour cibler des ennemis nommément désignés des États-Unis. Dans un discours au Wilson Center, Brennan déclara :
en totale conformité avec la loi, et afin de prévenir des attaques terroristes contre les États-Unis et de sauver des vies américaines, le gouvernement des États-Unis mène des frappes ciblées contre des terroristes spécifiques d’al-Qaida.
Le fait que les Américains, ainsi qu’un certain nombre de leurs alliés, tuaient – ou tentaient de tuer – leurs ennemis était, observa Brennan, « le secret le moins bien gardé du monde ». Il était temps que la « mascarade » prenne fin, d’appeler les choses par leur nom – ou, plus précisément, d’appeler une mise à mort ciblée un assassinat.
La nouvelle, cette semaine, selon laquelle le dissident russe Alexeï Navalny est mort après avoir prétendument ingéré du poison provenant d’une grenouille sud-américaine alors qu’il était emprisonné dans l’Arctique, rappelle que la Russie possède elle aussi une longue histoire d’assassinats de critiques du régime.
Dans Death to Order : A Modern History of Assassination (non traduit en français), Simon Ball propose une histoire de l’assassinat au cours du dernier siècle environ, fondée sur des recherches minutieuses et d’une lecture particulièrement captivante. Ball est professeur d’histoire et de politique internationales, et ces spécialités structurent l’approche du livre.
En conséquence, son livre s’intéresse moins à l’évolution des armes ou aux changements tactiques nécessaires aux mises à mort ciblées – jusqu’au développement du drone, ceux-ci sont restés en grande partie inchangés pendant plus d’un siècle – qu’à l’assassinat en tant qu’instrument de la politique d’État.
Dans une comparaison particulièrement imagée, Ball affirme que l’étude de l’assassinat « revient à faire glisser une lame de rasoir le long de l’histoire de la politique internationale ». La coupure qui en résulte peut être étroite, mais elle est longue et profonde. Elle révèle « l’exercice réel du pouvoir dans la politique internationale ».
Si nombre des assassinats les plus marquants du siècle dernier – Mahatma Gandhi, John F. Kennedy, Martin Luther King Jr., Robert Kennedy, le Premier ministre suédois Olof Palme – sont évoqués, ils ne constituent pas le cœur de l’ouvrage.
Chacun de ces assassinats a donné lieu à des enquêtes approfondies et souvent prolongées, visant à établir un mobile politique et à identifier la main cachée d’une puissance hostile. Ainsi, l’enquête officielle sur le meurtre de Palme, en février 1986, n’a été close qu’en 2020.
Dans une affaire plus célèbre encore, l’assassinat du président Kennedy à Dallas en novembre 1963, les enquêteurs américains se sont employés avec ténacité à établir une éventuelle implication soviétique, d’abord au sein de la Commission Warren, puis de la Commission spéciale de la Chambre des représentants sur les assassinats, convoquée treize ans après les faits.
Malgré la soif du public et du monde politique pour des révélations de complots dignes de romans d’espionnage, Ball rappelle avec constance qu’aucune preuve n’est venue étayer une telle thèse. Ces assassinats furent le fait d’individus isolés, animés par des vendettas personnelles, des haines intimes ou des troubles psychiques.
Ils ne sont donc pas au cœur de son propos. Les victimes qu’il étudie sont moins des chefs d’État que leurs serviteurs loyaux. Son enquête révèle à quel point proconsuls, diplomates et responsables de la sécurité des grandes puissances étaient exposés aux attaques résolues de leurs adversaires.
Pendant près d’un siècle, les partisans de l’émancipation face à la domination étrangère et à l’oppression économique ont fait exploser des bombes, parfois poignardé, mais le plus souvent abattu à bout portant, à l’arme légère, des représentants des puissances occupantes. Des assassinats ciblés ont eu lieu en Inde, en Irlande, en Algérie, en Malaisie, au Vietnam, en Palestine, en Égypte – bref, dans presque toutes les régions du monde passées sous la coupe d’un empire. La violence a même gagné les capitales des puissances coloniales.
L’une des révélations les plus frappantes du livre tient au temps qu’il fallut aux Britanniques surtout – mais aussi aux Français et aux Américains – pour admettre que la menace pesant sur leurs agents en poste à l’étranger, dans des environnements instables, était démesurément élevée. Pendant des décennies, le prestige impérial interdisait à ses représentants toute manifestation visible d’inquiétude pour leur sécurité personnelle. À Londres, bien après la Seconde Guerre mondiale, on estimait encore qu’une attention excessive portée à la sécurité risquait d’entamer la mystique d’autorité de la puissance dominante et de donner le sentiment d’un aveu de faiblesse.
Sur le terrain, les agents ne partageaient pas cet état d’esprit. Des dizaines d’entre eux furent poignardés ou abattus avant de convaincre leurs ministres de revoir leur position et de mettre en place des dispositifs de protection adéquats.
Si ce tournant se fit tant attendre, c’est que, tout en reconnaissant en privé la menace que des oppositions bien organisées faisaient peser sur leur domination, les gouvernements s’astreignaient publiquement à minimiser la portée d’actes de violence politique présentés comme isolés – ainsi que l’ampleur du soutien dont ces mouvements bénéficiaient parmi les populations occupées ou opprimées.
Le règlement de ces questions, plus larges, de légitimité et d’autorité reposait sur un dialogue prolongé entre les administrations coloniales et les élites politiques émergentes dans les territoires occupés. Il exigeait des négociations minutieuses et des compromis douloureux, impossibles à arracher dans la fournaise d’un soulèvement populaire. D’où la nécessité d’entretenir l’illusion du calme.
Le « script libéral » qui a façonné, pendant une grande partie du XXe siècle, la réponse du gouvernement britannique aux assassinats de ses représentants a pris forme sous le gouvernement de H.H. Asquith (1908-1916). Il s’articulait autour de trois principes essentiels :
1) Il existait des preuves d’un complot organisé visant à commettre des assassinats.
2) Très peu de personnes étaient impliquées dans ce complot.
3) Ce complot était dangereux en raison de la violence de ses méthodes, et non parce qu’il constituait la partie émergée d’un mouvement plus large.
En soutenant que ces meurtres étaient le fait d’un petit nombre de fanatiques – et non l’expression d’une opposition vaste et structurée –, les autorités pouvaient circonscrire, voire étouffer, l’agitation politique. Dans le même temps, les négociations se poursuivaient lentement, à huis clos.
L’assassinat n’a eu aucune influence significative sur le cours, la conduite ou l’issue de la Seconde Guerre mondiale. En revanche, la guerre a profondément transformé l’assassinat en tant qu’outil d’État.
L’action des deux Tchèques qui tuèrent le général nazi Reinhard Heydrich, les multiples tentatives avortées d’assassinat contre Hitler, ou encore le geste de l’aristocrate irlandaise, troublée ou animée de principes inébranlables, Violet Gibson, qui, en avril 1926, tira sur Mussolini au « museau » (« In the snout », selon la formule inimitable de la chanteuse folk Lisa O’Neill) sans parvenir à le tuer, ont offert de nombreux exemples – plus souvent morts que vivants – de ce que l’on a appelé « l’assassin d’honneur ».
Pour ceux attachés à la démocratie libérale, il n’y avait qu’un pas entre la figure du tueur agissant par principe et l’idée que des puissances démocratiques fortes devaient elles aussi se doter de la capacité de procéder à des éliminations ciblées. Il s’agissait de prévenir la montée de l’intolérance en supprimant ses porte-voix, de combattre le feu par le feu.
Dans les années 1950 et 1960, certains gouvernements démocratiques, au premier rang desquels la France et les États-Unis, ont supervisé – ou laissé faire – des assassinats politiques de représailles contre leurs ennemis. Cette pratique a fini par être admise au point que les conflits militaires de grande ampleur en Algérie et au Vietnam ont été menés, pour une part non négligeable, à travers des programmes d’assassinats conduits à l’échelle industrielle.
Les questions d’autorité et de protocole devinrent centrales. Au début des années 1960, la branche spécialisée de la CIA chargée des « opérations exécutives » s’employait à déstabiliser des régimes en Amérique centrale, en organisant et en armant des insurrections, et en appuyant des opérations d’assassinat. D’autres services de l’agence rédigeaient les textes nécessaires – un véritable manuel d’assassinat à l’usage de l’homme de terrain – et définissaient la doctrine encadrant ces activités clandestines. En somme, il s’agissait de décider qui était habilité à autoriser un assassinat.
À mesure que cette responsabilité remontait progressivement jusqu’au bureau du président, l’assassinat s’imposa comme un instrument explosif de l’art de gouverner – un outil susceptible de faire voler en éclats la façade du gouvernement en place et de mettre en cause son discours sur la défense des principes démocratiques.
Au fil des années 1970 et jusque dans les années 1980, les troubles en Irlande du Nord se sont progressivement étendus au territoire britannique. À mesure que le conflit gagnait le continent, les efforts du gouvernement pour maintenir le scénario « asquithien » se sont effondrés. L’idée implicite selon laquelle un certain niveau d’assassinats constituait le prix à payer pour exercer le pouvoir dans une société libérale, ouverte et démocratique n’était plus tenable.
À mesure que les attaques de l’IRA contre l’élite politique britannique devenaient plus sophistiquées, plus ciblées et plus meurtrières, un tournant décisif s’est opéré dans les cercles dirigeants en matière de sécurité. En 1982, la « Protection » est devenue un commandement permanent au sein de la Metropolitan Police, la police de Londres.
Alors que des débouchés lucratifs s’ouvraient pour d’anciens membres des forces spéciales dans les nouvelles industries de la sécurité, les chercheurs américains en matière de défense continuaient d’affiner les capacités permettant de frapper des ennemis avec une précision accrue, à des distances toujours plus grandes.
Avec l’entrée en service des premiers drones armés, l’administration de George W. Bush a redéfini la notion d’assassinat afin d’en exclure les frappes « défensives » préventives visant des individus nommément désignés et considérés comme une menace pour les États-Unis ou leurs personnels. De là, il n’y eut qu’un pas vers le recours massif aux assassinats ciblés en Asie centrale, au Moyen-Orient et en Afrique de l’Ouest.
Alors que d’anciens membres des forces spéciales trouvaient des débouchés très rémunérateurs dans les nouvelles entreprises privées de sécurité, les chercheurs américains travaillant pour la défense perfectionnaient, eux, des technologies permettant de viser leurs ennemis avec une précision croissante, à des distances toujours plus grandes.
Avec l’entrée en service des premiers drones armés, l’administration de George W. Bush a redéfini la notion d’assassinat afin d’en exclure les frappes « défensives » préventives visant des individus nommément désignés et considérés comme une menace pour les États-Unis ou leurs personnels. De là, il n’y eut qu’un pas vers le recours massif aux assassinats ciblés en Asie centrale, au Moyen-Orient et en Afrique de l’Ouest.
En 2007, l’armée américaine disposait de 24 drones dédiés aux opérations d’élimination ciblée. Deux ans plus tard, ce chiffre atteignait 180 appareils, dotés d’une capacité d’emport quinze fois supérieure à celle des modèles précédents. En 2025, le département américain de la Défense – récemment rebaptisé « département de la Guerre » – comptait plus de 11 000 aéronefs sans pilote dans son arsenal. Tous ne sont pas destinés à des missions d’élimination, certes. Mais les ordres de grandeur parlent d’eux-mêmes.
Autrefois arme privilégiée des combattants de la liberté, des mouvements d’indépendance et de leurs branches insurrectionnelles, l’assassinat est devenu aujourd’hui un instrument assumé de l’État et une composante à part entière de l’arsenal de ses forces armées.
Death to Order regorge d’épisodes saisissants et d’anecdotes frappantes – notamment celle d’une jeune Elizabeth II s’étonnant que personne n’ait glissé quelque chose dans le café du turbulent dirigeant nationaliste égyptien, le général Gamal Abdel Nasser.
Mais l’apport le plus marquant de l’ouvrage de Ball tient sans doute à la manière dont il retrace avec précision la sortie progressive de l’assassinat des coulisses du secret gouvernemental et militaire pour son exposition en pleine lumière, au cœur de la communication et de la propagande.
Depuis les attentats du 11 septembre 2001 – et plus encore au cours de la dernière décennie – la mise en scène de l’assassinat comme symbole concentré de la puissance étatique et de sa volonté implacable est devenue un puissant instrument de dissuasion contre toute opposition active, ainsi qu’un levier majeur de guerre informationnelle.
Doté d’un pouvoir de surveillance quasi divin, de son œil omniscient dans le ciel, le drone sait ce que vous avez fait et où vous vous trouvez. Nul n’échappe à sa vengeance. Les ides de mars sont là.
Kevin Foster ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
25.02.2026 à 12:44
Sébastien-Akira Alix, Professeur des universités en sciences de l'éducation et de la formation, Université Paris-Est Créteil Val de Marne (UPEC)
Les difficultés à recruter des enseignants reviennent régulièrement dans l’actualité. Mais sont-elles si récentes ? Autour de quels enjeux s’articulent-elles ? Publié en février 2026 aux Presses du Septentrion, sous la coordination de Sébastien-Akira Alix, l’ouvrage Crises dans et hors l’école en France. Éclairages socio-historiques (des années 1960 à nos jours) nous aide à replacer dans une perspective historique le sujet, ainsi que d’autres questions comme la « baisse du niveau » des élèves, la dilution de l’autorité, les violences scolaires. Les analyses qui suivent sont extraites de l’introduction de l’ouvrage.
D’une manière générale, les recherches sur l’histoire de l’enseignement en France interdisent de penser que ce qu’on appelle communément dans le débat public « la crise des vocations enseignantes », « la crise d’attractivité des métiers de l’enseignement » ou « la crise du recrutement des enseignants » serait un phénomène d’origine récente et le signe d’un malaise propre au XXIe siècle. À cet égard, dans son ouvrage la Formation des maîtres en France, 1792-1914, l’historien Marcel Grandière a bien mis en lumière les importantes difficultés de recrutement que rencontrent les écoles normales primaires en France à partir de 1887, période pourtant souvent présentée dans le débat public comme un « âge d’or » de l’École sous la IIIe République.
À l’époque, ces écoles normales primaires, en charge de la formation des instituteurs et des institutrices du primaire, connaissent une baisse notable d’admissions alors que de nombreuses places sont disponibles et que les besoins de recrutement demeurent importants. Pour pallier ce manque, « les inspecteurs d’académie puisent largement dans le vivier des brevetés, sans formation ». Cette situation s’inscrit, à l’époque, dans la durée puisqu’en 1911, « une moyenne de 2 500 instituteurs et 3 200 institutrices sont recrutés chaque année, sur lesquels les normaliens ne comptent que pour 1 500, et les normaliennes 1 800. Les moyens manquent pour faire mieux ». Dans ce contexte spécifique, la crise devient, d’après Marcel Grandière, un problème public :
« Car, pour ajouter à la difficulté, les écoles normales souffrent, à partir de 1888, d’une sensible et durable crise des vocations. À partir de 1890 surtout, les revues spécialisées, puis la presse, s’en émeuvent : la crise du recrutement devient un problème public. À la chambre des députés, on parle de “péril primaire” en évoquant la difficulté du recrutement : “Le nombre de candidats à ces écoles normales, qui était inférieur de beaucoup à ce qu’il était antérieurement, s’est à peine relevé, si bien que la sélection n’a pu opérer comme on était en droit de le penser, et qu’on peut craindre que l’avenir ne révèle entre ces dernières promotions et celles qui les ont précédées une différence marquée. […] Il y a là pour l’avenir de nos écoles publiques un danger qui constitue ce qu’on a appelé le péril primaire.” »
À l’époque, cette baisse sensible du nombre de candidats – il y en avait 6 000 en 1882 contre 2 848 en 1888 – s’explique, en partie, par des raisons économiques, la loi du 19 juillet 1889 n’ayant « pas donné aux instituteurs les améliorations de revenus qu’ils attendaient depuis longtemps ».
À lire aussi : Le boom des profs non titulaires, un tournant pour l’Éducation nationale ?
D’autres travaux, comme ceux de Frédéric Charles sur les instituteurs entre 1955 et 1984, ont cherché à expliquer, à partir de « l’étude de l’évolution et des transformations du recrutement des normaliens et normaliennes des deux Écoles normales de Paris », la crise de recrutement que connaît l’enseignement primaire français au début des années 1980, en particulier en 1986, année où « l’Éducation nationale n’a pas réussi à recruter tous les instituteurs dont elle avait besoin : sur 5 000 postes, seulement 4 700 furent pourvus ». D’après Frédéric Charles, cette crise est alors liée à la dévalorisation du statut social des enseignants du primaire – ressentie fortement par les jeunes instituteurs – dans le contexte de la démocratisation quantitative du système éducatif, qui fait perdre à l’école primaire sa place centrale. Au cours de ces années, le métier d’instituteur fait, en effet, l’objet d’un processus de dévaluation lié « aux effets des réformes de 1959 qui […] situent désormais l’enseignement primaire comme une simple étape du cursus scolaire » ainsi qu’à la transformation corrélative des « dispositions des candidats, [et de] leurs rapports à l’institution ».
Sous l’effet de l’allongement de la scolarité obligatoire, la valeur distinctive du niveau de diplôme des enseignants est fortement relativisée, contribuant à une perte de prestige du métier : l’instituteur voit désormais « sa fonction se banaliser et sa reconnaissance sociale décroître ». Le métier cesse ainsi progressivement d’être une voie de promotion sociale pour les candidats, en particulier à partir de 1973, date à laquelle le recrutement en école normale ne se fait plus qu’après le baccalauréat. La composition sociale des écoles normales et le rapport que les élèves entretiennent à son égard s’en trouvent modifiés : « Faute d’avoir réussi dans l’entreprise de leurs études supérieures à l’Université, mais surtout d’avoir pu accéder à une grande école ou à l’École normale supérieure », une partie des normaliens « ont été amenés alors, pour éviter un déclassement social, à se rabattre sur la petite École normale d’instituteurs ». L’École normale n’apparaît ainsi pratiquement plus génératrice de mobilité sociale et l’intégration en son sein correspond, pour beaucoup de candidats, à « des stratégies de reclassement ou de lutte contre un déclassement social », sauf pour des jeunes femmes qui ont pu valoriser ces diplômes.
À côté de cette problématique propre aux normaliens, qui constituent 50 % du personnel enseignant primaire de la région parisienne, l’enseignement primaire fait face, dès les années 1950, à une « très grave crise » du recrutement. Pour y pallier, on recrute des « bacheliers sans aucune formation professionnelle » comme auxiliaires.
Selon une enquête d’Ida Berger, menée auprès des personnels enseignants du premier degré en 1957 pour le Centre d’études sociologiques de Paris, cette crise est, pour partie, liée au « malaise socio-professionnel », dont les causes sont liées à des salaires trop faibles ; au « manque de perspectives d’avenir dans la profession » ; à « la perte du prestige social de leur profession » ; ainsi qu’à la vétusté des bâtiments et au trop grand nombre d’élèves par classe. À cet égard, Ida Berger note :
« En face de 45-50 enfants, habitant souvent des taudis, mal nourris et hypernerveux, combien d’instituteurs sont à contrecœur obligés d’abdiquer en tant que pédagogues et de se transformer en “gendarmes” pour maintenir un semblant de discipline dans leur classe ? »
Dans l’enseignement secondaire, l’explosion scolaire, engagée dès les années 1960, conduit également à l’émergence d’une crise aiguë du recrutement entre 1955 et 1965. Avec l’arrivée de nouveaux publics, « la distance subjectivement vécue entre la carrière ambitionnée et la réalité actuellement perçue du professorat » est, pour un certain nombre d’enseignants, symptomatique d’une crise révélatrice d’« une baisse du statut du professorat de l’enseignement secondaire ». Le malaise enseignant devient, d’ailleurs, à cette époque une « catégorie médiatique ».
À lire aussi : Pourquoi tant de difficultés à recruter des enseignants ?
Si on peut être tenté de considérer que la création du statut de professeur des écoles en 1989 – qui rapproche le statut des instituteurs d’une partie des enseignants du secondaire, avec lesquels ils sont d’ailleurs formés, dès 1991, dans les Instituts universitaires de formation des maîtres (IUFM) –, aurait pu contribuer à clore cet épisode de « crise » pour les enseignants du primaire, il n’en est rien. L’historien Jean-François Condette a, de ce point de vue, bien souligné que « le contexte de création des IUFM est inséparable d’une crise aiguë de recrutement ». En effet, les besoins en recrutement d’enseignants, dans le primaire comme dans le secondaire, demeurent très importants pour affronter la seconde vague de la massification liée à l’objectif de 80 % d’une classe d’âge au niveau du baccalauréat. Le ministère peine, pendant cette période, à recruter : en 1988, 27 % des postes de certificat d’aptitude au professorat de l’enseignement du second degré (capes) et 15 % des postes d’agrégés ne sont pas pourvus, en dépit de la création des concours internes du capes et de l’agrégation. Les besoins en recrutement sont ainsi « estimés à 360 000 entre 1988 et 2000 ».
Dans le contexte des années 1990 et 2000, la question de la « crise du recrutement » et « des vocations » prend, en France, une tournure nouvelle, notamment liée aux transformations de la morphologie enseignante, avec une remise en question de l’accès au métier selon « un modèle d’accomplissement de vocation », dont la période présente est l’héritière. De ce point de vue, les importants travaux du sociologue Pierre Périer ont montré le caractère sectoriel de la « crise du recrutement » et de la « crise d’attractivité du métier d’enseignant » fortement mises en avant dans le débat public au cours des deux dernières décennies.
À partir d’une enquête réalisée en 2015 auprès de 1 103 étudiants de différentes filières de troisième année de licence, Pierre Périer montre que « la problématique d’attractivité des métiers de l’enseignement apparaît à la fois inégale et paradoxale » et que l’affectivité spécifique et le sentiment d’urgence ou de catastrophe véhiculés par les discours sur la crise du recrutement dans le débat public doivent être relativisés :
« Aussi préoccupants soient-ils, ces constats [sur les difficultés de recrutement d’enseignants] confirment le caractère sectoriel et paradoxal de difficultés qui, en réalité, ne sont pas nouvelles. On peut rappeler, en effet, que le nombre de candidats présents pour un poste en 1993 était de 2,6, identique à celui observé en 2015 ou 2016 mais deux fois inférieur à celui du début des années 2000. La comparaison vaut également pour le secondaire avec 2,7 candidats pour un poste en 1993 ou encore 3,7 en 1994 et 3,4 en 2015. Ajoutons que la part des enseignants non titulaires dans le second degré public a déjà été à plusieurs reprises supérieure à ce qu’elle représente aujourd’hui (près de 8 % en 1993 contre moins de 6 % en 2015). »
Et Pierre Périer de souligner que « le manque de candidats aux concours a un caractère académique dans le premier degré et disciplinaire dans le secondaire ». Le sociologue montre également que la « crise de recrutement » masque, en réalité, « une tension en forme de dilemme d’orientation » pour les étudiants qui « met en rapport, d’un côté, un intérêt personnel manifeste pour les fondements et contenus du métier et, de l’autre, des appréhensions et, plus encore, une incertitude sur ce que recouvre le “devenir enseignant”, que ce soit en termes d’accès, de conditions d’exercice ou de carrière ».
Sébastien-Akira Alix ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.