LePartisan - 5 vues
MEDIAS REVUES BLOGS
URL du flux RSS

▸ les 25 dernières parutions

14.04.2026 à 16:35

IA : le piège d’un langage statistique qui ressemble au nôtre

Mazarine Pingeot, Professeure de philosophie, Sciences Po Bordeaux
L’intelligence artificielle générative (ChatGPT et consorts) produit du texte cohérent sans perception, sans corps, sans vécu et sans conscience. Telle est la nouveauté radicale qu’il s’agit de penser.
Texte intégral (2055 mots)

L’intelligence artificielle générative, telle que ChatGPT et consorts, produit du texte cohérent sans perception, sans corps, sans vécu et sans conscience. Telle est la nouveauté radicale qu’il s’agit de penser.


Lorsqu’on questionne ChatGPT, Claude ou autre « Chat » sur n’importe quel sujet, il répond comme s’il était un interlocuteur omniscient. Pourtant, ce langage est produit de façon statistique, en intégrant la multiplicité des contextes – ce qui lui permet de répondre de façon adéquate et à chaque fois différente, en fonction du contexte d’énonciation –, en agrégeant d’immenses masses de données (les large langage models ou LLM). Cette spécificité introduit une nouvelle dimension : si la machine parle comme l’humain, alors même que le langage était perçu par un certain nombre de philosophes, au premier rang desquels René Descartes, comme l’indice de la pensée, et donc de la reconnaissance chez l’autre de son « humanité », comment distinguer l’humain de la machine ?

Cette question, à la base du test de Turing, pourrait paraître rhétorique, pourtant, nombreuses sont les pratiques qui attestent de cette confusion, l’intelligence artificielle (IA) générative étant parfois utilisée comme assistant, comme ami, et pouvant faire éventuellement fonction de psychologue. Ne serait-ce que dans notre manière de lui poser des questions, nous nouons avec elle un dialogue et sommes donc victimes d’une projection anthropomorphique fort naturelle dès lors que l’autre – machine ou humain – nous répond. La façon dont nous nous adressons à notre « chat » en témoigne : nous lui parlons parfois avec politesse, en utilisant souvent la deuxième personne du singulier « Tu ».

Comment repenser alors le langage s’il n’est plus l’indice d’une pensée consciente ? Et comment distinguer le langage humain du langage de la machine ? Dans sa structure, sa syntaxe, sa cohérence, il est identique.

Pourtant, le fait que les textes produits par l’IA générative soient bientôt majoritairement issus non plus de textes écrits par des humains, mais d’autres textes générés par l’IA pose un premier problème de référentialité.

Une production statistique déconnectée de la vérité

On le sait depuis les travaux du linguiste Roman Jakobson, le langage a plusieurs fonctions (informer, entrer en contact, créer du lien, de la beauté, etc.). La fonction référentielle est celle qui lie le langage au réel et qui en fait le lieu de la vérité au sens d’une adéquation entre un énoncé et la réalité dont il parle. C’est là, la fameuse définition de Thomas d’Aquin (env. 1225-1274) « Veritas est adaequatio rei et intellectus » (« La vérité est l’adéquation de la chose et de l’intellect »). Ainsi, « seuls des énoncés peuvent être vrais ou faux. Les choses, quant à elles, même si, par un abus de langage, il arrive qu’on les qualifie de “vraies” ou de “fausses”, sont réelles ou irréelles, authentiques ou artificielles. Mais elles ne sauraient être “vraies"» », peut-on lire dans l’article de l’Encyclopédie Universalis sur la vérité au sens général.

Ainsi, l’énoncé « il fait beau » a du sens s’il fait beau, et il est censé donner une information sur le temps qu’il fait, à des fins multiples (organiser sa journée, choisir de prendre ou non son vélo, etc.). À quoi sert de dire « il fait beau » si ce n’est pour communiquer cette information, ou pour créer un lien avec un autre du seul fait que je m’adresse à lui (on parle alors de fonction phatique du langage.

Certes, l’écriture va médiatiser l’idée même de communication mais elle demeure le vecteur d’un savoir, d’une information, d’une relation entre celui qui lit, celui qui écrit, et ce sur quoi porte l’écrit.

Voici que le langage pourtant s’émancipe de ses fonctions référentielle et phatique.

La production du langage s’autonomise de la réalité

L’énoncé produit par l’intelligence artificielle générative ne fait plus signe vers une extériorité, et ce de façon structurelle, puisqu’elle fonctionne de façon statistique, en prenant en compte le contexte, à partir de bases de données numériques. La médiation risque d’être exponentielle, si les textes produits par l’IA finissent par remplacer ceux produits par l’humain. L’IA générative produit à partir d’elle-même et de façon algorithmique un énoncé qui n’a, par définition, aucune intention communicative. Il est le fruit d’un calcul.

Quel enseignement en tirer ? Que la structure même de la production du langage s’autonomise de la réalité : on ne peut pas en vouloir à la machine de ne pas lever les yeux au ciel pour confirmer qu’il fait beau.

Ainsi c’est la condition même de la vérité qui est évacuée. Dans « Vérité et politique », la philosophe Hannah Arendt distingue la « vérité de fait » et la « vérité de raison », renvoyant cette dernière à la vérité scientifique, et la première à « ce qui a eu lieu », autrement dit un réel minimal, condition du commun. Or, c’est cette vérité que les idéologies totalitaires ont remise en question, substituant à la réalité un système plus au moins cohérent d’idées ou de croyances. Mais les démocraties de masse ne sont pas en reste : pour Arendt, la publicité propose elle aussi un substitut au réel.

Aujourd’hui, l’idéologie n’est plus nécessaire pour substituer au rapport au monde un discours délié du monde. C’est la condition même d’énonciation qui rend caduque la catégorie de « vérité de fait » puisque l’intelligence artificielle générative, dans son fonctionnement même, ne se réfère pas au réel pour produire du langage, même si un lien au second degré demeure, puisque la production statistique de LLM part d’énoncés produits hors LLM. La déliaison est consommée entre produire du langage (qui est pourtant supposé être le lieu de la vérité), et le réel sur lequel porte le langage.

Ainsi la post-vérité dans laquelle nous vivons désormais est structurellement consolidée : il ne s’agit pas seulement d’une indifférence à la vérité, il s’agit d’une production de contenu délié, ou indépendant de la possibilité même du vrai ou du faux, même si un grand nombre de textes qui nourrissent les LLM proviennent encore des humains. L’idéologie n’est pas dans ce qui est dit, produit, écrit : elle est dans l’émancipation d’une production du langage par rapport au réel et à l’idée même de référentialité. L’intelligence artificielle générative n’a pas inventé la post-vérité, mais par son fonctionnement, elle en consolide la structure.

Un langage formaté en amont par des entreprises privées ?

À cela s’ajoute le fait que cette production est le monopole d’entreprises privées. Nous vivons dans un monde capitaliste, nul ne l’ignore, dont le principe est que les moyens de production sont concentrés entre les mains de quelques-uns. C’est ce que Marx appelait l’infrastructure, la superstructure désignant toutes les autres sphères – la politique, la culture. Or, aujourd’hui, l’infrastructure produit du langage. Et le langage est sous-jacent à toutes les superstructures : comme le dit le linguiste Klemperer, il est le moyen de propagande le plus public et le plus secret à la fois. Public, puisque nous ne pouvons nous passer du langage pour vivre en société ; secret, parce que nous ne nous rendons pas compte à quel point le langage est traversé par des normes qui nous façonnent plus que nous les façonnons et que nous véhiculons à notre tour en parlant.

« À chaque époque correspondent des techniques de reproduction bien déterminées » écrivait Walter Benjamin. La technique influe sur l’usage de la langue : au XIXᵉ siècle, la presse de masse transformait la manière d’écrire, entraînant un nouveau genre littéraire – le roman – que Benjamin dans le Raconteur oppose au récit, mais aussi la prolifération d’une presse à sensation, s’intéressant aux faits divers et proposant une « narration » attractive.

Le langage serait donc de plus en plus inféodé à ses moyens de production techniques. Certes, on peut considérer qu’il l’était déjà dans son usage public, mais c’est désormais le cas également des usages intimes, professionnels, amicaux, autrement dit de quasiment tous les usages, y compris lorsqu’on n’a nul besoin de la technologie pour communiquer : il nous arrive de correspondre par mail lorsqu’on partage le même bureau, d’assister à des réunions en visioconférence alors que quelques mètres nous séparent, de communiquer par Instagram assis côté à côte… Ce qui a des conséquences décisives notamment sur la politique, et plus spécifiquement sur la démocratie, dont le matériau premier est précisément le langage et les différents droits qui lui sont associés.

« Être politique, écrit Hannah Arendt, vivre dans une polis, cela signifiait que toutes choses se décidaient par la parole et la persuasion et non pas par la force ni la violence. » Elle ajoutait que c’est en apparaissant aux yeux de tous que la parole devenait politique. Il fallait donc un espace pour que celle-ci soit entendue, un espace « public » pour « une parole politique ».

Mais qu’est-ce qu’un espace public et qu’une parole politique, lorsque le langage s’émancipe dans sa production, à la fois du réel, et du sujet d’énonciation ? En étant productrice autonome de langage sans référentialité, l’IA générative accomplit techniquement le fantasme d’une énonciation sans sujet.

Que le langage ne soit plus ce qui distingue la machine de l’humain a ainsi des conséquences à la fois politiques et métaphysiques. Le rapport au réel est en train de se transformer au profit de médiations invisibles qui privatisent le langage : celui-ci ne permet plus de reconnaître dans le destinateur ou le destinataire un « autrui ». Pourtant, le langage n’a de sens qu’à être adressé à un autre être humain. Pour la machine, il est asémantique. Sauver le sens du langage, c’est sauver l’idée même de sujet. C’est à cette condition qu’il gardera ses vertus émancipatrices.


Mazarine M. Pingeot est l’autrice d’Inappropriable. Ce que l’IA fait à l’humain, (Flammarion, février 2026).

The Conversation

Mazarine Pingeot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

13.04.2026 à 16:44

Intelligence artificielle : quels sont les apports concrets de la régulation européenne ?

Chloé Dornbierer, Docteure en droit et Professeure à Kedge Business School, Kedge Business School
En matière d’IA, quels sont les apports de la régulation européenne et ses limites ? Protège-t-elle les citoyens ? Risque-t-elle de freiner l’innovation et de détourner les acteurs économiques du marché européen ?
Texte intégral (2350 mots)

L’intelligence artificielle s’impose désormais au cœur de décisions qui engagent directement la vie, la santé et les droits des citoyens européens. Dans des entreprises, des administrations, des hôpitaux ou sur des plateformes numériques, des algorithmes trient, évaluent, recommandent et parfois décident. Face à cette automatisation croissante, une question centrale se pose : la réponse de l’Union européenne pour encadrer l’intelligence artificielle est-elle à la hauteur des risques qu’elle prétend prévenir ?


Imaginons qu’une entreprise décide d’utiliser une intelligence artificielle (IA) pour automatiser son processus de recrutement. L’algorithme, conçu pour analyser des milliers de CV, est entraîné sur les données RH de l’entreprise des dix dernières années. Or, les profils recrutés durant cette période sont majoritairement masculins. L’algorithme déduit alors de ces données que les candidats masculins sont préférables et exclut de fait les profils féminins.

Ce scénario n’est pas fictif : il s’inspire directement du cas d’Amazon, dont l’outil de recrutement par IA a dû être abandonné après la révélation de ces biais eu égard aux risques juridiques qu’ils engendraient. Cet exemple illustre précisément les risques que le législateur entend prévenir : erreurs algorithmiques, atteintes aux droits fondamentaux, captation et fuite de données, dépendance technologique.

En réponse, l’Union européenne a bâti depuis plusieurs années un arsenal juridique ambitieux, allant du Règlement général sur la protection des données (RGPD) au Règlement sur l’intelligence artificielle (RIA). Ces textes doivent relever un défi de taille : concilier innovation et protection, réguler les acteurs internationaux sans les éloigner du marché européen, et garantir les droits fondamentaux sans censure – le tout face à des technologies transversales, opaques et en constante évolution. Cet ensemble de règles constitue-t-il une réponse satisfaisante ?

Pas de régulation de l’IA, sans régulation des données

La régulation de l’intelligence artificielle ne saurait être envisagée indépendamment d’une politique structurée de la donnée. La donnée constitue en effet le carburant indispensable au développement et au perfectionnement des systèmes d’intelligence artificielle. En cela, la quantité de données compte tout autant que leur qualité.

C’est pourquoi, le législateur européen a d’abord cherché à réguler la donnée avant de réguler l’IA : d’une part avec le RGPD dont la finalité est de protéger les données à caractère personnel (les informations concernant une personne physique identifiée ou identifiable, comme un numéro de téléphone ou une adresse postale).

D’autre part avec une série de textes portant sur la régulation des données non personnelles (les informations ne se rapportant à aucune personne identifiable, comme une statistique ou un nombre d’accidents sur une autoroute visée). Ceux-ci comprennent le DSA, le DMA, le DGA, le Data Act et visent notamment à limiter la domination des géants du numérique et organiser le partage et l’accès de certaines données entre plateformes, entreprises, administrations publiques et utilisateurs, condition indispensable au développement de l’IA.

Ces textes relatifs aux données ont été le préalable à l’élaboration de la première réglementation générale au monde sur l’intelligence artificielle : le RIA.

Quelles sont les obligations imposées aux entreprises par le RIA ?

Contrairement aux États-Unis, qui privilégient une approche dérégulée, et à la Chine, qui encadre principalement certains usages ciblés, l’Union européenne a fait le choix d’un cadre juridique général et contraignant, s’appliquant à l’ensemble des secteurs et des systèmes d’intelligence artificielle, afin de poser les bases d’un véritable droit commun de l’IA au sein du marché européen depuis son entrée en vigueur le 1er août 2024.

Son objectif est d’encadrer

« le développement, la mise sur le marché et l’utilisation de systèmes d’intelligence artificielle, qui peuvent poser des risques pour la santé, la sécurité ou les droits fondamentaux ».

Pour atteindre cet objectif, le RIA commence par définir précisément le champ des technologies qu’il entend encadrer. Il distingue : les systèmes d’intelligence artificielle, qui correspondent aux applications concrètes utilisées par les utilisateurs (ex : un outil de tri de candidatures, ChatGPT) et les modèles d’intelligence artificielle à usage général, qui constituent le socle technologique sur lequel reposent ces applications, comme GPT-4 pour ChatGPT.

Pour assurer un équilibre entre protection des personnes et innovation, le RIA classe les systèmes d’intelligence artificielle en quatre niveaux de risque :

  • le risque inacceptable (ex : système de notation sociale des citoyens, présentant un risque d’une atteinte grave aux droits fondamentaux) impliquant l’interdiction du système d’IA.

  • le risque élevé (ex : une IA utilisée pour évaluer des salariés, présentant un risque d’atteinte au droit du travail et à la vie privée) imposant des obligations comme celle de réaliser des audits ou celle d’entraîner le système sur des données qualitatives et exemptes de biais.

  • le risque limité (ex : assistant conversationnel d’un service client, présentant le risque d’une collecte de données sans consentement éclairé) obligeant notamment les opérateurs à informer les utilisateurs de l’usage de l’IA.

  • le risque minimal (ex : IA intégrée dans un jeu vidéo) dont ne découle aucune obligation spécifique.

Pour chaque niveau de risque, des obligations spécifiques et proportionnées sont donc édictées en fonction de leurs effets potentiels sur les droits fondamentaux, la sécurité et la santé des personnes. Ces obligations s’imposent à différents opérateurs selon le moment où ils interviennent dans la chaîne de valeur de l’IA : fournisseur, mandataire, importateur, distributeur…

Par exemple, un système d’IA utilisé pour l’analyse d’images médicales, qualifié de système à risque élevé, est soumis à des obligations spécifiques qui varient selon l’opérateur concerné : le fournisseur doit concevoir le système en conformité avec les exigences de sécurité et de gestion des risques comme s’assurer qu’il ne peut pas y avoir de faux positif ou de faux négatif dans le diagnostic mais également que le système ne présente pas de biais du fait d’une sous-représentation de certains groupes ethniques ou de genre, l’importateur et le distributeur doivent vérifier que cette conformité a été respectée, et l’hôpital qui déploie le système doit s’assurer qu’il est utilisé correctement et sous supervision humaine.

Concernant les modèles d’IA à usage général (ex : GPT-4, algorithme sur lequel repose ChatGPT), le législateur européen a édicté différentes règles selon qu’ils présentent ou non un risque systémique.

L’article 3 § 65 du RIA définissant le risque systémique comme :

« un risque spécifique aux capacités à fort impact des modèles d’IA à usage général, ayant une incidence significative sur le marché de l’Union en raison de leur portée ou d’effets négatifs réels ou raisonnablement prévisibles sur la santé publique, la sûreté, la sécurité publique, les droits fondamentaux ou la société dans son ensemble, pouvant être propagé à grande échelle tout au long de la chaîne de valeur ».

Ce risque est évalué selon la puissance de calcul du modèle. Les modèles d’IA à usage général qui présentent un risque systémique doivent notamment signaler les incidents graves (des biais, des faux positifs, une cyberattaque), prendre d’importantes mesures de cybersécurité ou encore tester le modèle et atténuer les risques systémiques identifiés (grâce à des audits, des mesures de protection contre les piratages ou encore des mesures de détection de biais). Plusieurs autorités ont été désignées pour contrôler la bonne application du règlement, c’est le cas notamment du comité européen de l’intelligence artificielle au niveau européen, et de la CNIL au niveau national.

Les limites du RIA

Le RIA a suscité des critiques des experts du droit et du monde professionnel à propos de sa mise en œuvre. Ainsi, 46 dirigeants d’entreprise ont dénoncé, dans une lettre ouverte destinée à la présidente de la Commission européenne, « des règlementations européennes peu claires, qui se chevauchent et deviennent de plus en plus complexes ». La technicité du RIA conjuguée à la complexité des algorithmes compliquent l’application du texte, en particulier pour les obligations de transparence – incompatibles avec l’opacité des algorithmes – et pour l’identification des responsabilités, les entreprises peinant à déterminer quelles obligations leur incombent selon leur position dans la chaîne de valeur et le niveau de risque du système.

En découle alors une autre problématique, le risque de freiner les acteurs français et européens, comme Orasio, H Company ou DeepL, qui tentent de concurrencer les géants américains de l’intelligence artificielle qui ont davantage de moyens (juridiques, technologiques, financiers) pour mettre en œuvre les obligations du RIA.

À cet égard, il convient de relever que le législateur européen a finalement renoncé, le 11 février 2025, à adopter une législation spécifique relative à la responsabilité civile des acteurs de l’intelligence artificielle, dont la finalité était d’harmoniser les règles de responsabilité civile pour les dommages causés par l’IA, afin de protéger les victimes et d’unifier le cadre juridique au sein de l’UE. Cet abandon est intervenu suite à une opposition de certains États membres, notamment la France, mais aussi des critiques formulées par le lobbying de grandes entreprises technologiques qui dénonçaient un risque de surrégulation et une insécurité juridique susceptible de freiner l’innovation. En l’absence d’un tel cadre spécifique, ce sont donc les règles de droit positif de responsabilité civile qui demeurent applicables aux dommages causés par les systèmes d’intelligence artificielle.

Les enjeux de la régulation

En combinant protection des données, encadrement des usages et obligations pesant sur les acteurs les plus puissants, l’Union européenne a posé les bases d’un véritable droit commun de l’IA unique au monde.

Cependant, cette réponse n’est satisfaisante qu’à une condition : que son application ne transforme pas la régulation en barrière à l’entrée pour les acteurs européens tels que Mistral AI, NEURA Robotics ou Dust. En effet, le risque est de renforcer la domination des géants américains et chinois plutôt que de la combattre. D’autant que cette domination ne se limite pas au plan économique : elle s’exerce également sur le plan politique. Un rapport de Corporate Europe Observatory et LobbyControl, deux ONG spécialisées dans la surveillance du lobbying, montre ainsi que les Big Tech auraient une influence significative sur la rédaction des Codes de bonnes pratiques prévus par le RIA notamment en parvenant à affaiblir certaines obligations.

La véritable réussite de la régulation européenne ne se mesurera donc pas seulement à la protection des citoyens, mais à sa capacité à faire émerger une intelligence artificielle européenne, à la fois éthique, compétitive et souveraine.

The Conversation

Chloé Dornbierer ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

13.04.2026 à 16:41

Trois récits de vie pour comprendre le mal-être dans la fonction publique

Aude Deville, Professeur des Universités, Université Côte d’Azur
Franck Brillet, Inspecteur général de l'éducation, du sport et de la recherche - directeur de l'Inspé de l'académie de Nice
Marc Valax, Professeur des Universités (GRH, Gestion du changement IA, Management international), Université Côte d’Azur
Face à des injonctions contradictoires des responsabilités floues et un manque de reconnaissance, certains agents de la fonction publique souffrent de mal-être.
Texte intégral (1818 mots)
« J’aimais mon métier d’enseignante, mais là, je n’avais plus le sens. Mon médecin m’a dit, “C’est un burn out” », témoigne une enseignante interviewée. FrameStockFootage/Shutterstock

Face à l’austérité budgétaire, certains agents de la fonction publique font face à des injonctions contradictoires – moins de moyens, mais une meilleure qualité de service –, des responsabilités floues et un manque de reconnaissance qui affectent leur bien-être. Pour comprendre ces enjeux complexes, une étude donne la parole à trois agents de la fonction publique d’État.


Une directrice d’école en burn out faute d’aide. Un cadre hospitalier en charge des décisions, sans pouvoir réel. Un fonctionnaire dont les compétences restent ignorées. Ces situations ne sont pas des cas isolés. Elles suggèrent une transformation silencieuse du management dans la fonction publique.

La fonction publique présente des défis managériaux spécifiques, documentés depuis plusieurs décennies. Ces défis oscillent entre sens du devoir, convictions et valeurs partagées, et contraintes telles que l’austérité budgétaire.

À partir de récits de vie d’agents publics, notre étude révèle des situations où les responsabilités augmentent, alors que les moyens et les marges de décision diminuent. Cette évolution contribue à affaiblir l’engagement des fonctionnaires et contractuels. Notre approche narrative permet d’appréhender les enjeux contemporains de la gouvernance publique d’État à partir de l’expérience vécue de professionnels.

Injonctions contradictoires

L’équilibre entre contrôle de l’activité des agents de la fonction publique et liberté décisionnelle nécessaire à toute prise de décision reste un sujet de débat. Depuis plus de vingt-cinq ans, le chercheur Christopher Hood questionne la mise en œuvre du New Public Management, tandis que Geert Bouckaert invite à repenser la notion de performance et ses critères dans le secteur public. Dans ce contexte, les fonctionnaires se retrouvent face à des injonctions contradictoires : préserver une qualité de service envers les concitoyens avec des moyens limités et des obligations de résultat.

Le New Public Management trouve sa transposition en France à travers des programmes d’actions interministériels lancés en 2007 et 2012. La Révision générale des politiques publiques (RGPP) a été notamment consacrée à la réorganisation des structures de l’administration publique. La modernisation de l’action publique (MAP) à l’amélioration de la qualité des services publics ou la simplification et de réorganisation administrative.

Notre analyse met en lumière les formes concrètes du désenchantement des ressources humaines dans la fonction publique et la dégradation de la qualité du management liées à ces évolutions, notamment à travers deux cadres théoriques :

  • La justice organisationnelle qui analyse les appréciations des salariés du caractère juste du traitement dont ils font l’objet au sein de la structure qui les emploie ;

  • Les conflits de rôles qui naissent quand les périmètres d’activités ne sont pas suffisamment bien définis ou l’existence d’une répartition déséquilibrée de la charge de travail entre agents de la fonction publique.

Manque de reconnaissance (premier récit de vie)

Appel aux consultants extérieurs

« Ce qui me désole au sein du ministère, c’est l’indifférence manifeste envers les CV des fonctionnaires. Il est vrai que nous avons été embauchés selon certaines conditions de niveau et de compétences, mais après plus de quatre ans comme moi au sein des services, les agents ont eu l’occasion d’acquérir de nouvelles compétences. Plutôt que de faire appel à des consultants externes pour leurs compétences, on pourrait exploiter les compétences internes qui sont réellement abondantes et variées. »

Tâches routinières

« Avant de rejoindre la fonction publique, j’ai occupé plusieurs postes dans divers cabinets d’expertise comptable, où j’ai géré de manière autonome la comptabilité d’entreprises reconnues. J’ai choisi la fonction publique pour satisfaire mon père qui valorise la stabilité et la sécurité qu’elle offre. Cependant, mon rôle actuel à la direction générale se limite à des tâches routinières et subalternes. Ce manque de reconnaissance de mon niveau de compétence et d’expérience me désole. »

Qui est responsable ? (second récit de vie)

« Je suis en position de responsabilité, en tant que cadre depuis cinq années. J’ai la charge de la gestion des soignants au sein d’une organisation hospitalière multi-sites. Il y a des difficultés pour accompagner tous nos patients, accueillis sur un site et quelquefois opérés sur un autre site. Il faut alors trouver des places pour l’hospitalisation. »

« Nous expliquons que c’est au chef de service de déterminer qui sera le premier patient de la journée et l’heure à laquelle il sera hospitalisé. À notre niveau, nous sommes des représentants administratifs. Nous devons répondre à des sujets qui sont pour eux administratifs, mais qui en réalité sont organisationnels. C’est compliqué : qui est responsable ? »

Gérer seule une situation difficile (troisième récit de vie)

Problématique en dehors des clous

« Je suis directrice dans une petite école et institutrice dans une classe de CE2. J’ai vingt-cinq ans d’expérience et on peut dire que je fais partie des piliers de l’école. Jusqu’à cette situation, j’étais passionnée et ce métier a toujours été une véritable vocation. »


À lire aussi : Quand le cynisme mine l’engagement dans la fonction publique…


« Depuis la petite section, nous accueillons un enfant avec des troubles importants – sans connaître l’origine de ses troubles, car sa maman n’a jamais voulu fournir de bilan médical à l’école. Il a pu bénéficier d’un accompagnant d’élève en situation de handicap durant 5 ans, mais plus aujourd’hui. C’est donc un peu moi qui joue ce rôle, mais en plus je dois m’occuper des autres élèves de ma classe. »

Pas de soutien de l’académie

« La situation était tenable tant qu’il bénéficiait de cette personne dédiée. Il a toujours eu tendance à frapper les autres et je pense qu’une bonne partie des enfants de l’école y ont eu droit. Cette année, les problématiques se sont amplifiées. Il y a eu de nombreuses plaintes des parents. On m’a même dit : “Mais que faites-vous madame, vous ne surveillez pas ?” “Convoquez la mère !” »

« Je me suis donc retournée vers l’académie et l’inspecteur, en demandant conseils et aides. Il m’a été répondu qu’il ne faudrait surtout pas céder aux plaintes quotidiennes des parents. Je n’ai pas reçu d’aide ou de moyens supplémentaires. Je pleurais tous les jours. J’aimais mon métier d’enseignante, mais là, je n’avais plus le sens. Mon médecin m’a dit, “C’est un burn out”. »

Hypocrisie organisationnelle

L’ensemble de ces récits permet de proposer plusieurs perspectives d’analyse à la lumière de l’hypocrisie organisationnelle – discours et actes contradictoires. Par exemple, le troisième invite à se demander si cette hypocrisie ne sert pas à protéger l’organisation, ici l’éducation nationale.

Une autre perspective est celle du leadership. Les trois récits suggèrent que :

  • Les agents publics sont contraints d’endosser des responsabilités pour gérer des situations complexes, sans recevoir de reconnaissance lorsqu’ils réussissent à trouver des solutions. L’écart entre les missions confiées et les moyens disponibles devient difficilement supportable ;

  • Ils ne disposent parfois pas du pouvoir décisionnel nécessaire pour résoudre les problèmes auxquels ils sont confrontés ;

  • Ils restent souvent prisonniers d’un statut ou d’une organisation hiérarchique rigide, qui freinent l’évolution de leurs missions, malgré l’acquisition d’expérience ou de nouvelles compétences. Cette situation génère à terme démotivation ou démission, qu’elle soit silencieuse ou effective.

Ces récits illustrent une forme de « management du risque » de la part des niveaux hiérarchiques supérieurs, qui consiste à laisser les collaborateurs affronter seuls certaines situations, tout en revendiquant la maîtrise de la décision et de l’action. Ces extraits mettent en lumière l’importance cruciale de la reconnaissance et de la valorisation du travail, tant au sein de la fonction publique qu’au service de l’usager ou du citoyen. En filigrane se dessine la nécessité d’un leadership éclairé et bienveillant, capable de soutenir et guider ses équipes.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

8 / 25

 

  GÉNÉRALISTES
Ballast
Fakir
Interstices
Issues
Korii
Lava
La revue des médias
Time [Fr]
Mouais
Multitudes
Positivr
Regards
Slate
Smolny
Socialter
UPMagazine
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
À Contretemps
Alter-éditions
Contre-Attaque
Contretemps
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
 
  ARTS
L'Autre Quotidien
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
Gauche.Media
CETRI
ESSF
Inprecor
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
🌞