02.12.2025 à 13:12
Frédéric Prost, Maître de conférences en informatique, INSA Lyon – Université de Lyon

Une expérience relativement simple consistant à demander à une intelligence artificielle générative de comparer deux objets de tailles très différentes permet de réfléchir aux limites de ces technologies.
Les intelligence artificielle (IA) génératives font désormais partie de notre quotidien. Elles sont perçues comme des « intelligences », mais reposent en fait fondamentalement sur des statistiques. Les résultats de ces IA dépendent des exemples sur lesquels elles ont été entraînées. Dès qu’on s’éloigne du domaine d’apprentissage, on peut constater qu’elles n’ont pas grand-chose d’intelligent. Une question simple comme « Dessine-moi un gratte-ciel et un trombone à coulisse côte à côte pour qu’on puisse apprécier leurs tailles respectives » vous donnera quelque chose comme ça (cette image a été générée par Gemini) :
L’exemple provient du modèle de Google, Gemini, mais le début de l’ère des IA génératives remonte au lancement de ChatGPT en novembre 2022 et ne date que d’il y a trois ans. C’est une technologie qui a changé le monde et qui n’a pas de précédent dans son taux d’adoption. Actuellement ce sont 800 millions d’utilisateurs, selon OpenAI, qui chaque semaine, utilisent cette IA pour diverses tâches. On notera que le nombre de requêtes diminue fortement pendant les vacances scolaires. Même s’il est difficile d’avoir des chiffres précis, cela montre à quel point l’utilisation des IA est devenue courante. À peu près un étudiant sur deux utilise régulièrement des IA.
Trois ans, c’est à la fois long et court. C’est long dans un domaine où les technologies évoluent en permanence, et court en termes sociétaux. Même si on commence à mieux comprendre comment utiliser ces IA, leur place dans la société n’est pas encore quelque chose d’assuré. De même la représentation mentale qu’ont ces IA dans la culture populaire n’est pas établie. Nous en sommes encore à une alternance entre des positions extrêmes : les IA vont devenir plus intelligentes que les humains ou, inversement, ce ne sont que des technologies tape-à-l’œil qui ne servent à rien.
En effet, un nouvel appel à faire une pause dans les recherches liées aux IA a été publié sur fond de peur liée à une superintelligence artificielle. De l’autre côté sont promis monts et merveilles, par exemple un essai récent propose de ne plus faire d’études, car l’enseignement supérieur serait devenu inutile à cause de ces IA.
Depuis que les IA génératives sont disponibles, je mène cette expérience récurrente de demander de produire un dessin représentant deux objets très différents et de voir le résultat. Mon but par ce genre de prompt (requête) est de voir comment le modèle se comporte quand il doit gérer des questions qui sortent de son domaine d’apprentissage. Typiquement cela ressemble à un prompt du type « Dessine-moi une banane et un porte-avions côte à côte pour qu’on se rende compte de la différence de taille entre les deux objets ». Ce prompt en utilisant Mistral donne le résultat suivant :
À ce jour je n’ai jamais trouvé un modèle qui donne un résultat censé. L’image donnée en illustration ci-dessus (ou en tête de l’article) est parfaite pour comprendre comment fonctionnent ce type d’IA et quelles sont ses limites. Le fait qu’il s’agisse d’une image est intéressant, car cela rend palpables des limites qui seraient moins facilement discernables dans un long texte.
Ce qui frappe est le manque de crédibilité dans le résultat. Même un enfant de 5 ans voit que c’est n’importe quoi. C’est d’autant plus choquant qu’avec la même IA il est tout à fait possible d’avoir de longues conversations complexes sans pour autant qu’on ait l’impression d’avoir affaire à une machine stupide. D’ailleurs ce même type d’IA peut tout à fait réussir l’examen du barreau ou répondre avec une meilleure précision que des professionnels sur l’interprétation de résultats médicaux (typiquement, repérer des tumeurs sur des radiographies).
La première chose à remarquer est qu’il est difficile de savoir à quoi on est confronté exactement. Si les composants théoriques de ces IA sont connus dans la réalité, un projet comme celui de Gemini (mais cela s’applique aussi aux autres modèles que sont ChatGPT, Grok, Mistral, Claude, etc.) est bien plus compliqué qu’un simple LLM couplé à un modèle de diffusion.
Un LLM est une IA qui a été entraînée sur des masses énormes de textes et qui produit une représentation statistique de ces derniers. En gros, la machine est entraînée à deviner le mot qui fera le plus de sens, en termes statistiques, à la suite d’autres mots (votre prompt).
Les modèles de diffusion qui sont utilisés pour engendrer des images fonctionnent sur un principe différent. Le processus de diffusion est basé sur des notions provenant de la thermodynamique : on prend une image (ou un son) et on ajoute du bruit aléatoire (la neige sur un écran) jusqu’à ce que l’image disparaisse, puis ensuite on fait apprendre à un réseau de neurones à inverser ce processus en lui présentant ces images dans le sens inverse du rajout de bruit. Cet aspect aléatoire explique pourquoi avec le même prompt le modèle va générer des images différentes.
Un autre point à considérer est que ces modèles sont en constante évolution, ce qui explique que le même prompt ne donnera pas le même résultat d’un jour à l’autre. De nombreuses modifications sont introduites à la main pour gérer des cas particuliers en fonction du retour des utilisateurs, par exemple.
À l’image des physiciens, je vais donc simplifier le problème et considérer que nous avons affaire à un modèle de diffusion. Ces modèles sont entraînés sur des paires images-textes. Donc on peut penser que les modèles de Gemini et de Mistral ont été entraînés sur des dizaines (des centaines ?) de milliers de photos et d’images de gratte-ciel (ou de porte-avions) d’un côté, et sur une grande masse d’exemples de trombone à coulisse (ou de bananes) de l’autre. Typiquement des photos où le trombone à coulisse est en gros plan. Il est très peu probable que, dans le matériel d’apprentissage, ces deux objets soient représentés ensemble. Donc le modèle n’a en fait aucune idée des dimensions relatives de ces deux objets.
Les exemples illustrent à quel point les modèles n’ont pas de représentation interne du monde. Le « pour bien comparer leurs tailles » montre qu’il n’y a aucune compréhension de ce qui est écrit par les machines. En fait les modèles n’ont pas de représentation interne de ce que « comparer » signifie qui vienne d’ailleurs que des textes dans lesquels ce terme a été employé. Ainsi toute comparaison entre des concepts qui ne sont pas dans le matériel d’apprentissage sera du même genre que les illustrations données en exemple. Ce sera moins visible mais tout aussi ridicule. Par exemple, cette interaction avec Gemini « Considérez cette question simple : “Le jour où les États-Unis ont été établis est-il dans une année bissextile ou une année normale ?”. »
Lorsqu’il a été invoqué avec le préfixe CoT (Chain of Thought, une évolution récente des LLMs dont le but est de décomposer une question complexe en une suite de sous-questions plus simples), le modèle de langage moderne Gemini a répondu : « Les États-Unis ont été établis en 1776. 1776 est divisible par 4, mais ce n’est pas une année séculaire (de cent ans), c’est donc une année bissextile. Par conséquent, le jour où les États-Unis ont été établis était dans une année normale. »
On voit bien que le modèle déroule la règle des années bissextiles correctement, donnant par là même une bonne illustration de la technique CoT, mais il conclut de manière erronée à la dernière étape ! Ces modèles n’ont en effet pas de représentation logique du monde, mais seulement une approche statistique qui crée en permanence ce type de glitchs qui peuvent paraître surprenants.
Cette prise de conscience est d’autant plus salutaire qu’aujourd’hui, les IA écrivent à peu près autant d’articles publiés sur Internet que les humains. Ne vous étonnez donc pas d’être étonné par la lecture de certains articles.
Frédéric Prost ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.12.2025 à 13:06
Caroline Gans Combe, Associate professor Data, econometrics, ethics, OMNES Education

Le rapport entre intelligence artificielle et emploi nécessite de repenser en profondeur l’analyse des tâches dans une entreprise. Il se joue à deux niveaux : dans la compréhension des chaînes de valeur de l’entreprise et dans la capacité des dirigeants à l’appréhender. L’enjeu ? Identifier avec précision où et comment injecter l’IA. Car celle-ci peut mentir, inventer des références et se tromper.
Les sombres prédictions sur la disparition des emplois intellectuels d’entrée de carrière alimentent un débat déjà ancien sur la fongibilité du travail face aux avancées de l’intelligence artificielle (IA) – soit le remplacement d’un emploi par un autre.
Et si la véritable question n’est pas ce qui peut être substitué, mais par où et comment cette substitution crée ou détruit de la valeur pour l’entreprise ? C’est que nous soulignons dans notre étude réalisée par le Global Partnership on AI (GPAI) et le Centre d’expertise international de Montréal en intelligence artificielle (Ceimia).
L’enjeu pour l’intelligence artificielle est de dépasser l’identification par catégorie des emplois, et plus finement des tâches automatisables, pour comprendre leur position stratégique dans la chaîne de création de valeur.
Encore aujourd’hui, l’essentiel des études sur l’impact de l’IA dans le domaine procède par décomposition : identifier des tâches, évaluer la capacité de celles-ci à être automatisées, agréger les résultats. Cette méthodologie, héritée de Carl Benedikt Frey et Michael Osborne, qui estimaient que l’automatisation présentait un risque pour 47 % des emplois, comprend des limites.
Elle ignore la fonction économique spécifique de chaque tâche prise individuellement dans la définition d’un emploi, mais aussi le processus de création de valeur.
Alors où et comment l’IA peut-elle avoir une valeur ajoutée dans l’entreprise ? Comment les dirigeants peuvent-ils s’en emparer pour être le meilleur architecte des interactions homme-machine ? Comment accompagner cette transition ?
Le scandale Deloitte d’octobre 2025 illustre cette problématique. Deloitte Australie a dû rembourser partiellement une facture de 440 000 dollars australiens (environ 248 000 euros). Pourquoi ? Un rapport commandé par le gouvernement s’est révélé avoir été produit avec Azure OpenAI GPT-4o… sans divulgation initiale.
Le travail contenait des références académiques inexistantes, des citations inventées, et des experts fictifs. Qui plus est, une fois ces problèmes détectés, le cabinet a substitué aux fausses références d’autres bien réelles, qui ne soutenaient pas les conclusions initiales du document.
À lire aussi : Et si votre prochain collègue était un agent IA ?
Deloitte avait été choisi, non pas pour ses capacités rédactionnelles, mais parce qu’il apportait une assurance d’expertise indépendante, une garantie de fiabilité des sources, un engagement de responsabilité professionnelle. En automatisant sans contrôle, le cabinet a détruit précisément ce pour quoi il était payé.
Ce phénomène n’est pas isolé. Une étude du Cureus Journal of Medical Science montre que sur 178 références citées par une IA, 69 renvoyaient à des références incorrectes ou inexistantes. Plus troublant encore : des termes fictifs se propagent désormais dans la littérature scientifique réelle après avoir été générés par l’IA.
Cette asymétrie révèle que la « valeur » d’une tâche dépend autant de sa place dans la chaîne de production que de son « rôle » à l’égard des autres tâches, de la manière dont elle les influence.
L’impact délétère de l’usage de l’IA dans ce type de contexte a été illustré par le cas de l’assistant médical Nabla. Fin 2024, l’outil proposé par cette société permettant une prise de note automatisée dans le domaine médical avait été utilisé par plus de 230 000 médecins et 40 organisations de santé. Il avait permis la transcription de 7 millions de consultations.
À cette date, une étude a révélé que le logiciel avait inventé des phrases entières, faisant référence à des médicaments inexistants, comme « hyperactivated antibiotics », des commentaires non prononcés… le tout dans un contexte où tous les enregistrements audio des patients concernés avaient été effacés, rendant impossible une quelconque vérification a posteriori.
À l’ère de l’IA, il faut dépasser les seuls critères de destruction d’emplois ou de potentiel d’automatisation pour évaluer chaque tâche selon trois dimensions complémentaires.
Dépendance opérationnelle
La première dimension concerne la dépendance opérationnelle, c’est-à-dire la façon dont la qualité d’une tâche impacte les tâches suivantes. Une forte dépendance, comme l’extraction de données servant à définir une stratégie, exige la prudence car les erreurs se propagent dans toute la chaîne. À l’inverse, une faible dépendance, comme la simple mise en forme d’un document, tolère mieux l’automatisation.
Connaissance non codifiable
La deuxième dimension évalue la part de connaissance non codifiable nécessaire à la tâche. Il s’agit de tout ce qui relève de l’expérience, de l’intuition et du jugement contextuel, impossible à traduire en règles explicites. Plus cette part est élevée, plus il faut maintenir un couplage étroit humain-machine pour interpréter les signaux faibles et mobiliser le discernement humain.
Réversibilité
La troisième dimension concerne la réversibilité, soit la capacité à corriger rapidement une erreur. Les tâches à faible réversibilité, comme un diagnostic médical préopératoire ou la gestion d’infrastructures critiques, exigent une supervision humaine forte, car une erreur peut avoir des conséquences graves. Les tâches réversibles, comme les brouillons ou l’exploration de pistes, acceptent davantage d’autonomie.
Ces trois dimensions dessinent quatre modalités d’interaction avec l’IA, recommandées en fonction des tâches à effectuer.
L’automatisation est recommandée pour les tâches peu interdépendantes, réversibles et codifiables, comme la mise en forme, l’extraction de données ou les premiers jets.
La collaboration humain-machine convient aux situations de dépendance modérée, mais de haute réversibilité, où les erreurs peuvent être gérées, comme l’analyse exploratoire ou la recherche documentaire.
Certaines tâches demeurent du ressort exclusif de l’humain, du moins pour l’heure. Il s’agit notamment des décisions stratégiques qui cumulent une forte interdépendance des tâches, une part importante de connaissance non codifiable issue de l’expérience et une faible réversibilité des choix effectués.
La supervision inversée s’impose lorsque l’IA produit, mais que l’humain doit valider systématiquement, notamment en cas de forte dépendance ou de faible réversibilité. Le cas Air Canada montre que lâcher la bride à une IA dans un tel contexte est hautement dommageable. Ici, le chatbot de la compagnie aérienne avait affirmé qu’on pouvait demander rétroactivement un tarif spécifique lié à des évènements familiaux, ce qui s’est révélé totalement faux.
Attaquée en justice par le passager qui s’estimait trompé, la compagnie a été condamnée au motif qu’elle était l’entité responsable de l’IA et de son usage. Or, elle ne la supervisait pas. L’impact financier de cette condamnation peut sembler faible (le remboursement du passager), mais le coût tant en termes de réputation que pour l’actionnaire est loin d’avoir été négligeable.
Chaque chaîne de valeur rassemble une grande variété de tâches qui ne se distribuent pas selon une logique uniforme : les quatre modalités d’automatisation se retrouvent entremêlées de manière hétérogène.
Le manager devient alors l’architecte de ces chaînes de valeur hybrides, et doit développer quatre compétences clés pour les piloter efficacement.
Il lui faut maîtriser l’ingénierie de workflows cognitifs, c’est-à-dire identifier avec précision où et comment injecter l’IA de manière optimale dans les processus.
Il doit être capable de diagnostiquer les interdépendances opérationnelles propres à chaque contexte, plutôt que d’appliquer mécaniquement des grilles d’analyse externes focalisées uniquement sur le coût du travail.
« Désintermédiation cognitive » : il s’agit d’orchestrer les nouveaux rapports au savoir créés par l’IA tout en préservant la transmission des compétences tacites qui font la richesse d’une organisation.
Le manager doit porter une éthique de la substitution, en arbitrant constamment entre l’efficience immédiate qu’offre l’automatisation et la préservation du capital humain sur le long terme.
Un paradoxe technique éclaire ces enjeux. Les modèles de raisonnement les plus avancés hallucinent paradoxalement plus que leurs prédécesseurs, révélant un arbitrage inhérent entre capacité de raisonnement et fiabilité factuelle. Cette réalité confirme que l’impact de l’IA sur le monde du travail ne peut se réduire à une simple liste de métiers condamnés à disparaître.
Les dimensions analytiques présentées ici offrent précisément un cadre pour dépasser les approches simplistes. Elles permettent de positionner le management dans un rôle nouveau : celui d’arbitre et d’urbaniste cognitif, capable de concevoir l’architecture des interactions humain-machine au sein de l’organisation.
Bien conduite, cette transformation peut enrichir l’expérience humaine du travail, au lieu de l’appauvrir.
Caroline Gans Combe a reçu des financements de l'Union Européenne dans le cadre de ses projets de recherche.
02.12.2025 à 11:25
Ricardo Azambuja, Professeur associé en management, EDHEC Business School
Anahid Roux-Rosier, Professeure associée, Fundação Dom Cabral
Sophie Raynaud, Assistant Professor, Excelia
Et si prôner d’abord les bienfaits pour la santé – plutôt que l’argument écologique – se révélait un angle d’attaque plus efficace pour convertir les populations à une alimentation végétale ? C’est ce que recommande une équipe de recherche dont les travaux pointent le fait que la population a connaissance de l’impact environnemental des régimes alimentaires carnés, mais que cela ne suffit pas à faire reculer la consommation de viande.
Longtemps considérés comme un choix marginal, les régimes alimentaires à base de plantes sont désormais reconnus pour leurs avantages environnementaux et éthiques, mais leur adoption se heurte à des obstacles persistants : manque de sensibilisation à leurs bienfaits pourtant établis pour la santé, dissonance cognitive (« savoir sans agir ») et messages publics qui induisent souvent un sentiment de culpabilité autour de la destruction de l’environnement.
Dans notre dernière étude, nous révélons un paradoxe majeur : l’argument santé – sans doute le plus personnel et le moins clivant – est étrangement absent des campagnes de promotion de l’alimentation à base de plantes, alors qu’il pourrait permettre de surmonter les résistances individuelles et sociales qui freinent l’adoption de régimes plus végétaux.
En effet, si la population française est consciente de l’impact climatique associé à la consommation de viande, elle sous-estime massivement les risques que cette dernière fait peser sur sa santé (maladies cardiovasculaires, cancers, etc.) et surestime, dans le cadre d’une alimentation « équilibrée », son importance nutritive – alors même qu’elle accorde une attention particulière aux questions de santé individuelle.
Une transition mondiale vers des régimes alimentaires à base de végétaux pourrait atténuer considérablement l’impact négatif du système alimentaire sur l’environnement, la santé et le bien-être animal.
Si, parmi les responsables politiques et les spécialistes en sciences sociales, la diffusion d’informations sur les impacts sanitaires et environnementaux de régimes alimentaires individuels est devenue un outil populaire pour inciter les consommateurs à adopter des régimes alimentaires plus durables, on sait peu de choses sur les connaissances de la population française concernant les avantages pour la santé d’un régime alimentaire végétal.
À partir d’un échantillon représentatif de cette population française (N = 715), nous avons évalué les connaissances moyennes sur les avantages relatifs des régimes alimentaires végétaux pour différentes dimensions. Nous montrons que les gens ont en moyenne une bonne connaissance de l’impact environnemental assez faible des régimes alimentaires à base de végétaux (gaz à effet de serre, utilisation des terres), mais qu’ils sous-estiment considérablement leurs bienfaits pour la santé.
Nous constatons également que les gens sous-estiment considérablement la prévalence de l’agriculture intensive et, par conséquent, les avantages pour le bien-être animal à adopter un régime alimentaire végétal.
Nos résultats semblent ainsi indiquer que la société est principalement divisée en deux groupes : ceux qui ont une opinion positive des régimes alimentaires à base de plantes dans tous les domaines, et ceux qui voient moins d’avantages dans les régimes alimentaires à base de plantes dans tous les domaines.
Ce travail ouvre une piste de réflexion prometteuse sur le rôle des campagnes d’information dans le changement des habitudes alimentaires individuelles.
Le dérèglement climatique et les enjeux écologiques globaux comptent désormais parmi les principales préoccupations de la population française. Notre étude confirme que le public est bien informé quant à l’impact délétère de la consommation de viande, tant sur l’environnement que sur le bien-être animal.
Nos résultats montrent notamment que les personnes interrogées ont une idée assez précise des ordres de grandeur en jeu, et savent, par exemple, que produire la même quantité de protéines avec du bœuf peut générer 100 fois plus de carbone qu’avec des pois. Pourtant ces connaissances, loin de déclencher un changement massif des comportements, provoquent surtout un malaise individuel. Informées, oui ; concernées, certes… mais peu ou pas prêtes à modifier le contenu de leur assiette.
Peut-être plus troublant, notre étude révèle qu’évoquer l’impact de l’élevage bovin sur le climat ou dénoncer la maltraitance animale dans les élevages industriels peut aller jusqu’à susciter une forme de rejet : face à ces sujets sensibles, certains choisissent par exemple d’éviter de s’informer davantage.
Dans ce contexte, il paraît peu réaliste d’espérer que des changements à grande échelle reposent sur des évolutions comportementales individuelles, alors que les problèmes (éthiques ou écologiques) liés à nos comportements alimentaires relèvent avant tout de choix de société – et donc d’une responsabilité collective, dont les individus peuvent se sentir dépossédés.
Nos travaux dessinent des stratégies de communication efficaces, orientées notamment sur les bénéfices individuels, pour encourager des changements concrets à l’échelle individuelle en commençant par la question de l’alimentation.
Face à la réussite mitigée des arguments d’ordre écologique et éthique – la consommation de viande bovine a diminué de 6 % en vingt ans, mais la consommation globale de viande connaît une sorte de plateau ces dernières années à hauteur de 85 kg par an et par personne –, nos recherches mettent en lumière la faible représentation des informations évoquant les bénéfices pour la santé individuelle d’une alimentation plus végétale, alors même que ce sujet semble particulièrement important aux yeux des Français.
Les recommandations scientifiques sont pourtant claires. En 2019, une étude portée par 37 chercheurs et publiée dans la prestigieuse revue médicale The Lancet avait déjà avancé des propositions pour pouvoir nourrir plus sainement l’ensemble de la population mondiale grandissante. Ces scientifiques recommandaient ainsi au maximum une portion de viande rouge par semaine et deux portions hebdomadaires pour la volaille et le poisson, avec à la clé une baisse de 20 % de la mortalité adulte.
Sur son site grand public Manger Bouger, l’agence officielle Santé publique France rappelle également le rôle protecteur des fruits et légumes pour prévenir des pathologies comme les cancers, les maladies cardiovasculaires et le diabète, ou encore contre l’obésité. Enfin, des travaux de recherche récents insistent par ailleurs sur le fait que la consommation d’aliments d’origine végétale est associée à une meilleure santé cardiovasculaire, s’ils sont de bonne qualité nutritionnelle et peu ou pas transformés industriellement.
Finalement, nos résultats suggèrent que l’absence de diminution de la consommation de viande à l’échelle nationale repose en majeure partie sur l’idée, médicalement fausse mais très répandue, qu’un régime comportant une faible quantité de viande reste toujours plus sain qu’un régime entièrement végétal. Ces travaux ouvrent donc un nouvel angle d’attaque plus efficace pour convertir les populations à l’alimentation végétale, en prônant d’abord l’argument de santé plutôt que l’argument écologique.
Transformer les habitudes de consommation de viande passe par une action coordonnée des ministères de la santé, de l’agriculture et de l’écologie. Mais, pour convaincre vraiment, il s’agit aussi de communiquer vers la population en adoptant une stratégie efficace. Mettre en avant les bénéfices pour la santé des individus est à cet égard un aspect de communication essentiel à prendre en compte. D’autres acteurs sont également intéressants à mobiliser dans ce cadre, comme le corps médical et tout autre prescripteur possible en termes d’alimentation.
La transition vers une alimentation végétale dépendra non seulement de l’information, mais aussi de la manière dont elle sera reformulée : moins de moralisme, plus de preuves tangibles, une meilleure cible des enjeux individuels, et surtout une action publique coordonnée (santé, écologie, agriculture).
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
02.12.2025 à 11:25
Samer Kayal, Professeur des Universités- Praticien Hospitalier (Microbiologie), Université de Rennes 1 - Université de Rennes
L’équipe du Pr Samer Kayal a effectué, auprès de patients du CHU de Rennes, en Ille-et-Vilaine, un travail pionnier de collecte de « Streptococcus pyogenes », un pathogène responsable de 500 000 décès par an dans le monde, et d’une autre bactérie génétiquement proche (« Streptococcus dysgalactiae sous-espèce equisimilis ») réputée moins dangereuse. Dans le cadre d’une collaboration transatlantique, la perte de sensibilité de « S. pyogenes » aux antibiotiques a été découverte et le séquençage de l’ensemble des souches bretonnes ont été mises à la disposition de l’ensemble de la communauté des chercheurs.
En 1847, près de quinze ans avant la preuve de l’existence des microbes apportée par Louis Pasteur, un médecin du nom d’Ignace Semmelweis avait déjà eu une intuition : il pensait qu’un agent invisible, sans doute transmis par les mains des médecins, pouvait être responsable des infections graves chez les femmes après l’accouchement.
De cet agent, on sait aujourd’hui qu’il s’agissait d’une bactérie appelée Streptococcus pyogenes.
Cette espèce bactérienne vit uniquement chez l’être humain. Elle peut se trouver dans la gorge ou sur la peau, sans forcément provoquer une infection. Mais parfois, elle cause des maladies bénignes, comme une angine (mal de gorge d’origine bactérienne), ou des infections graves, qui peuvent être mortelles si elles ne sont pas soignées à temps.
L’Organisation mondiale de la santé (OMS) estime que, chaque année, dans le monde, 700 millions d’infections sont provoquées par cette bactérie, dont 600 millions rien que pour la gorge. Et malheureusement, environ 500 000 personnes en meurent chaque année, ce qui en fait l’une des dix causes majeures de décès.
Il s’agit donc d’un véritable problème de santé publique. Malgré les recherches, il n’existe toujours pas de vaccin efficace contre cette bactérie. Heureusement, elle reste généralement sensible aux antibiotiques, en particulier aux pénicillines, qui font partie de la grande famille des bêta-lactamines.
Les bêta-lactamines agissent comme des verrous qui viennent bloquer des éléments essentiels pour la survie de la bactérie, l’empêchant de se multiplier et finissant par la tuer. Leur cible est une protéine spécifique (appelée PLP, pour « protéine liant la pénicilline »), indispensable à la construction de la paroi protectrice de la bactérie.
Schématiquement, quand l’antibiotique se fixe à la PLP, celle-ci n’est plus active et la bactérie meurt. Cependant, si la PLP est altérée du fait de mutations de son gène, il résulte une réduction de l’efficacité de la liaison des antibiotiques de la famille des bêta-lactamines à la PLP : la bactérie devient moins sensible à l’antibiotique, voire franchement résistante, comme c’est le cas pour d’autres espèces de streptocoques, notamment Streptococcus pneumoniae.
Streptococcus pyogenes est classiquement sensible aux bêta-lactamines. Par conséquent, les tests de sensibilité (antibiogrammes), qui sont réalisés afin de vérifier que ces antibiotiques seront efficaces pour soigner l’infection, ne sont pas toujours effectués avant de traiter les patients.
Pourtant certains laboratoires ont récemment [rapporté] une diminution de la sensibilité de la sensibilité de certaines souches de Streptococcus pyogenes aux bêta-lactamines par un mécanisme similaire : on aurait affaire à des mutations de la protéine PLP de la bactérie, qui seraient sans doute favorisées par un traitement mal adapté (dosages d’antibiotiques insuffisants, ou traitement mal suivi par les patients).
Au CHU Ponchaillou-Université de Rennes, dès 2009, notre équipe de recherche a eu la clairvoyance de commencer à collecter tous les échantillons de cette bactérie parallèlement à ceux d’une autre espèce très proche génétiquement, appelée Streptococcus dysgalactiae sous-espèce equisimilis (SDSE). Ces échantillons provenaient de patients du département d’Ille-et-Vilaine, hospitalisés au CHU de Rennes.
Grâce à l’importance de cette collecte systématique, il a été possible de décrire en détail l’évolution des infections causées par cette bactérie au sein de la population de la région, sur une période d’une dizaine d’années. Ce travail a permis d’instaurer une étroite collaboration avec le Pr James Musser, un expert mondial de Streptococcus pyogenes basé à Houston, aux États-Unis.
L’analyse des gènes de toutes ces souches a montré que la bactérie Streptococcus pyogenes intégrait fréquemment des morceaux d’ADN provenant de SDSE (cette sous-espèce de bactérie proche génétiquement, ndlr). Plus préoccupant, ces recherches montraient pour la première fois, que ces échanges génétiques modifiaient considérablement la protéine PLP de S. pyogenes, [ce qui rendait la bactérie moins sensible] à de nombreux antibiotiques de la famille des bêta-lactamines.
Cette découverte importante tire une sonnette d’alarme : elle montre que la résistance de Streptococcus pyogenes aux antibiotiques de première ligne est probablement sous-estimée et qu’elle pourrait se propager.
Il est donc primordial de maintenir une surveillance permanente pour déceler rapidement l’apparition de bactéries résistantes et éviter qu’elles ne deviennent une menace pour la santé publique.
L’intérêt des scientifiques et des médecins s’est rapidement porté sur l’analyse des échantillons de bactérie SDSE recueillis pendant la même période que ceux de Streptococcus pyogenes.
Depuis quelques années, de nombreuses équipes à travers le monde signalent en effet une augmentation surprenante des infections graves à SDSE, correspondant probablement à la diffusion d’une souche particulière de SDSE (appelée « stG62647 »). Jusqu’alors, cette espèce bactérienne était très peu étudiée car on la considérait surtout comme un simple « résident » inoffensif de la peau ou de la gorge, rarement responsable d’infections sévères.
Grâce à la collaboration transatlantique des équipes rennaise et états-unienne, l’analyse génétique d’environ 500 échantillons collectés à Rennes a permis de dater précisément la première détection de cette souche particulière stG62647 : elle serait apparue en 2013 et se serait rapidement répandue dans la région de l’Ille-et-Vilaine. Il s’agit d’une souche très homogène génétiquement, ce qui signifie qu’elle descend récemment d’un « ancêtre » commun particulièrement bien adapté à son hôte, l’être humain.
Un travail effectué en laboratoire afin de mieux comprendre les différentes étapes du processus infectieux par SDSE a permis aux chercheurs de prendre conscience de la complexité des mécanismes de virulence. Ils ont également soulevé un paradoxe : malgré leur grande similitude génétique, les SDSE présentent des niveaux de dangerosité (virulence) très variables.
Cette découverte suggère que la gravité des infections dépend de mécanismes de régulation complexes de la bactérie, qui sont liés à la manière dont elle interagit avec la personne qu’elle infecte.
En d’autres termes, la sévérité de l’infection ne dépend pas seulement de la bactérie elle-même, mais aussi des caractéristiques propres à chaque personne infectée. C’est ce que les chercheurs ont décrypté dans leur dernière publication sur le sujet.
Riches de l’expérience acquise sur S. pyogenes, ces travaux pionniers sur cette autre bactérie SDSE révèlent que de nombreux secrets restent à découvrir pour les deux bactéries. Mais d’ores et déjà, les implications de ces résultats sont importantes pour :
le diagnostic et la surveillance de la résistance aux antibiotiques, car les laboratoires doivent désormais être plus vigilants pour détecter les souches résistantes ;
la surveillance continue des infections pour prévenir l’émergence de nouveaux clones bactériens virulents ;
le développement de nouveaux traitements, car la compréhension des mécanismes de virulence ouvre la voie à de nouvelles cibles thérapeutiques et à d’éventuelles nouvelles approches vaccinales.
Cette collaboration franco-états-unienne illustre l’importance de combiner différentes approches : surveillance de terrain, analyse génétique, étude de l’expression des gènes et tests sur les organismes.
Les chercheurs ont ainsi mis à disposition de la communauté scientifique internationale l’ensemble des données génétiques des souches bretonnes, ce qui va faciliter les recherches futures sur ces bactéries d’intérêt croissant en santé publique.
Cette recherche dite « translationnelle » – qui va du laboratoire au patient (from bench to bedside, en anglais) – est très efficace pour mieux anticiper les crises infectieuses futures. Elle permet d’adapter nos stratégies de prévention et de traitement face à l’évolution constante des agents pathogènes.
Samer Kayal ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
01.12.2025 à 16:48
Willem Standaert, Associate Professor, Université de Liège

Anyone working in an organisation knows it: meetings follow one after another at a frantic pace. On average, managers spend 23 hours a week in meetings. Much of what happens in them is considered to be of low value, or even entirely counterproductive. The paradox is that bad meetings generate even more meetings… in an attempt to repair the damage caused by previous ones.
And yet, for a long time, meetings were not subject of management research. A 2015 handbook laid the groundwork for the nascent field of “Meeting Science”. Among other things, the research revealed that the real issue may not be the number of meetings, but rather how they are designed, the lack of clarity about their purpose, and the inequalities they (often unconsciously) reinforce.
In our series of studies conducted during and after the Covid-19 pandemic, researchers found that meetings can both foster and harm participants’ well-being. Indeed, participating in too many meetings can lead to burn-out and an intention to quit the organisation; however, meetings can also increase employee engagement.
The widespread adoption of remote work and virtual meetings, accelerated by the pandemic, has introduced new sources of fatigue: cognitive overload, hyperconnection, and lack of separation between work and personal life. But, virtual meetings also enable continuous social interaction and an understanding of an employee’s role in the organization.
These new meeting formats are not experienced equally by everyone.
One of the most striking findings concerns speaking time in virtual meetings. In a survey of hundreds of employees, the results were clear: women reported having more difficulty speaking up in online meetings than in face-to-face ones. Several factors explain this phenomenon: more frequent interruptions, invisibility on shared screens, difficulty reading nonverbal cues, or the double mental load when meetings are held from home.
À lire aussi : Why it's good to talk about women's health at work, according to research
In other words, virtual meetings – while potentially democratising access – can actually reinforce gender inequalities if care is not taken.
Faced with what we call meeting madness, the solution is not to eliminate meetings altogether, but to design them better. It begins with a simple but often forgotten question: why are we meeting?
Based on our series of studies covering thousands of meetings, there are four main types of meeting objectives:
1) sharing information
2) making decisions
3) expressing emotions or opinions
4) building work relationships
Each of these objectives requires meeting participants to do different things, such as seeing faces, hearing intonations, observing reactions, or sharing a screen. And no meeting modality (audio, video, hybrid, in-person) is universally best for all types of objectives. The modality of a meeting should be chosen according to its main objective, rather than habit or technological convenience.
Going further, research identifies simple but powerful levers to improve the collective meeting experience:
share a clear agenda and documents beforehand, so participants feel ready to contribute
use hand-raising tools, anonymous chats, or “round robin” systematic speaking turns
moderate actively – meeting organizers need to balance contributions, encourage participation, and avoid exclusion
Meetings are not neutral. They reflect – often unconsciously – an organization’s culture, power dynamics, and implicit priorities. The data is clear: there are ways to improve meetings. What remains is for companies and managers to acknowledge the transformational power of meetings.
A company where only the loudest voices are heard in meetings is rarely inclusive outside the meeting room. Conversely, well-run meetings can become spaces of co-construction, respect, and collective innovation.
The goal should not be to have fewer meetings, but better ones. Meetings that respect everyone’s time and energy. Meetings that give a voice to all. Meetings that build connection.
This article was co-authored with Dr. Arnaud Stiepen, expert in science communication.
Willem Standaert ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
01.12.2025 à 16:48
Laurent Vilaine, Docteur en sciences de gestion, ancien officier, enseignant en géopolitique à ESDES Business School, ESDES - UCLy (Lyon Catholic University)
Emmanuel Macron a annoncé la création d’un service militaire volontaire d’une durée de dix mois qui concernera 3 000 jeunes dès septembre 2026, puis 50 000 en 2035. Ces recrues seront-elles véritablement utiles, en soutien aux 200 000 militaires de métier ? Le chef de l’État estime qu’il « existe une génération prête à se lever pour la patrie ». Pourtant, l’armée peine à recruter des professionnels.
Les tensions internationales et plus particulièrement la guerre en Ukraine mettent en alerte les États européens. Ceux-ci augmentent leurs crédits militaires et s’interrogent sur les moyens de raviver leur système de réserves, bien souvent mis en sommeil depuis la fin de la guerre froide. Dans ce cadre, alors que Jacques Chirac avait annoncé en 1996 la suspension du service national, le président Macron a annoncé le 27 novembre 2025 sa résurrection selon des modalités différentes.
Il s’agirait d’un service militaire basé sur le volontariat, rémunéré au minimum 800 euros. L’objectif d’un tel service militaire serait de renforcer les régiments, dans le cadre de modalités encore inconnues, à hauteur de 3 000 jeunes en 2026, 10 000 à l’horizon 2030 pour une montée en puissance à 50 000 jeunes en 2035. Il s’agirait bel et bien d’une formation militaire incluant exercices tactiques, sport, exercices de tir. En outre, ces recrues n’auraient pas vocation à servir en opérations extérieures. Au-delà de former des jeunes à la chose militaire, l’espoir des autorités est de retenir suffisamment de personnes dans la réserve pour que celle-ci passe de 50 000 à 80 000 soldats.
Pour autant, un tel dispositif est-il de nature à véritablement renforcer les capacités de défense de la France ou constitue-t-il une simple mesure de communication politique ?
La guerre en Ukraine et les menaces russes ont rebattu les cartes de manière violente, en France et dans l’ensemble des pays européens. Les budgets de défense augmentent fortement. La France ne fait pas exception. La modernisation des forces est mise en avant. Reste désormais à mobiliser les citoyens.
Le chef d’état-major des armées a récemment tenté de sensibiliser la population au changement de la donne stratégique, pointant le risque que le pays ne soit « pas prêt à accepter de perdre ses enfants, de souffrir économiquement ». Il s’agit donc bien de préparer la société au pire dans un contexte où plusieurs pays européens pointent l’expansionnisme russe. Il ne s’agit pas seulement d’augmenter les effectifs de la réserve opérationnelle pour répondre à une guerre de haute intensité, mais bel et bien d’activer une mémoire républicaine où l’uniforme est perçu comme vecteur de cohésion et d’unité nationale.
Reste à s’interroger sur les difficultés qu’un tel projet peut rencontrer et sur le caractère politicien ou non d’une telle initiative dans un contexte où Emmanuel Macron tente de reprendre l’initiative dans un paysage politique instable et fragmenté.
Le contenu du nouveau service militaire volontaire (SMV) vise à mobiliser les jeunes dans un cadre structurant. La formation initiale durera un mois permettant de délivrer une instruction militaire de base (maniement des armes, entraînement physique, combat). Il ne s’agit pas de créer des soldats professionnels projetables mais des citoyens-soldats capables de remplacer sur le territoire national les soldats professionnels partis guerroyer face à la Russie. En effet, dans une telle situation, les nouvelles recrues prendraient la charge de l’opération sentinelle, garderaient des bases, assureraient la mobilisation territoriale.
Plusieurs obstacles se dressent face à ce projet. Il y a d’abord le vote du budget. Si le budget de la défense n’est pas voté, celui de l’année dernière sera reconduit au moins partiellement. Une telle hypothèse entraînerait le report du projet budgété à deux milliards d’euros. Il y a ensuite l’attractivité du projet face à une jeunesse à remobiliser. L’armée française a du mal à recruter des soldats professionnels. Parviendra-t-elle à recruter des soldats dans le cadre du nouveau service militaire ?
On peut imaginer que les recrutements initiaux – 3 000 personnes pour 2026 – ne poseront pas de problèmes. Mais qu’en sera-t-il lors de la montée en puissance impliquant des projets de recrutement bien plus conséquents à hauteur de 10 000 personnes à l’horizon 2030 et 50 000 à l’horizon 2035 ? La question n’a pas de réponse aujourd’hui mais le doute est permis au regard de la solde proposée de 800 euros minimum et de la perception de l’engagement citoyen de la jeunesse. Les sondages montrent plutôt un accord des Français et même des jeunes à ce projet, mais accord sur le principe et engagement effectif sont deux aspects différents.
En ce qui concerne la portée strictement militaire du dispositif, plusieurs interrogations se posent. Un engagement de quelques mois suffit-il à construire une réserve compétente ? Un des impératifs, dans tous les cas, sera la convocation régulière de la réserve à des exercices afin d’entretenir les compétences.
Autre problématique : le service militaire ne siphonnera-t-il pas de précieux fonds au détriment de la modernisation des équipements de l’armée professionnelle ? Là encore, il est difficile de répondre à ce stade. En effet, tout cela dépendra de la progression effective du budget global consacré à la défense.
En revanche, exiger des recrues, puis des réservistes, la même efficacité que l’armée professionnelle est un contresens : les missions attribuées aux uns et aux autres ne seront pas les mêmes et les volontaires ne seront pas projetables, à moins d’une menace majeure, généralisée, que l’on a du mal à entr’apercevoir.
Du point de vue politique, au sens noble du terme, le SMV se fonde sur le projet de « faire nation » et de « recréer du commun ». Face à cela, la droite est plutôt favorable, et une partie de la gauche défavorable. Il s’agit d’un clivage peu surprenant, en cette époque d’opposition politique intense. Une partie de la gauche s’en prend au « va-t-en-guerre » et la droite exige un sursaut.
Mais qui pourra nier la nature agressive du régime de Vladimir Poutine et la nécessité de se préparer à tous les scénarios ? Rappelons que les pays baltes se barricadent et que les Polonais se réarment à vitesse accélérée. Pour autant, s’il s’agit de « faire nation », le volontariat pourrait se limiter à n’attirer que des jeunes déjà convaincus ? La question mérite d’être posée.
Au plan politique, la création d’un grand chantier comme le SMV s’apparente certainement, pour le chef de l’État, à l’objectif de laisser une trace dans l’histoire, celle d’avoir su rassembler les Français autour de la défense du pays. En outre, une telle mesure lui permet de surfer sur le besoin d’autorité qui émerge dans nos sociétés. Mais là encore, il serait naïf de discréditer un projet au motif qu’il induit des préoccupations politiciennes. Dans un système démocratique, nombre de réformes impliquent un souhait d’améliorer le fonctionnement de la société et un souhait de renforcer son électorat voire sa clientèle politique ou encore l’image du prince. Tout cela est consubstantiel à la démocratie et ne dit rien de la valeur intrinsèque de la réforme.
Le nouveau service national présenté par le président s’inscrit dans un mouvement général européen allant dans le même sens, même si les modalités sont variables. Bien que dépendant des réalités budgétaires, cette réforme a l’immense avantage de constituer une force d’appoint en mesure de prendre la relève sur le territoire national en cas de projection des forces professionnelles. Il doit également permettre d’augmenter la réserve opérationnelle dans des proportions encore inconnues. Permettra-t-il par ailleurs d’augmenter le civisme de la jeunesse ? On peut émettre des doutes sur ce point. Le service national ne sera basé que sur le volontariat, ce qui constitue une limite évidente.
Finalement, le SMV ne constitue qu’une pièce de la panoplie permettant de réarmer la France. Sa réussite est encore une inconnue mais il s’imbrique parfaitement dans l’ambition française de montée en puissance de son armée, du point de vue matériel, de ses capacités diverses et variées (incluant la guerre informationnelle) et donc également du point de vue des capacités en effectifs. C’est désormais aux armées de communiquer efficacement pour rendre le projet attractif.
Laurent Vilaine ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.