Blog collectif en collaboration avec La Recherche et la Société Informatique de France
Publié le 03.04.2026 à 07:04
Alphabestiaire du numérique et de l’informatique
En contrepoint, Frédéric Havet rebondit sur les textes d’Yves pour exercer son talent de dessinateur, tout en étant chercheur d’excellence et en co-portant Terra-Numerica. Serge Abiteboul et Thierry Viéville.
Voir tous les mots disponibles à ce lien.
Le numérique et l’informatique constituent une révolution scientifique et technologique sans équivalent. Ils remodèlent le monde, pour le meilleur et pour le pire. Leur développement depuis l’après-guerre a entraîné l’apparition d’un vocabulaire spécifique, essentiellement en anglais. Mais les francophones créent et promeuvent des termes en français… parfois pour le meilleur, souvent pour le pire. Certains termes émergent sans être encore reconnus par les grands dictionnaires. D’autres s’appuient sur une étymologie discutable ; d’autres encore sont des francisations ridicules de termes anglais. La plupart sont maltraités ou ignorés par l’Académie française, surtout s’ils sont de genre féminin.
En outre, certains termes techniques s’inscrivent dans le vocabulaire courant. Ainsi, le terme « binaire » a depuis longtemps une acception et une étymologie stables et claires dans le champ scientifique. Mais la société s’est emparée du terme binaire en le faisant précéder de « non », dans une acception ô combien polémique, avec un regain de violence exclusive, sans égal outre-atlantique, à l’encontre des personnes concernées.
Réciproquement, des termes du quotidien s’invitent dans le numérique, comme le célèbre « cookie ». Cette porosité du vocabulaire entre société et technologie est source d’enrichissements sémantiques mutuels. Mais ces enrichissements ne sont pas sans excès, sans erreur, sans ridicule, sans contresens de tous ordres.
Or, aujourd’hui, via les réseaux sociaux, notamment, les mots tuent : par exemple, des adolescents convaincus, en quelques phrases, de mettre fin à leur vie. Aujourd’hui, les slogans tiennent lieu de politiques publiques, les tweets retournent des opinions, les vociférations étouffent le dialogue, les fake news prolifèrent.
C’est pourquoi traquer les emplois inappropriés de termes dans le numérique s’apparente à une œuvre de salubrité publique, tant les mots sont devenus des armes redoutables.
Pour illustrer modestement cette traque, nous avons sélectionné 26 termes – un par lettre de l’alphabet – qui, selon le cas, soulèvent des problèmes d’étymologie, de sens, d’acception ou d’usage. Nous les illustrons par autant de petits textes, volontairement hétérogènes en longueur, en objet et en propos. Ces textes constituent une alphabétisation partielle du numérique et de l’informatique. Ils ne prétendent rien d’autre que de proposer un éclairage sémantique et historique sur quelques termes que le numérique met à l’honneur. Le choix même des termes est arbitraire et ne porte pas sur les plus courants. Ainsi, le « A » ne concerne pas « Algorithme », par exemple, mais « Appairer ».
Puissent ces textes faire appréhender quelques mots du numérique sous un jour différent, plus précis, plus ludique, parfois plus inquiétant, dans ce qui sous-tend leur généralisation d’emploi, avec pour unique souci de susciter la réflexion et la mesure dans l’emploi de termes dont la puissance n’a d’égale que le danger de se fourvoyer quant à leurs acceptions.
Yves Bertrand, professeur des universités à l’université de Poitiers ; avec la complicité graphique de Frédéric Havet, directeur de recherche au CNRS.
Voir aussi L’informatique de A à Z, un abécédaire du numérique sur notre site ami interstices.info.
L’article Alphabestiaire du numérique et de l’informatique est apparu en premier sur Blog binaire.
Publié le 01.04.2026 à 20:26
Après les moins de 15 ans, le Sénat veut interdire les réseaux sociaux aux plus de 50 ans
Après la pression des politiques pour qu’il y ait une obligation de passer une visite médicale appliquée aux chauffeurs et chauffeuses de plus de 70 ans, la restriction de liberté pour les seniors passe un nouveau cap avec cette proposition de loi du Sénat, dont nous reprenons le résumé du site de référence Korben :
- Le Sénat propose de limiter les réseaux sociaux aux personnes de plus de 50 ans qui réussiraient un QCM de 40 questions tous les 2 ans en préfecture. L’excuse avancée : 67 % des fake news sur Facebook en France viendraient de ce groupe d’âge.
- Les seniors contrevenants devraient effectuer 20 heures de « travaux d’intérêt numérique » (aider à configurer des imprimantes, installer des logiciels).
- Évidemment, les élus sont dispensés du test.
- Les plateformes risquent une amende pouvant aller jusqu’à 1 % de leur chiffre d’affaires mondial (1,3 milliard pour Meta) si elles ne vérifient pas l’âge de leurs utilisateurs seniors.
Binaire s’associe à la diffusion de cette information que nous jugeons aussi liberticide que l’interdiction au moins de 15 ans. Nous invitons à lire le texte intégral sur le site Korben.
L’article Après les moins de 15 ans, le Sénat veut interdire les réseaux sociaux aux plus de 50 ans est apparu en premier sur Blog binaire.
Publié le 27.03.2026 à 07:42
La maturité métacognitive : la variable manquante de la gouvernance de l’IA

Le postulat silencieux
Les cadres contemporains de gouvernance de l’IA reposent sur un présupposé rarement rendu explicite : lorsqu’un opérateur humain reçoit l’output d’un système d’IA, il est en mesure de l’évaluer de manière significative. Les dispositions de l’AI Act européen relatives aux systèmes à haut risque exigent la transparence, l’explicabilité et la supervision humaine. Le plan d’action américain sur l’IA appelle au maintien d’un contrôle humain significatif sur les décisions d’IA à conséquences importantes. Les principes de l’OCDE sur l’IA inscrivent le centrage sur l’humain au cœur de ses engagements.
Ces engagements sont nécessaires — mais insuffisants. Ils portent sur ce que les systèmes d’IA doivent fournir aux opérateurs humains et laissent entièrement sans réponse la question de ce que ces derniers doivent être capables de faire pour agir sur ce qu’ils reçoivent. Cette lacune n’est pas accidentelle. C’est un angle mort structurel dans l’architecture actuelle de la gouvernance de l’IA.
Les cadres de gouvernance demandent aux systèmes d’IA de s’expliquer. Ils ne disent rien sur la capacité des humains à comprendre ces explications.
Le modèle implicite du superviseur humain dans la plupart des textes réglementaires est celui d’un professionnel compétent et attentif qui, face à des outputs précis et lisibles, formule des jugements éclairés. C’est une hypothèse plausible dans des environnements stables, à faibles enjeux et bien maîtrisés, mais une hypothèse fragile dans des contextes à forts enjeux, soumis à la pression temporelle et techniquement opaques — précisément les contextes dans lesquels les systèmes d’IA sont de plus en plus déployés.
Ce que nous apprenons des sciences cognitives
La métacognition — la capacité à monitorer et réguler ses propres processus cognitifs — est le substrat psychologique d’une supervision efficace. Ce n’est ni un trait de personnalité ni un indicateur de valeur. C’est une compétence situationnelle, sensible au contexte, à la formation, à la charge cognitive et aux conditions de travail. Un opérateur métacognitivement averti sait quand il comprend quelque chose, quand il conjecture, et quand son jugement est façonné par des facteurs qu’il n’a pas consciemment enregistrés. Cette capacité ne peut pas être présumée ; elle varie significativement selon les individus, les formations et les pressions situationnelles.
La recherche en interaction humain-automatisme a documenté un ensemble de modes de défaillance qui émergent spécifiquement lorsque des humains supervisent des systèmes automatisés ou alimentés par l’IA. Le biais d’automatisation — la tendance à surpondérer les recommandations générées par la machine par rapport à son propre jugement — est l’un des résultats les plus robustes du domaine. Dans une étude fréquemment citée, Parasuraman et Riley (1997) ont montré que les humains mésusent (c’est-à-dire font un mauvais usage ou utilisent de manière inadéquate ou inappropriée) systématiquement de l’automatisation en l’appliquant là où elle est peu fiable, et la délaissent là où elle serait bénéfique — deux types d’erreurs qui reflètent un défaut d’étalonnage métacognitif plutôt qu’un défaut de provision d’information [1].
Le défi est aggravé par les caractéristiques propres aux systèmes d’IA contemporains. Le cadre de la cognition à double processus de Kahneman offre une grille de lecture utile : les outputs produits par des systèmes d’IA générative fluides et confiants activent le traitement rapide et associatif du Système 1, contournant l’évaluation plus lente et délibérée du Système 2 [2]. Une explication qui paraît plausible suscite des réponses cognitives différentes de celles qu’induit une explication qui l’est vraiment. Lorsque les explications des systèmes d’IA sont synthétiquement fluides, numériquement précises et visuellement formatées comme des outputs faisant autorité, elles suppriment précisément le scepticisme que nécessite une supervision significative [3,4].
Peut-être de manière contre-intuitive, fournir davantage d’explications n’améliore pas de manière fiable le jugement humain des résultats d’IA. Bansal et al. (2021), dans une étude expérimentale rigoureuse, ont constaté que les explications produites par l’IA n’amélioraient pas systématiquement les performances de l’équipe humain-IA, et les dégradaient dans plusieurs conditions — notamment lorsque les explications étaient techniquement exactes mais cognitivement incompatibles avec la manière dont les opérateurs formaient leurs propres jugements [5]. L’explicabilité est une condition nécessaire, mais insuffisante, d’une supervision efficace (voir l’article introductif de l’autrice ici sur Binaire). Ce qui réduit l’écart entre les deux, c’est la maturité métacognitive.
Fournir davantage d’explications n’améliore pas de manière fiable le jugement humain. Ce qui réduit l’écart, c’est la maturité métacognitive.
Trois implications pour la gouvernance
Cette analyse issue de la recherche à trois implications en matière de gouvernance. Si la maturité métacognitive est une propriété réelle et variable des opérateurs humains, alors les cadres de gouvernance qui imposent l’explicabilité sans s’intéresser à la métacognition des opérateurs sont tout simplement incomplets. Selon les travaux de la littérature scientifique — parmi lesquels ceux de l’IA explicable, de l’interaction humain-automatisme, des sciences cognitives, de la psychologie, des sciences humaines et sociales —, trois implications sont brièvement résumées ici : un constat, un écart et une hypothèse. Les détails sont disponibles dans l’article complet.
« Interaction humain-automatisme » est la traduction française de Human-Automation Interaction (HAI) ou Human Factors in Automation — un champ distinct du domaine de l’Interaction Humain-Machine. Issu de la psychologie ergonomique et des sciences de l’ingénieur, il s’intéresse à la manière dont les humains supervisent, font confiance et délèguent à des systèmes automatisés dans des contextes à forts enjeux : aviation, nucléaire, médecine, défense.
Première implication, le résultat : la transparence centrée sur la documentation est insuffisante. Ce n’est pas une intuition : c’est ce que la recherche montre depuis trente ans. Ainsi, documenter et expliquer le comportement d’un système ne suffit pas à garantir de bonnes décisions humaines sans 1) impliquer les individus dans les processus de conception de ces explications et de cette documentation et 2) prendre en compte le contexte du besoin métier à l’instant t. Des études contrôlées ont même montré que “trop d’explications” peuvent dégrader la performance de l’équipe humain-IA en noyant l’information pertinente dans le bruit.
Deuxième implication, le gap : la qualification métacognitive des opérateurs devrait être considérée comme une composante de la gouvernance IA. Il s’agit ici d’un gap que la recherche a commencé à nommer, sans qu’aucun référentiel n’ait encore été formalisé. Plus concrètement, les textes réglementaires comme l’AI Act exigent que les superviseurs humains soient « compétents », mais sans jamais définir ce que cela signifie — et, en particulier, aucun référentiel n’évalue ce que les chercheurs appellent la compétence métacognitive, soit la capacité à détecter les défaillances de son propre raisonnement face à un système opaque, une compétence qui relève de la formation et du contexte, pas de l’intelligence brute. Une précision importante s’impose ici. Parler de la qualification métacognitive des opérateurs ne revient pas à remettre en cause la valeur ou l’intelligence des personnes qui supervisent des systèmes d’IA. Il ne s’agit pas non plus de classer les humains selon leur capacité à « bien penser ». Comme la métacognition n’est ni un trait de personnalité ni un indicateur de valeur, mais une compétence situationnelle, elle est donc sensible au contexte, à la formation, à la charge cognitive et aux conditions de travail. Par exemple, un chirurgien expérimenté peut présenter un excellent étalonnage métacognitif dans son domaine et être tout aussi vulnérable au biais d’automatisation qu’un débutant face à un système d’IA opaque dans un contexte pour lequel il n’a reçu aucune formation spécifique.

Troisième implication, notre hypothèse : les compétences métacognitives — savoir ce qu’on comprend, détecter ses propres erreurs de raisonnement, réguler ses stratégies cognitives — varient selon les individus et ne sont pas uniformément réparties au sein de la population, ce qui crée un risque structurel pour la sécurité. Il s’agit d’une hypothèse, formulée à partir de travaux menés en psychologie de l’éducation, qui n’a pas encore été étudiée dans le contexte de la gouvernance de l’IA. C’est peut-être le prochain axe de recherche que les gouvernements devraient encourager activement. En effet, si les organisations les mieux dotées en moyens matériels et en ressources humaines peuvent satisfaire aux exigences de supervision réelle, celles qui n’en ont pas — non pas parce que leurs personnels seraient moins capables, mais parce que les conditions permettant le développement de cette compétence situationnelle n’ont pas été réunies — produiront une conformité de façade, insuffisante, générant une fausse sécurité particulièrement dangereuse dans les domaines critiques.
Conclusion
Le problème central identifié dans cette note n’est pas un manque d’ambition des cadres de gouvernance existants. L’AI Act européen [6], les principes de l’OCDE sur l’IA [7] et le plan d’action américain expriment tous des engagements forts en faveur de la supervision humaine et du contrôle significatif. Le problème est une lacune structurelle entre ce que ces cadres exigent des systèmes d’IA et ce qu’ils exigent des humains qui les supervisent.
Combler cette lacune nécessite de traiter la maturité métacognitive non pas comme une préoccupation périphérique relevant des « facteurs humains », mais comme une variable constitutive d’une supervision efficace de l’IA — une variable empiriquement étudiable, opérationnellement pertinente et inégalement répartie entre les institutions que la gouvernance de l’IA est censée protéger. Tant qu’elle ne sera pas intégrée à l’architecture formelle de la réglementation, la « supervision humaine » restera une déclaration d’intention plutôt qu’une garantie de sécurité.
Ikram Chraibi Kaadoud, PhD (she/her), Chercheuse XAI & sciences cognitives
LinkedIn I HAL I https://ikramchraibik.com/
Cet article est une adaptation grand public d’une note d’orientation publiée en anglais par l’autrice sur la plateforme Substack : https://substack.com/home/post/p-190513060
Un article dont la mise en forme (uniquement !) a utilisé une solution d’IA générative.
Pour aller plus loin :
1 Parasuraman, R., & Riley, V. (1997). Humans and automation : Use, misuse, disuse, abuse. Human Factors, 39(2), 230–253. https://doi.org/10.1518/001872097778543886
2 Kahneman, D. (2011). Thinking, Fast and Slow. Farrar, Straus and Giroux. Le cadre de la cognition à double processus distingue le traitement rapide et associatif (Système 1) du traitement lent et délibéré (Système 2), avec des implications importantes pour la manière dont les humains répondent aux outputs automatisés à forte confiance apparente.
3 Tankelevitch, L., Kewenig, V., Simkute, A., Scott, E.A., Sarkar, A., Sellen, A., & Rintel, S. (2024). The
Metacognitive Demands and Opportunities of Generative AI. Proceedings of the CHI Conference on Human Factors in Computing Systems. https://doi.org/10.1145/3613904.3642902
4 Alter, A.L., & Oppenheimer, D.M. (2009). Uniting the tribes of fluency to form a metacognitive nation. Personality and Social Psychology Review, 13(3), 219–235.
5 Bansal, G., Vaughan Ngyuen, T., Vaughan, J. W., Weld, D., & Lasecki, W. S. (2021). Does the Whole Exceed Its Parts? The Effect of AI Explanations on Complementary Team Performance. Proceedings of the 2021 CHI Conference on Human Factors in Computing Systems. https://doi.org/10.1145/3411764.3445717
6 Parlement européen. (2024). Règlement (UE) 2024/1689 — Loi sur l’intelligence artificielle (AI Act). Articles 13 (Transparence), 14 (Supervision humaine), Annexe III (Systèmes d’IA à haut risque).
7 OCDE. (2024). Principes de l’OCDE sur l’IA. Principe 1.4 : Centrage sur l’humain et supervision humaine. https://oecd.ai/en/ai-principles
L’article La maturité métacognitive : la variable manquante de la gouvernance de l’IA est apparu en premier sur Blog binaire.
Publié le 13.03.2026 à 07:53
Comment entraîner un modèle massif de langage
Il était une fois de grands et bien lourds modèles massifs de langage états-uniens à la Goliath, qui ont été ridiculisés par un astucieux modèle de langage chinois, à la David. Ah, non. David, c’est lui qui va nous raconter l’histoire de ce David :
Pour approfondir la réflexion ou préciser quelques points, lisons les notes partagées en plus de la vidéo.
L’article Comment entraîner un modèle massif de langage est apparu en premier sur Blog binaire.
Publié le 06.03.2026 à 07:17
Lonni Besançon, chercheur le jour, détective de la science la nuit
Bonjour Lonni, on te dit chercheur le jour, détective la nuit 
1 – Résume-nous déjà ce que tu fais le jour.
Le jour, je suis chercheur en visualisation de données à l’Université de Linköping, en Suède. J’ai fait ma thèse en interaction homme-machine (IHM) à l’Université Paris-Saclay, sous la direction de Tobias Isenberg (Inria), sur l’interaction avec des visualisations de données scientifiques. Puis j’ai passé plusieurs années en Suède, suivies d’un passage en Australie à Monash University, avant de revenir en Suède. Aujourd’hui, mon travail porte sur trois axes principaux.
D’abord, l’utilisation de technologies immersives, telles que la réalité augmentée, pour faciliter l’analyse de données complexes. Avec l’un de mes doctorants à Monash, nous avons par exemple développé un système de réalité augmentée pour les autopsies, permettant aux médecins légistes de visualiser les données médicales en trois dimensions directement sur le lieu de l’examen (on en parle ici dans Binaire).
Ensuite, je travaille sur la combinaison des grands modèles de langage (LLM) avec la visualisation de données, pour rendre l’analyse de données plus accessible et interactive.
Enfin, je m’intéresse beaucoup à l’analyse statistique et à la communication des résultats scientifiques. Cette passion pour la transparence et la rigueur des données m’a d’ailleurs conduit à mon autre activité…
En Suède, le système académique est particulier : tout repose sur l’obtention de financements externes au laboratoire. Tant que tu décroches des bourses, on t’ouvre des postes. Mais cela signifie qu’on est constamment à la recherche de financement pour son salaire et pour ses étudiants. J’ai déjà fait une quinzaine de demandes de financement ! Malgré cette pression, la recherche ici, en Suède, reste passionnante !
2 – Te voilà donc aussi devenu détective …
Tout a commencé pendant la pandémie de COVID-19. J’étais en Suède, et comme beaucoup d’entre nous, je passais beaucoup de temps en ligne. Un collègue de l’INRIA, Pierre Dragicevic (Inria Bordeaux), m’avait toujours encouragé à poser des questions, à être curieux, et c’est ce que j’ai fait pendant cette période de confinement avec mon temps libre: j’ai laissé ma curiosité pour comprendre le COVID me guider vers les travaux scientifiques en lien avec le sujet : comment on fait de la recherche sur ce sujet ? Comment sont faites les statistiques ? Quelles données ont été utilisées et d’ou viennent-elles ? Sont-elles accessibles ?
C’est ainsi que je suis tombé sur les articles du Pr. Didier Raoult, sur l’hydroxychloroquine. Je le connaissais déjà avant le COVID. En lisant ces papiers, j’ai vu que les statistiques et la méthode étaient inadéquates. Cela a été confirmé par d’autres chercheurs indépendamment, dont Elisabeth Bik, pour ne nommer qu’elle.
Je me suis dit : « Ce serait bien d’automatiser la détection de problèmes dans les documents et d’en faire un article scientifique. » Ce que j’ai fait (comme on le lit ici). J’ai fini par évaluer, dans le cadre d’une démarche de peer review, plusieurs centaines d’articles liés à la COVID-19. Je ne m’attendais absolument ni à un tel résultat ni à l’impact que cela aurait, (comme on le lit ici sur Binaire).
Le matin, je faisais mes recherches en visualisation. Le soir et les week-ends, je me plongeais dans la détection de fraudes et la lutte contre la désinformation.
3 – Pourquoi faire ce travail dit d’intégrité scientifique ?
L’intégrité scientifique, c’est l’ensemble des règles et des valeurs qui garantissent que la recherche scientifique est honnête et rigoureuse. C’est le socle de la confiance que la société accorde à la science.
Qu’on le reconnaisse ou non, le système académique actuel favorise les raccourcis. Attention : il y a très peu de triche, mais de petits raccourcis qui peuvent nuire gravement à l’intégrité. Il y a énormément de pression sur les jeunes chercheurs qui doivent toujours produire davantage de publications, de meilleures conférences, davantage de résultats, davantage de collaborations, etc. Il y a tellement de postulants pour les postes, les bourses, pour si peu de places qu’il devient compliqué de juste bien faire son travail, à savoir la bonne recherche.
En plus, comment faire les choses correctement avec de moins en moins d’argent dans le secteur public ? En Suède, par exemple, on fait appel à des fondations pour financer la recherche, en plus des dépôts de dossiers auprès des fonds nationaux et internationaux/européens. En France, on dépose des dossiers pour obtenir des fonds nationaux ou européens, sous une pression comparable.
C’est donc l’ensemble de ce système qui met de la pression et qui peut encourager des raccourcis. Ces derniers peuvent devenir des fraudes et parfois, sans le savoir, le chercheur passionné glisse et devient chercheur biaisé, voire fraudeur.
Une fois qu’on est sensibilisé et qu’on commence à contribuer à changer les choses, l’équation se complexifie : pour changer le système, il faut être légitime, donc continuer d’exister dans ce même système tout en ajoutant un deuxième travail pour essayer de le changer. Et si on ne joue pas le jeu, on perd. Je connais même un chercheur qui refuse désormais de prendre des doctorants car, éthiquement, il ne peut plus leur garantir que le système leur fera de la place.
4 – Heureusement, tu n’es pas tout seul dans ce combat ?
Absolument pas ! La communauté a beaucoup plus de poids que les organisations. Il existe tout un réseau de personnes engagées en faveur de l’intégrité scientifique.
Il y a, par exemple, Guillaume Cabanac (interviewé ici pour Binaire), professeur d’informatique à l’Université de Toulouse et membre de l’Institut Universitaire de France. Avec Cyril Labbé de Grenoble et Alexander Magazinov, il a créé le logiciel « Problematic Paper Screener » qui détecte automatiquement les articles frauduleux en repérant les « expressions torturées » – ces traductions maladroites qui trahissent le plagiat, comme « conscience contrefaite » pour « intelligence artificielle » ! Guillaume a constitué un « collège invisible » d’une centaine de personnes – chercheurs et amateurs – qui traquent ensemble les fraudes. Nature l’a d’ailleurs désigné comme l‘un des dix scientifiques qui ont le plus marqué la science en 2021.
Il y a aussi Elisabeth Bik, la précurseuse incontournable, microbiologiste néerlandaise qui a quitté son emploi rémunéré pour se consacrer à plein temps à la détection d’images manipulées dans les publications scientifiques. Elle a analysé plus de 17 000 papiers et découvert qu’environ 4% contiennent des images dupliquées de manière inappropriée. Son travail d’assainissement de la recherche devrait être considéré comme essentiel – on a besoin d’une base saine pour la science !
Il y a également des non-scientifiques aussi, comme Kevin Patrick avec PubPeer, qui a avoué il y a deux ans n’avoir aucun background scientifique mais une vraie passion pour la science.
Et puis, il y a des événements comme la WCRI (World Conference on Research Integrity) ou les REC (Rencontres des Échanges Critiques), organisés à Toulouse l’année dernière par une petite équipe menée par Willy Lafran pour favoriser les échanges entre chercheurs et le grand public. L’OSF (Open Science Framework), fondé par Bryan Nosek, est également crucial.
Quand Elisabeth Bik a été poursuivie par Didier Raoult, nous avons écrit une lettre ouverte qui a rassemblé 2 300 signatures et a été relayée par The Guardian. Victor Garcia fait aussi un travail remarquable sur ces questions.
Guillaume Cabanac a créé un Slack appelé le « Collège Invisible » où des chercheurs qui veulent travailler ensemble sur ces sujets peuvent se retrouver. On peut le rejoindre après vérification de ses antécédents, pour se protéger mutuellement.
Mais ce combat a un coût humain énorme. Un ancien doctorant en Suisse, Solal Pirelli, a été poursuivi par la justice suisse suit à une plainte d’un chercheur jordanien. C’est très inquiétant pour la liberté de la critique scientifique.
Le combat peut aussi avoir un coût financier non négligeable : l’université et les labos sont contents quand les médias parlent de leurs chercheurs, mais ils ne veulent pas, ou ne peuvent pas, financer ou s’engager quand c’est difficile. Par exemple, aujourd’hui, je dois financer mes frais d’avocats seul.
5 – Et au-delà, quel est ton message à partager ?
Mon message est clair : il faut changer la façon dont on fait de la recherche. Plus collaborative, moins compétitive, moins de course à la publication, être ouvert à un examen réel de ce qu’on fait, et valoriser d’autres choses que la simple publication.
Le système actuel est conçu pour glorifier une personne. Un chercheur devient une marque avec un marché à satisfaire. L’université t’engage à rapporter des crédits via ta marque. Or, le système ne devrait pas privilégier des personnes, mais des travaux.
J’ai eu beaucoup de désillusion pendant mes premières années de recherche. On nous vend la collaboration, mais en réalité, il y a un véritable manque de collaboration entre chercheurs. La France s’en tire malgré tout mieux que d’autres pays : les chercheurs n’ont pas autant le couteau sous la gorge.
Le cas d’Elisabeth Bik est exemplaire : elle a arrêté sa carrière traditionnelle pour se consacrer uniquement à ce travail d’assainissement de la recherche. C’est fondamental d’avoir une base de données scientifique saine !
Sur les LLM et l’IA générative, c’est l’angoisse ! Il y a déjà des instructions dans les prompts pour écrire « en blanc » dans un document, de sorte que ce n’est pas visible à l’œil humain, mais entièrement accessible à l’IA, afin de tromper les détections. En réalité, on n’attrape que ceux qui ne trichent pas bien, en quelque sorte, ou ceux qui ne prennent pas le temps, alors que tous ceux qui prennent le temps de bien tricher ne sont, pour l’instant, pas attrapés. Heureusement, des techniques émergent. Par exemple, les LLM favorisent l’utilisation de certains mots plutôt que d’autres, ce qui se détecte aujourd’hui plus facilement. Mais il faut l’avouer : c’est un jeu de chat et de souris sans fin.
Ce qu’il faut bien comprendre, c’est que les scandales érodent la confiance dans la recherche, alors qu’on en a actuellement besoin. Il faut faire le travail de mettre en avant le métier de chercheur et les travaux scientifiques. Il faut qu’on arrête la course à la publication, c’est ce qui nuit le plus à la recherche et aux chercheurs, et c’est ce qui broie les jeunes générations.
Mes conseils pour les jeunes qui voudraient s’engager en faveur de l’intégrité scientifique ?
C’est une question difficile, parce que c’est dur. Vraiment dur. D’abord, ne jamais accuser directement. Si on a des doutes, on dit qu’on a des doutes. Si on a identifié des points problématiques, on les présente de manière factuelle. Ne pas penser que vous êtes tous seuls. Il existe plein de chercheurs en pleine galère qui font ce travail. Rejoignez le « Collège Invisible » de Guillaume Cabanac sur Slack ou contactez les chercheurs que vous savez intéressés par ces questions.
Si vous voulez vous protéger et protéger votre carrière, il peut malheureusement être nécessaire de signaler anonymement. On devrait pouvoir poser des questions sans avoir peur, mais ce n’est malheureusement pas le cas.
Pour les organismes et les labos, mes conseils sont de proposer des formations récurrentes et des rappels sur ce qu’est l’intégrité scientifique, de se rapprocher des bibliothèques universitaires, car les bibliothécaires savent souvent mieux que les chercheurs en ce qui concerne les problèmes d’intégrité scientifique, et enfin de protéger les lanceurs d’alerte !
Comment signaler un papier pour fraude ? En général, on fait les trois choses suivantes :
- Envoyer un mail à l’éditeur du journal
- Contacter la cellule d’intégrité scientifique de l’institution
- Poster un commentaire sur PubPeer
Attention, les fausses signalisations existent aussi. C’est facile de dire que c’est faux, mais vérifier prend énormément de temps, surtout quand les éditeurs ne sont pas du domaine. Le retour de bâton existe : depuis que j’ai signalé les articles de Raoult, tous mes articles sont systématiquement signalés pour fraude. C’est une forme de représailles.
Malgré tout, je reste fier de mon service à la science et à la société. Le combat est rude et parfois solitaire, mais il en vaut la peine. Pour la science, pour la confiance du public et pour les futures générations de chercheurs !
Propos recueillis pour le blog Binaire par Ikram Chraibi Kaadoud et Thierry Viéville.
Pour aller plus loin :
- Interview de Guillaume Cabanac dans Binaire : « Des algorithmes pour la chasse à la fraude scientifique »
- Article Nature sur Lonni Besançon : « The COVID-19 pandemic transformed this scientist into a research-integrity sleuth »
- PubPeer : plateforme d’évaluation post-publication des articles scientifiques
- Problematic Paper Screener de Guillaume Cabanac
- Science Integrity Digest d’Elisabeth Bik
L’article Lonni Besançon, chercheur le jour, détective de la science la nuit est apparu en premier sur Blog binaire.
Publié le 27.02.2026 à 06:58
Affaire CrowdStrike : vent arrière pour l’impunité sur les bugs logiciels…
______ Selon le droit américain, pour conclure à une tromperie des investisseurs, il faut trois conditions : • Que la fausse déclaration ou une omission soit liée à l’achat ou à la vente d’un titre ; C’est Thomas P. DiNapoli, le comptroller de l’État de New York, qui a porté plainte en ce sens contre Crowdstrike devant un juge à Austin, au Texas. Cette plainte s’est transformée en action collective (class action). Un comptroller est la personne qui supervise les audits, les finances de l’État et les investissements du fonds de retraite public de New York (environ 270 milliards de dollars). Il a été débouté de bout en bout, ce qui soulève des interrogations sur l’impunité des entreprises qui mettent sur le marché des produits trop vite, en y laissant des défauts persistants Déclarations erronées et omissions. Les plaignants, Di Napoli et ceux qui se sont joints à sa plainte, ont d’abord soutenu que CrowdStrike avait induit les investisseurs en erreur en vantant une « équipe d’assurance qualité » chargée des tests, ce qui, selon eux, n’a visiblement pas fonctionné. La cour a rejeté cet argument : d’une part, aucun investisseur raisonnable ne se serait fondé sur cette phrase isolée pour une décision d’investissement, d’autre part, le juge retenu l’argumentation de Crowdstrike selon laquelle il s’agissait de test d’accessibilité (à comprendre au sens d’ergonomie et de facilité d’utilisation), et pas de tests liés aux mises à jour logicielles.
Crowdstrike a alors soutenu que les plaignants avaient extrait ces déclarations de leur contexte, argument auquel la cour a fait droit :
La cour conclut qu’aucun investisseur raisonnable n’aurait pu interpréter ces propos comme des garanties relatives aux tests internes de CrowdStrike ; les six allégations sont dès lors rejetées faute de démonstration de fausseté ou de caractère trompeur ______ Déclarations concernant les tests et/ou les mises à jour logicielles Les plaignants ont contesté cinq déclarations de CrowdStrike relatives aux tests et mises à jour logicielles, les qualifiant de fausses ou trompeuses. Crowdstrike a toutefois répliqué que les plaignants confondaient le test du logiciel en tant que tel avec le test de l’évaluation de son efficacité à détecter les menaces. D’ailleurs, un investisseur s’intéresse avant tout à la question de savoir si le produit de Crowdstrike est efficace et s’il a été testé en ce sens. Même une déclaration d’un autre responsable selon laquelle le logiciel ne provoquera jamais d’écran bleu de la mort n’a pas été retenue par la cour : il s’agissait d’une simple exagération que tout investisseur sérieux ne considérerait pas comme déterminante pour l’acquisition d’actions Crowdstrike. En outre, les rapports annuels 2023 et 2024 de CrowdStrike avertissaient déjà abondamment les investisseurs des risques tels que les interruptions de service, les erreurs logicielles, les défauts, les déploiements incorrects et la faible tolérance client aux pannes — en mentionnant explicitement des incidents passés ainsi que des risques futurs potentiels. Ces mises en garde rendaient improbable la confiance d’un investisseur dans une simple remarque optimiste, la rendant, de ce fait, (même si c’est un peu un sophisme) non trompeuse. ______
Les plaignants critiquent enfin les rapports annuels 2023-2024, qui indiquent que le personnel technique surveille et teste le logiciel régulièrement. La Cour considère toutefois ces déclarations comme de simples affirmations générales non actionnables, qui ne portent pas spécifiquement sur les mises à jour automatisées ni sur des tests réalisés selon des protocoles traditionnels. Un investisseur raisonnable aurait bien compris que des mises à jour rapides et automatisées ne sont pas nécessairement soumises aux mêmes procédures de test qu’un nouveau logiciel. Finalement, la cour ne donne tort à Crowdstrike sur la non-existence d’une équipe assurance qualité distincte qui était obligatoire pour faire partie des fournisseurs officiels de l’administration fédérale US (FedRAMP) et du Pentagone.______
Les leçons pour ne pas se faire pincer (car c’est bien cela !) Si Crowdstrike s’en sort relativement bien ici, ce cas rappelle aux entreprises technologiques l’importance d’une communication rigoureuse et cohérente. Chaque déclaration publique doit être précisément formulée : lorsqu’il est question de tests, d’assurance qualité ou de conformité, il convient de distinguer clairement les intentions de conception les résultats obtenus et les pratiques internes. Si les engagements portent sur les performances observées chez le client lors de l’utilisation du produit, cela doit être explicitement indiqué. Les entreprises devraient éviter les affirmations catégoriques telles que « nos tests sont exhaustifs » et privilégier des formulations plus mesurées, centrées sur les objectifs plutôt que des garanties (« nos procédures visent à minimiser les risques »). Une documentation détaillée des procédures internes et des processus décisionnels renforce par ailleurs la crédibilité des déclarations en cas de contestation juridique. Enfin, la coordination de la communication sur l’ensemble des canaux — rapports financiers, déclarations des dirigeants et supports marketing — est essentielle pour éviter toute incohérence susceptible d’être interprétée comme une fausse déclaration. L’ordonnance du juge Pitman accorde aux plaignants un délai très court, jusqu’au 26 janvier 2026 (pas de nouvelles depuis), pour modifier leur plainte. Ils devront rapidement déterminer s’ils sont en mesure d’apporter de nouveaux éléments factuels ; à défaut, une nouvelle version risquerait seulement de retarder un rejet définitif. L’ordonnance du juge Pitman laisse aux plaignants un délai très court, jusqu’au 26 janvier 2026, pour modifier leur plainte. Ils doivent rapidement déterminer s’ils peuvent réunir de nouveaux éléments factuels ; à défaut, une nouvelle tentative risquerait seulement de retarder un rejet définitif.____ Charles Cuvelliez (ULB), Goedele Van de Plas (Aéroport de Bruxelles), Jean-Jacques Quisquater (UCL) Pour en savoir plus : In the United States District Court for the Western District of Texas Austin division – Order 1:24-CV-857-RP |
L’article Affaire CrowdStrike : vent arrière pour l’impunité sur les bugs logiciels… est apparu en premier sur Blog binaire.
Publié le 20.02.2026 à 07:06
Élaguer le beau pour laisser place à l’extraordinaire

« Élaguer le beau pour laisser place à l’extraordinaire » fait allusion au tri cognitif qui protège l’instant rare où le sens clinique émerge : on parle d’insight. Voyons alors l’impact de l’IA sur un tel travail d’expertise.
De la souveraineté cognitive face à l’IA.
Ainsi, l’enjeu cesse d’être purement technique pour devenir épistémologique. Comment préserver la souveraineté cognitive du clinicien dans un environnement où l’information circule plus vite que la conscience ne peut l’intégrer ?
Car l’IA n’a de valeur que comme amplificateur du jugement humain. Les meilleures performances émergent lorsque les experts critiquent, ajustent et supervisent activement les propositions émanant des systèmes, plutôt que de les suivre passivement.
Dans cet ordre d’idées, une IA utile n’est donc pas celle qui « décide » mais celle qui soutient le praticien sans fragmenter son flow, sans alourdir sa charge mentale, sans troubler cette dynamique silencieuse qui sous-tend l’expertise. Car c’est précisément de cette alliance entre l’intelligence humaine et l’intelligence computationnelle que dépendra la possibilité d’une médecine vraiment augmentée : plus sûre, plus juste, plus lucide.
En médecine, décider revient d’abord à réduire la complexité de manière sélective et à extraire quelques signaux pertinents d’un océan d’informations. Or, cette fonction repose sur des mécanismes massivement parallèles, tacites et énergétiquement coûteux. Le cerveau humain traite environ 11 millions de bits par seconde, mais la conscience n’en saisit qu’une cinquantaine1 : c’est dans cette asymétrie que se loge l’intuition clinique. Chaque praticien connaît cet instant presque lumineux où un diagnostic complexe émerge : des indices dispersés s’assemblent, les schémas convergent, une cohérence nouvelle apparaît. Dans cet état de flow, le clinicien évolue comme si le temps se suspendait, dans un espace où l’effort se dissout, où l’expertise opère à un niveau non verbal, implicite, profondément intégré.
Dans ces conditions, l’IA agit comme un amplificateur. Elle élargit la bande passante perceptive, réduit certains biais et structure des masses d’information que nulle cognition humaine ne pourrait embrasser seule. Dans le même temps, elle introduit une tension nouvelle : pour dialoguer avec des systèmes fondés sur le langage, le médecin doit verbaliser un raisonnement qui, par nature, n’est pas verbalisable. Cette traduction forcée crée un goulot d’étranglement au moment même où la pensée clinique est censée être la plus fluide. L’expertise médicale est silencieuse ; les modèles actuels l’obligent à parler.
Le véritable enjeu est donc la souveraineté cognitive. Comment maintenir le praticien dans un état décisionnel performant, proche du flow, tout en distribuant intelligemment la charge cognitive entre l’humain et la machine ? Comment éviter que l’IA, en multipliant les frictions verbales, n’en vienne à fragmenter un raisonnement fondamentalement parallèle et implicite ?
Un clinicien ne peut véritablement assumer sa responsabilité que s’il reste majoritairement engagé dans son système 12, ce mode rapide, intuitif, intégré, qui constitue la signature de l’expertise. Dès que l’outil numérique force un basculement prolongé vers le système 2, analytique, verbal, séquentiel, il crée une surcharge qui fragmente l’attention, ralentit le raisonnement et, paradoxalement, réduit la capacité du praticien à être pleinement responsable de ses décisions et de ses actions.
Demander à un médecin de travailler dans un environnement où ses ressources cognitives sont constamment dépassées est non seulement inefficace, mais constitue aussi une forme de déresponsabilisation fonctionnelle. Le système dit « vous êtes responsable » alors que l’architecture cognitive affirme l’inverse.
Dans les faits, trois problématiques apparaissent :
- Le praticien accepte le système malgré la surcharge et renonce progressivement à son état d’expertise, opérant en deçà de ses capacités intuitives.
- Le praticien refuse le système et continue à travailler « à l’ancienne », recréant un environnement compatible avec son mode de pensée, mais incompatible avec les exigences contemporaines en matière de données.
- La voie la plus exigeante et la seule réellement intégrative : préserver l’engagement en système 1 tout en collaborant efficacement avec l’IA. C’est la seule trajectoire où l’humain et la machine peuvent devenir complémentaires sans s’annuler mutuellement.
Cette troisième voie n’est pas la plus simple : elle demande de repenser en profondeur la conception des outils et la chorégraphie cognitive du flux clinique. Mais c’est la seule qui puisse permettre une médecine réellement augmentée, où l’expert reste expert et où l’IA amplifie sa compétence plutôt que d’épuiser les ressources de celle-ci.

L’allégorie du papillon.
On peut définir les exigences fondamentales auxquelles un flux de travail intégrant une IA doit satisfaire pour permettre à l’expertise clinique de s’exprimer pleinement. Un tel flux ne peut être conçu comme une simple chaîne de traitement algorithmique, mais comme une architecture cognitive continue, reliant les données à l’action clinique sans rupture perceptive ni déplacement du centre décisionnel. Il doit être pensé à partir du fonctionnement réel de l’expert, en respectant la manière dont l’intuition clinique se forme, se structure et se déploie dans l’action.
Une telle architecture implique de reconnaître que l’expertise humaine repose en grande partie sur des processus non verbaux, rapides et intégrés, fondés sur la reconnaissance de formes, l’extraction d’invariants et la tolérance à l’ambiguïté3. Contraindre ce raisonnement à une verbalisation séquentielle ou à des interfaces principalement textuelles introduit une friction cognitive qui altère le flow décisionnel. À l’inverse, un flux de travail adapté doit permettre à l’expertise implicite du praticien d’être progressivement structurée, transduite puis prolongée par l’IA, sans jamais la forcer à adopter un mode de raisonnement étranger à son fonctionnement naturel.
L’objectif n’est pas de transférer la décision à la machine, mais d’en amplifier la portée tout en préservant l’intuition experte, la souveraineté cognitive et la capacité du clinicien à produire du sens dans l’incertitude. Car toute décision humaine comporte une part irréductible de variabilité et de hasard, qui ne constitue pas une faiblesse à éliminer mais l’une des composantes essentielles de l’intelligence experte4.
Dans ce cadre, l’IA intervient comme un prolongement opérant du raisonnement clinique. Elle déploie, à partir d’une intuition structurée, des trajectoires d’action cohérentes, tandis que la validation finale demeure sous le contrôle du praticien. Cette validation devient fluide et immédiate lorsque les espaces cognitifs humains et artificiels ont été préalablement alignés, ce qui permet au clinicien de reconnaître la justesse d’une proposition sans avoir à en reconstruire analytiquement le cheminement.
La figure constitue la traduction visuelle de cette approche. Elle formalise une architecture de flux conçue non pas pour contraindre l’expertise, mais pour lui offrir un espace d’expression continu, de la perception implicite à l’action clinique. Elle illustre la façon dont une IA correctement intégrée peut prolonger le raisonnement expert sans en altérer la dynamique intime. La morphologie même de cette architecture, faite de convergences, de zones de transduction et de déploiements asymétriques, évoque la structure d’un papillon. Loin d’être fortuite, cette forme reflète la sensibilité du raisonnement expert aux conditions initiales, où de légères variations perceptives peuvent produire des effets décisionnels majeurs. C’est pour cette raison que nous avons choisi de désigner cette architecture sous le nom d’« allégorie du papillon ».
La première composante de ce flux correspond au formatage du système-1/IA. À ce niveau, l’IA traite des données numériques hétérogènes issues de structures algorithmiques multiples et les reformate de manière à les rendre directement compatibles avec la cognition experte. Ce travail ne vise pas à enrichir artificiellement l’information, mais à la présenter sous une forme immédiatement exploitable par le système 1, fondée sur la reconnaissance d’invariants (mieux définir ou expliquer) plutôt que sur l’analyse explicite.
L’extraction des invariants experts constitue le socle cognitif en amont du processus. Elle relève exclusivement du travail perceptif et intuitif du clinicien, avant toute interaction avec l’IA opérante. Cette zone représente le réservoir implicite d’expertise dans lequel l’expert reconnaît spontanément des régularités à partir de configurations complexes. Elle concentre le stock de connaissances structurées et la capacité de projection matricielle.
La zone centrale du schéma correspond à la transduction expert/IA. Il s’agit du moment décisif où l’expertise humaine cesse d’être diffuse pour devenir transmissible. Dans cet espace de co-élaboration cognitive, l’expert ne verbalise pas intégralement son raisonnement, mais opère une saisie immédiate de l’essence de la situation, structurée par l’intuition et l’extraction d’invariants clés. L’interaction humain-machine y est volontairement minimale et fluide, afin de permettre la transduction de la quintessence de la pensée experte vers l’IA sans rupture cognitive. Alignée sur le fonctionnement du système 1, cette étape préserve la continuité perceptive de l’expert tout en rendant son jugement opérable. Par transduction, on entend le processus par lequel une information est transformée d’un registre à un autre sans en perdre le contenu essentiel, mais en en modifiant le mode d’expression.
À l’aval de cette transduction, se déploie la phase d’IA opérante. À partir des invariants cliniques extraits et projetés dans un espace formalisé compatible avec le système artificiel, l’IA n’agit plus comme un simple outil d’analyse, mais comme un prolongement fonctionnel du raisonnement expert. Le cône visuel de la figure traduit cette dynamique d’expansion contrôlée : depuis une représentation condensée et structurée, l’IA déploie des trajectoires d’action selon une logique matricielle linéaire, sans réintroduire une complexité inutile pour le clinicien. Les flux internes orientés vers l’action demeurent continus et non conflictuels, ne requérant ni verbalisation supplémentaire ni arbitrage conscient prolongé. L’intervention de l’IA se situe ainsi clairement dans le champ opératoire, en aval de la cognition experte, sans être en concurrence avec celle-ci.
La validation sans friction constitue l’étape finale de la supervision du processus. Elle correspond au moment où le praticien conserve pleinement la maîtrise du jugement clinique tout en bénéficiant du déploiement opérant de l’IA. À cette étape précise, le système a déjà transformé les invariants extraits en propositions d’action cohérentes, structurées et contextualisées. La validation n’intervient donc pas comme un contrôle analytique a posteriori, mais comme une reconnaissance immédiate de la pertinence du travail accompli. Cette facilité de validation repose sur l’alignement préalable des espaces cognitifs : les actions proposées prolongent la logique du raisonnement initial sans la déformer ni l’enrichir artificiellement. Le praticien reconnaît la justesse plus qu’il ne l’analyse. Le contrôle n’est pas abandonné : il est même renforcé par la réduction de la charge cognitive associée à la supervision. L’IA opère, le clinicien valide, et c’est dans cette continuité silencieuse entre la proposition algorithmique et le jugement clinique que se joue la véritable souveraineté cognitive.

Conclusion.
En conséquence, construire une véritable stratégie d’augmentation implique une révision conceptuelle profonde. Il faut repenser l’interface entre ces deux formes d’intelligence pour concevoir une architecture du choix à même de préserver la bande passante intuitive du praticien. L’échec de l’harmonisation à cet égard n’entraînerait pas l’obsolescence de l’expertise, mais un désentraînement progressif. L’expertise clinique repose avant tout sur un stock de connaissances hautement structurées, sur la reconnaissance des invariants, bien plus que sur une puissance de calcul brute5.
À l’inverse, une intégration juste pourrait transformer l’IA en une pompe cognitive : un dispositif capable d’activer des réseaux neuronaux plus larges, d’enrichir la perception, de concentrer l’énergie mentale du clinicien sur ce qu’il fait de mieux : discerner, synthétiser, produire du sens.
L’excellence clinique de demain dépendra de notre capacité à élaborer une grammaire de la collaboration humain/IA : une grammaire à même de reconnaître les limites métaboliques du cerveau, d’exploiter les forces computationnelles des machines et de protéger la capacité irremplaçable de l’intelligence humaine à créer du sens.
Victor Hugo écrivait au sujet de l’intuition que c’est « parce qu’elle est surhumaine qu’il faut la croire ; c’est parce qu’elle est mystérieuse qu’il faut l’écouter ; c’est parce qu’elle semble obscure qu’elle est lumineuse »6. C’est précisément cette lumière-là que l’IA doit amplifier, sans jamais l’éteindre.
Bibliographie :
1 : Fan J. An information theory account of cognitive control. Frontiers in Human Neuroscience. 2014 Sep 2;8:680. doi:10.3389/fnhum.2014.00680. PMID:25228875.
2 : Kahneman, Daniel. Système 1 / Système 2 : Les deux vitesses de la pensée. Traduction.
3 : Bilalić, Merim. The Neuroscience of Expertise. Cambridge : Cambridge University Press, 2017. ISBN 978-1107446519 (broché) ; ISBN 978-1107084599
4 : Boraud, Thomas. Matière à décision. Paris : CNRS Éditions, 2015. ISBN 978-2-271-08118-6.
5 : Kahneman, D. et Klein, G. Conditions for Intuitive Expertise: A Failure to Disagree. American Psychologist, 64(6), 515-526. 2009. https://doi.org/10.1037/a0016755.
6 : Hugo, Victor. William Shakespeare. Paris, A. Lacroix, Verboeckhoven et Cie, 1864, chapitre « Les Génies ».
L’article Élaguer le beau pour laisser place à l’extraordinaire est apparu en premier sur Blog binaire.
Publié le 13.02.2026 à 07:36
Fragilités du Numérique : la Sobriété au service de la Résilience
Antoine Rousseau (éditeur invité) et Thierry Viéville.
Scénario 1 : priorité à l’Adaptation
Premier scénario : on continue comme aujourd’hui et on oublie l’accord de Paris, pour le numérique comme pour les autres secteurs. Les études des spécialistes des sciences de l’environnement nous alertent sur le fait qu’on va progressivement continuer à aller vers un monde de plus en plus fluctuant composé d’évènements climatiques plus fréquents, de plus en plus imprévisibles et de plus fortes magnitudes, compromettant notre capacité à habiter la planète. On peut également s’attendre à une augmentation des tensions internationales, des ruptures d’approvisionnements des flux énergies et/ou matières nécessaires entre autres à la continuité des services numérique.
Parmi ces phénomènes, on peut par exemple citer la fragilité du numérique aux inondations (par remontée de nappes, débordement d’eau, submersion marine et ruissellement), à l’augmentation des températures, aux vagues de chaleur, aux vents extrêmes, aux tempêtes et aux feux de forêt, ou encore aux pénuries d’eau induisant des conflits d’usage. Il ne s’agit pas de sciences fictions, certains de ces événements se sont déjà produit récemment sur notre territoire : en aout 2025 l’incendie de l’Aude a détruit plus de 900 poteaux d’acheminement télécom, la tempête Alex dans le département des Alpes-Maritimes en 2020 a provoqué la rupture de réseaux filaires situés en bordure des 85km de routes emportées par les crues.
Pour imaginer un numérique résilient face à ces phénomènes, la première étape consiste à identifier et à cartographier l’ensemble des fragilités du numérique. L’ARCEP a publié en 2025 une première étude sur la résilience des réseaux de communication du territoire français. Il apparaît nécessaire de poursuivre ce type de travaux en englobant l’ensemble des infrastructures, des services numériques, des approvisionnements en équipements et en considérant également, bien entendu, les besoins en compétences nécessaires pour leur fabrication, leur réparation et leur maintien en conditions opérationnelles. Ces vulnérabilités doivent être identifiées sur tous les axes : climatiques, géostratégiques, cybersécurité, souveraineté, etc.
De plus, il ne faut pas oublier les dépendances du numérique. En effet, pour fonctionner il est dépendant d’autres infrastructures : des routes pour accéder aux sites, des alimentations électriques, en eau… Chaque vulnérabilité sur ces infrastructures est également une vulnérabilité pour le numérique, il faut identifier ces fragilités sur l’ensemble des chaînes de dépendances, y compris les dépendances extraterritoriales, puisqu’aujourd’hui nous utilisons majoritairement des ressources numériques hébergées dans des centres de données situés à l’étranger.
Il faut néanmoins s’attendre à ce que l’ensemble de ces vulnérabilités, notamment celles concernant les approvisionnements en énergie et en matière, remette en cause le paradigme actuel de croissance infinie du numérique et nécessite, par exemple, d’éteindre au moins temporairement une partie des infrastructures en cas de délestage électrique.
Scénario 2 : priorité à l’Atténuation
L’autre scénario, plus souhaitable, consiste à espérer un sursaut politique et technologique mondial rendant l’ensemble des secteurs, dont le numérique, soutenable au moins du point de vue climatique. Or, pour réduire les émissions de GES du numérique, comme dans d’autres secteurs, les gains d’efficacité ne suffisent pas. Il semblerait même d’après les dynamiques de croissance des impacts environnementaux du numérique, que les gains d’efficacités réguliers du secteur nous éloignent de sa trajectoire environnementale à cause des effets rebonds et des effets d’accélération. Il apparaît indispensable de cumuler ces gains d’efficacité avec la mise en œuvre de politiques de sobriété. Donc réglementer, réguler. C’est une autre vulnérabilité potentielle du paradigme de croissance « infinie » du numérique, liée cette fois aux évolutions réglementaires. Celles-ci arrivent déjà pour des raisons sanitaires, par exemple, à la suite de la prise de conscience des impacts de l’économie de l’attention sur les plus jeunes, ou aux enjeux géostratégiques de souveraineté.
Dans les deux scénarios, on ne peut que s’attendre à ce qu’inévitablement le numérique finisse à terme par au moins se stabiliser en consommation de ressources, et donc en capacité, voire à décroître. Anticiper ce ralentissement et travailler dès maintenant à la planification des numériques critiques, utiles, accessoires et délétères, en imaginant des manières de prioriser l’utilisation des ressources numériques dans un monde contraint, c’est réduire les vulnérabilités de demain. C’est reprendre la main, pour tenter d’éviter de subir les intermittences sur des services critiques quand elles arriveront.
La Sobriété au service de la Résilience ?
Se préparer à ces fluctuations, tout comme envisager un numérique soutenable qui respecte des limites planétaires, nécessite de hiérarchiser les usages du numérique, à l’instar de ce que le Secrétariat Général à la Planification Écologique (SGPE) a préparé dans la planification environnementale de l’énergie, en proposant une hiérarchisation des usages de la biomasse locale (page 15).
Mais comment imaginer réaliser cette priorisation ?
Faut-il prioriser la connectivité de certains équipements par rapport à d’autres ? (Le smartphone pour les urgences pourrait être prioritaire sur les smart tv ou les casques de réalité virtuelle par exemple) ?
Faut-il prioriser au niveau des usages, en considérant que le numérique au service de la santé, des secours ou de la communication instantanée doit être prioritaire par rapport au divertissement ?
Faut-il prioriser sur le plan technologique, en considérant que l’accès au web traditionnel doit primer sur l’accès à des mondes en réalité virtuelle, ou qu’une recherche classique doit primer sur une recherche via un moteur d’IA générative ?
Faut-il prioriser au niveau des utilisateurs, en considérant qu’un hôpital doit être prioritaire sur l’accès aux infrastructures réseau par rapport à un escape game VR ?
Faut-il plutôt prioriser au niveau des plateformes directement, en considérant qu’un accès aux plateformes de mail ou de messagerie instantanée devrait être prioritaire par rapport aux plateformes de streaming vidéo ?
Mais en fait, qui devrait piloter cette priorisation ? À quels niveaux doit-elle se faire, au niveau européen ? Des États ? Des entreprises ?
Et sur quels critères (utilité sociétale, impact économique, administration publique, etc.) ? Peut-on imaginer que la contribution du service lui-même à la résilience de la société soit prise en compte, et qu’ainsi un service numérique qui participe à rendre la société résiliente devienne prioritaire par rapport à un service numérique qui rendrait la société plus vulnérable aux fluctuations ?
Est-ce que le développement de « lowtech numériques », actuellement une chimère à inventer, pourrait rendre prioritaire un usage parce qu’il fonctionne de manière frugale, indépendamment du type de service qu’il rend ?
Et opérationnellement parlant, comment mettre en œuvre cette priorisation ?
Les architectures complexes des services numériques font qu’un service qui peut paraître « simple » du point de vue de l’utilisateur se retrouve rapidement éclaté en différentes dépendances logicielles hébergées sur différentes infrastructures, situées sur différents territoires. Prioriser un service plutôt qu’un autre n’est pas aussi simple que d’ouvrir ou de fermer un robinet d’eau. Pourtant, en cas de réduction rapide des ressources (par exemple, un délestage électrique), il faudrait idéalement pouvoir éteindre rapidement les services moins prioritaires et conserver les services critiques (les secours, les hôpitaux, etc.).
Comment mettre en œuvre cette priorisation avec des services éclatés entre plusieurs centres de données ? Des services dépendants de briques logicielles extraterritoriales ? des services nécessitant certains types d’équipements spécifiques (GPU IA, casques VR…) sujet à des ruptures d’approvisionnement ?
De plus, un service numérique ça n’est pas qu’une infrastructure de production, c’est également des ressources matérielles dédiées à son développement, aux tests techniques, à la qualification fonctionnelle, à l’hébergement des codes sources, aux backups… est-ce que si un usage est considéré comme prioritaire, l’ensemble des ressources dont il a besoin le deviennent aussi ? Ou bien peut-on imaginer descendre à un niveau de priorisation où l’instance de production du service d’appel aux secours reste en ligne, mais ses instances de qualification et de tests sont arrêtées par manque de ressources ?
La sobriété est ainsi un outil non seulement au service de l’atténuation des impacts, mais également de la résilience. Elle permet à la fois de se préparer aux fluctuations et d’envisager un numérique soutenable, respectueux des limites planétaires. Mais déployer la sobriété nécessite à la fois des choix de société et des innovations technologiques pour la mettre en œuvre.
Réfléchir à cette priorisation, c’est précisément une question d’intérêt général, de gestion du bien commun, de « politique » (au sens noble et non partisan du terme).
La question de fond finalement, n’est-elle pas tout simplement : comment construire un numérique plus robuste, plus souhaitable ?
Benjamin Ninassi, Inria.
L’article Fragilités du Numérique : la Sobriété au service de la Résilience est apparu en premier sur Blog binaire.


