03.04.2026 à 07:04
binaire
Le numérique et l’informatique constituent une révolution scientifique et technologique sans équivalent, qui remodèlent le monde, mais aussi notre langue humaine : nos mots. Sans chercher l’exhaustivité, Yves Bertrand s’attaque ici à 26 de ces mots, construisant un Abécédaire du numérique, pour nous aider à naviguer entre ces nouveaux mots. En contrepoint, Frédéric Havet rebondit sur les […]
L’article Alphabestiaire du numérique et de l’informatique est apparu en premier sur Blog binaire.
Le numérique et l’informatique constituent une révolution scientifique et technologique sans équivalent. Ils remodèlent le monde, pour le meilleur et pour le pire. Leur développement depuis l’après-guerre a entraîné l’apparition d’un vocabulaire spécifique, essentiellement en anglais. Mais les francophones créent et promeuvent des termes en français… parfois pour le meilleur, souvent pour le pire. Certains termes émergent sans être encore reconnus par les grands dictionnaires. D’autres s’appuient sur une étymologie discutable ; d’autres encore sont des francisations ridicules de termes anglais. La plupart sont maltraités ou ignorés par l’Académie française, surtout s’ils sont de genre féminin.
En outre, certains termes techniques s’inscrivent dans le vocabulaire courant. Ainsi, le terme « binaire » a depuis longtemps une acception et une étymologie stables et claires dans le champ scientifique. Mais la société s’est emparée du terme binaire en le faisant précéder de « non », dans une acception ô combien polémique, avec un regain de violence exclusive, sans égal outre-atlantique, à l’encontre des personnes concernées.
Réciproquement, des termes du quotidien s’invitent dans le numérique, comme le célèbre « cookie ». Cette porosité du vocabulaire entre société et technologie est source d’enrichissements sémantiques mutuels. Mais ces enrichissements ne sont pas sans excès, sans erreur, sans ridicule, sans contresens de tous ordres.
Or, aujourd’hui, via les réseaux sociaux, notamment, les mots tuent : par exemple, des adolescents convaincus, en quelques phrases, de mettre fin à leur vie. Aujourd’hui, les slogans tiennent lieu de politiques publiques, les tweets retournent des opinions, les vociférations étouffent le dialogue, les fake news prolifèrent.
C’est pourquoi traquer les emplois inappropriés de termes dans le numérique s’apparente à une œuvre de salubrité publique, tant les mots sont devenus des armes redoutables.
Pour illustrer modestement cette traque, nous avons sélectionné 26 termes – un par lettre de l’alphabet – qui, selon le cas, soulèvent des problèmes d’étymologie, de sens, d’acception ou d’usage. Nous les illustrons par autant de petits textes, volontairement hétérogènes en longueur, en objet et en propos. Ces textes constituent une alphabétisation partielle du numérique et de l’informatique. Ils ne prétendent rien d’autre que de proposer un éclairage sémantique et historique sur quelques termes que le numérique met à l’honneur. Le choix même des termes est arbitraire et ne porte pas sur les plus courants. Ainsi, le « A » ne concerne pas « Algorithme », par exemple, mais « Appairer ».
Puissent ces textes faire appréhender quelques mots du numérique sous un jour différent, plus précis, plus ludique, parfois plus inquiétant, dans ce qui sous-tend leur généralisation d’emploi, avec pour unique souci de susciter la réflexion et la mesure dans l’emploi de termes dont la puissance n’a d’égale que le danger de se fourvoyer quant à leurs acceptions.
Yves Bertrand, professeur des universités à l’université de Poitiers ; avec la complicité graphique de Frédéric Havet, directeur de recherche au CNRS.
Voir aussi L’informatique de A à Z, un abécédaire du numérique sur notre site ami interstices.info.
L’article Alphabestiaire du numérique et de l’informatique est apparu en premier sur Blog binaire.
01.04.2026 à 20:26
Thierry VIEVILLE
Après la pression des politiques pour qu’il y ait une obligation de passer une visite médicale appliquée aux chauffeurs et chauffeuses de plus de 70 ans, la restriction de liberté pour les seniors passe un nouveau cap avec cette proposition de loi du Sénat, dont nous reprenons le résumé du site de référence Korben : […]
L’article Après les moins de 15 ans, le Sénat veut interdire les réseaux sociaux aux plus de 50 ans est apparu en premier sur Blog binaire.
Après la pression des politiques pour qu’il y ait une obligation de passer une visite médicale appliquée aux chauffeurs et chauffeuses de plus de 70 ans, la restriction de liberté pour les seniors passe un nouveau cap avec cette proposition de loi du Sénat, dont nous reprenons le résumé du site de référence Korben :
Binaire s’associe à la diffusion de cette information que nous jugeons aussi liberticide que l’interdiction au moins de 15 ans. Nous invitons à lire le texte intégral sur le site Korben.
L’article Après les moins de 15 ans, le Sénat veut interdire les réseaux sociaux aux plus de 50 ans est apparu en premier sur Blog binaire.
27.03.2026 à 07:42
Thierry VIEVILLE
«Comprendre un système ne suffit pas : encore faut-il savoir ce qu’on en comprend», résume en une phrase l’autrice de cet article, Ikram Chraibi Kaadoud. Interagir avec des IA requiert de plus en plus de capacités métacognitives, en plus de l’esprit critique et d’autres compétences du 21e siècle. On demande aux utilisateurs de ces systèmes de […]
L’article La maturité métacognitive : la variable manquante de la gouvernance de l’IA est apparu en premier sur Blog binaire.

Les cadres contemporains de gouvernance de l’IA reposent sur un présupposé rarement rendu explicite : lorsqu’un opérateur humain reçoit l’output d’un système d’IA, il est en mesure de l’évaluer de manière significative. Les dispositions de l’AI Act européen relatives aux systèmes à haut risque exigent la transparence, l’explicabilité et la supervision humaine. Le plan d’action américain sur l’IA appelle au maintien d’un contrôle humain significatif sur les décisions d’IA à conséquences importantes. Les principes de l’OCDE sur l’IA inscrivent le centrage sur l’humain au cœur de ses engagements.
Ces engagements sont nécessaires — mais insuffisants. Ils portent sur ce que les systèmes d’IA doivent fournir aux opérateurs humains et laissent entièrement sans réponse la question de ce que ces derniers doivent être capables de faire pour agir sur ce qu’ils reçoivent. Cette lacune n’est pas accidentelle. C’est un angle mort structurel dans l’architecture actuelle de la gouvernance de l’IA.
Les cadres de gouvernance demandent aux systèmes d’IA de s’expliquer. Ils ne disent rien sur la capacité des humains à comprendre ces explications.
Le modèle implicite du superviseur humain dans la plupart des textes réglementaires est celui d’un professionnel compétent et attentif qui, face à des outputs précis et lisibles, formule des jugements éclairés. C’est une hypothèse plausible dans des environnements stables, à faibles enjeux et bien maîtrisés, mais une hypothèse fragile dans des contextes à forts enjeux, soumis à la pression temporelle et techniquement opaques — précisément les contextes dans lesquels les systèmes d’IA sont de plus en plus déployés.
La métacognition — la capacité à monitorer et réguler ses propres processus cognitifs — est le substrat psychologique d’une supervision efficace. Ce n’est ni un trait de personnalité ni un indicateur de valeur. C’est une compétence situationnelle, sensible au contexte, à la formation, à la charge cognitive et aux conditions de travail. Un opérateur métacognitivement averti sait quand il comprend quelque chose, quand il conjecture, et quand son jugement est façonné par des facteurs qu’il n’a pas consciemment enregistrés. Cette capacité ne peut pas être présumée ; elle varie significativement selon les individus, les formations et les pressions situationnelles.
La recherche en interaction humain-automatisme a documenté un ensemble de modes de défaillance qui émergent spécifiquement lorsque des humains supervisent des systèmes automatisés ou alimentés par l’IA. Le biais d’automatisation — la tendance à surpondérer les recommandations générées par la machine par rapport à son propre jugement — est l’un des résultats les plus robustes du domaine. Dans une étude fréquemment citée, Parasuraman et Riley (1997) ont montré que les humains mésusent (c’est-à-dire font un mauvais usage ou utilisent de manière inadéquate ou inappropriée) systématiquement de l’automatisation en l’appliquant là où elle est peu fiable, et la délaissent là où elle serait bénéfique — deux types d’erreurs qui reflètent un défaut d’étalonnage métacognitif plutôt qu’un défaut de provision d’information [1].
Le défi est aggravé par les caractéristiques propres aux systèmes d’IA contemporains. Le cadre de la cognition à double processus de Kahneman offre une grille de lecture utile : les outputs produits par des systèmes d’IA générative fluides et confiants activent le traitement rapide et associatif du Système 1, contournant l’évaluation plus lente et délibérée du Système 2 [2]. Une explication qui paraît plausible suscite des réponses cognitives différentes de celles qu’induit une explication qui l’est vraiment. Lorsque les explications des systèmes d’IA sont synthétiquement fluides, numériquement précises et visuellement formatées comme des outputs faisant autorité, elles suppriment précisément le scepticisme que nécessite une supervision significative [3,4].
Peut-être de manière contre-intuitive, fournir davantage d’explications n’améliore pas de manière fiable le jugement humain des résultats d’IA. Bansal et al. (2021), dans une étude expérimentale rigoureuse, ont constaté que les explications produites par l’IA n’amélioraient pas systématiquement les performances de l’équipe humain-IA, et les dégradaient dans plusieurs conditions — notamment lorsque les explications étaient techniquement exactes mais cognitivement incompatibles avec la manière dont les opérateurs formaient leurs propres jugements [5]. L’explicabilité est une condition nécessaire, mais insuffisante, d’une supervision efficace (voir l’article introductif de l’autrice ici sur Binaire). Ce qui réduit l’écart entre les deux, c’est la maturité métacognitive.
Fournir davantage d’explications n’améliore pas de manière fiable le jugement humain. Ce qui réduit l’écart, c’est la maturité métacognitive.
Cette analyse issue de la recherche à trois implications en matière de gouvernance. Si la maturité métacognitive est une propriété réelle et variable des opérateurs humains, alors les cadres de gouvernance qui imposent l’explicabilité sans s’intéresser à la métacognition des opérateurs sont tout simplement incomplets. Selon les travaux de la littérature scientifique — parmi lesquels ceux de l’IA explicable, de l’interaction humain-automatisme, des sciences cognitives, de la psychologie, des sciences humaines et sociales —, trois implications sont brièvement résumées ici : un constat, un écart et une hypothèse. Les détails sont disponibles dans l’article complet.
« Interaction humain-automatisme » est la traduction française de Human-Automation Interaction (HAI) ou Human Factors in Automation — un champ distinct du domaine de l’Interaction Humain-Machine. Issu de la psychologie ergonomique et des sciences de l’ingénieur, il s’intéresse à la manière dont les humains supervisent, font confiance et délèguent à des systèmes automatisés dans des contextes à forts enjeux : aviation, nucléaire, médecine, défense.
Première implication, le résultat : la transparence centrée sur la documentation est insuffisante. Ce n’est pas une intuition : c’est ce que la recherche montre depuis trente ans. Ainsi, documenter et expliquer le comportement d’un système ne suffit pas à garantir de bonnes décisions humaines sans 1) impliquer les individus dans les processus de conception de ces explications et de cette documentation et 2) prendre en compte le contexte du besoin métier à l’instant t. Des études contrôlées ont même montré que “trop d’explications” peuvent dégrader la performance de l’équipe humain-IA en noyant l’information pertinente dans le bruit.
Deuxième implication, le gap : la qualification métacognitive des opérateurs devrait être considérée comme une composante de la gouvernance IA. Il s’agit ici d’un gap que la recherche a commencé à nommer, sans qu’aucun référentiel n’ait encore été formalisé. Plus concrètement, les textes réglementaires comme l’AI Act exigent que les superviseurs humains soient « compétents », mais sans jamais définir ce que cela signifie — et, en particulier, aucun référentiel n’évalue ce que les chercheurs appellent la compétence métacognitive, soit la capacité à détecter les défaillances de son propre raisonnement face à un système opaque, une compétence qui relève de la formation et du contexte, pas de l’intelligence brute. Une précision importante s’impose ici. Parler de la qualification métacognitive des opérateurs ne revient pas à remettre en cause la valeur ou l’intelligence des personnes qui supervisent des systèmes d’IA. Il ne s’agit pas non plus de classer les humains selon leur capacité à « bien penser ». Comme la métacognition n’est ni un trait de personnalité ni un indicateur de valeur, mais une compétence situationnelle, elle est donc sensible au contexte, à la formation, à la charge cognitive et aux conditions de travail. Par exemple, un chirurgien expérimenté peut présenter un excellent étalonnage métacognitif dans son domaine et être tout aussi vulnérable au biais d’automatisation qu’un débutant face à un système d’IA opaque dans un contexte pour lequel il n’a reçu aucune formation spécifique.

Troisième implication, notre hypothèse : les compétences métacognitives — savoir ce qu’on comprend, détecter ses propres erreurs de raisonnement, réguler ses stratégies cognitives — varient selon les individus et ne sont pas uniformément réparties au sein de la population, ce qui crée un risque structurel pour la sécurité. Il s’agit d’une hypothèse, formulée à partir de travaux menés en psychologie de l’éducation, qui n’a pas encore été étudiée dans le contexte de la gouvernance de l’IA. C’est peut-être le prochain axe de recherche que les gouvernements devraient encourager activement. En effet, si les organisations les mieux dotées en moyens matériels et en ressources humaines peuvent satisfaire aux exigences de supervision réelle, celles qui n’en ont pas — non pas parce que leurs personnels seraient moins capables, mais parce que les conditions permettant le développement de cette compétence situationnelle n’ont pas été réunies — produiront une conformité de façade, insuffisante, générant une fausse sécurité particulièrement dangereuse dans les domaines critiques.
Le problème central identifié dans cette note n’est pas un manque d’ambition des cadres de gouvernance existants. L’AI Act européen [6], les principes de l’OCDE sur l’IA [7] et le plan d’action américain expriment tous des engagements forts en faveur de la supervision humaine et du contrôle significatif. Le problème est une lacune structurelle entre ce que ces cadres exigent des systèmes d’IA et ce qu’ils exigent des humains qui les supervisent.
Combler cette lacune nécessite de traiter la maturité métacognitive non pas comme une préoccupation périphérique relevant des « facteurs humains », mais comme une variable constitutive d’une supervision efficace de l’IA — une variable empiriquement étudiable, opérationnellement pertinente et inégalement répartie entre les institutions que la gouvernance de l’IA est censée protéger. Tant qu’elle ne sera pas intégrée à l’architecture formelle de la réglementation, la « supervision humaine » restera une déclaration d’intention plutôt qu’une garantie de sécurité.
Ikram Chraibi Kaadoud, PhD (she/her), Chercheuse XAI & sciences cognitives
LinkedIn I HAL I https://ikramchraibik.com/
Cet article est une adaptation grand public d’une note d’orientation publiée en anglais par l’autrice sur la plateforme Substack : https://substack.com/home/post/p-190513060
Un article dont la mise en forme (uniquement !) a utilisé une solution d’IA générative.
1 Parasuraman, R., & Riley, V. (1997). Humans and automation : Use, misuse, disuse, abuse. Human Factors, 39(2), 230–253. https://doi.org/10.1518/001872097778543886
2 Kahneman, D. (2011). Thinking, Fast and Slow. Farrar, Straus and Giroux. Le cadre de la cognition à double processus distingue le traitement rapide et associatif (Système 1) du traitement lent et délibéré (Système 2), avec des implications importantes pour la manière dont les humains répondent aux outputs automatisés à forte confiance apparente.
3 Tankelevitch, L., Kewenig, V., Simkute, A., Scott, E.A., Sarkar, A., Sellen, A., & Rintel, S. (2024). The
Metacognitive Demands and Opportunities of Generative AI. Proceedings of the CHI Conference on Human Factors in Computing Systems. https://doi.org/10.1145/3613904.3642902
4 Alter, A.L., & Oppenheimer, D.M. (2009). Uniting the tribes of fluency to form a metacognitive nation. Personality and Social Psychology Review, 13(3), 219–235.
5 Bansal, G., Vaughan Ngyuen, T., Vaughan, J. W., Weld, D., & Lasecki, W. S. (2021). Does the Whole Exceed Its Parts? The Effect of AI Explanations on Complementary Team Performance. Proceedings of the 2021 CHI Conference on Human Factors in Computing Systems. https://doi.org/10.1145/3411764.3445717
6 Parlement européen. (2024). Règlement (UE) 2024/1689 — Loi sur l’intelligence artificielle (AI Act). Articles 13 (Transparence), 14 (Supervision humaine), Annexe III (Systèmes d’IA à haut risque).
7 OCDE. (2024). Principes de l’OCDE sur l’IA. Principe 1.4 : Centrage sur l’humain et supervision humaine. https://oecd.ai/en/ai-principles
L’article La maturité métacognitive : la variable manquante de la gouvernance de l’IA est apparu en premier sur Blog binaire.
13.03.2026 à 07:53
Thierry VIEVILLE
Allez, avouez-le : on aimerait bien comprendre en détail comment ces chatbots, oui, oui, ces algorithmes avec un modèle massif de langage, qui « discutent » avec nous, fonctionnent ? Une description simple du cœur du mécanisme a déjà été partagée, ainsi que plus précisément ici et là. Certes, mais comment sont-elles entraînées ? C’est […]
L’article Comment entraîner un modèle massif de langage est apparu en premier sur Blog binaire.
Il était une fois de grands et bien lourds modèles massifs de langage états-uniens à la Goliath, qui ont été ridiculisés par un astucieux modèle de langage chinois, à la David. Ah, non. David, c’est lui qui va nous raconter l’histoire de ce David :
Pour approfondir la réflexion ou préciser quelques points, lisons les notes partagées en plus de la vidéo.
L’article Comment entraîner un modèle massif de langage est apparu en premier sur Blog binaire.
06.03.2026 à 07:17
Thierry VIEVILLE
Lonni Besançon est chercheur en visualisation de données à l’Université de Linköping en Suède. Mais depuis la pandémie de COVID-19, il est également devenu l’un des défenseurs de l’intégrité scientifique des plus actifs, traquant les publications douteuses et les fraudes scientifiques. Un engagement qui lui a valu d’être mis en lumière par la revue Nature […]
L’article Lonni Besançon, chercheur le jour, détective de la science la nuit est apparu en premier sur Blog binaire.
Bonjour Lonni, on te dit chercheur le jour, détective la nuit 
1 – Résume-nous déjà ce que tu fais le jour.Le jour, je suis chercheur en visualisation de données à l’Université de Linköping, en Suède. J’ai fait ma thèse en interaction homme-machine (IHM) à l’Université Paris-Saclay, sous la direction de Tobias Isenberg (Inria), sur l’interaction avec des visualisations de données scientifiques. Puis j’ai passé plusieurs années en Suède, suivies d’un passage en Australie à Monash University, avant de revenir en Suède. Aujourd’hui, mon travail porte sur trois axes principaux.
D’abord, l’utilisation de technologies immersives, telles que la réalité augmentée, pour faciliter l’analyse de données complexes. Avec l’un de mes doctorants à Monash, nous avons par exemple développé un système de réalité augmentée pour les autopsies, permettant aux médecins légistes de visualiser les données médicales en trois dimensions directement sur le lieu de l’examen (on en parle ici dans Binaire).
Ensuite, je travaille sur la combinaison des grands modèles de langage (LLM) avec la visualisation de données, pour rendre l’analyse de données plus accessible et interactive.
Enfin, je m’intéresse beaucoup à l’analyse statistique et à la communication des résultats scientifiques. Cette passion pour la transparence et la rigueur des données m’a d’ailleurs conduit à mon autre activité…
En Suède, le système académique est particulier : tout repose sur l’obtention de financements externes au laboratoire. Tant que tu décroches des bourses, on t’ouvre des postes. Mais cela signifie qu’on est constamment à la recherche de financement pour son salaire et pour ses étudiants. J’ai déjà fait une quinzaine de demandes de financement ! Malgré cette pression, la recherche ici, en Suède, reste passionnante !
Tout a commencé pendant la pandémie de COVID-19. J’étais en Suède, et comme beaucoup d’entre nous, je passais beaucoup de temps en ligne. Un collègue de l’INRIA, Pierre Dragicevic (Inria Bordeaux), m’avait toujours encouragé à poser des questions, à être curieux, et c’est ce que j’ai fait pendant cette période de confinement avec mon temps libre: j’ai laissé ma curiosité pour comprendre le COVID me guider vers les travaux scientifiques en lien avec le sujet : comment on fait de la recherche sur ce sujet ? Comment sont faites les statistiques ? Quelles données ont été utilisées et d’ou viennent-elles ? Sont-elles accessibles ?
C’est ainsi que je suis tombé sur les articles du Pr. Didier Raoult, sur l’hydroxychloroquine. Je le connaissais déjà avant le COVID. En lisant ces papiers, j’ai vu que les statistiques et la méthode étaient inadéquates. Cela a été confirmé par d’autres chercheurs indépendamment, dont Elisabeth Bik, pour ne nommer qu’elle.
Je me suis dit : « Ce serait bien d’automatiser la détection de problèmes dans les documents et d’en faire un article scientifique. » Ce que j’ai fait (comme on le lit ici). J’ai fini par évaluer, dans le cadre d’une démarche de peer review, plusieurs centaines d’articles liés à la COVID-19. Je ne m’attendais absolument ni à un tel résultat ni à l’impact que cela aurait, (comme on le lit ici sur Binaire).
Le matin, je faisais mes recherches en visualisation. Le soir et les week-ends, je me plongeais dans la détection de fraudes et la lutte contre la désinformation.
L’intégrité scientifique, c’est l’ensemble des règles et des valeurs qui garantissent que la recherche scientifique est honnête et rigoureuse. C’est le socle de la confiance que la société accorde à la science.
Qu’on le reconnaisse ou non, le système académique actuel favorise les raccourcis. Attention : il y a très peu de triche, mais de petits raccourcis qui peuvent nuire gravement à l’intégrité. Il y a énormément de pression sur les jeunes chercheurs qui doivent toujours produire davantage de publications, de meilleures conférences, davantage de résultats, davantage de collaborations, etc. Il y a tellement de postulants pour les postes, les bourses, pour si peu de places qu’il devient compliqué de juste bien faire son travail, à savoir la bonne recherche.
En plus, comment faire les choses correctement avec de moins en moins d’argent dans le secteur public ? En Suède, par exemple, on fait appel à des fondations pour financer la recherche, en plus des dépôts de dossiers auprès des fonds nationaux et internationaux/européens. En France, on dépose des dossiers pour obtenir des fonds nationaux ou européens, sous une pression comparable.
C’est donc l’ensemble de ce système qui met de la pression et qui peut encourager des raccourcis. Ces derniers peuvent devenir des fraudes et parfois, sans le savoir, le chercheur passionné glisse et devient chercheur biaisé, voire fraudeur.
Une fois qu’on est sensibilisé et qu’on commence à contribuer à changer les choses, l’équation se complexifie : pour changer le système, il faut être légitime, donc continuer d’exister dans ce même système tout en ajoutant un deuxième travail pour essayer de le changer. Et si on ne joue pas le jeu, on perd. Je connais même un chercheur qui refuse désormais de prendre des doctorants car, éthiquement, il ne peut plus leur garantir que le système leur fera de la place.
Absolument pas ! La communauté a beaucoup plus de poids que les organisations. Il existe tout un réseau de personnes engagées en faveur de l’intégrité scientifique.
Il y a, par exemple, Guillaume Cabanac (interviewé ici pour Binaire), professeur d’informatique à l’Université de Toulouse et membre de l’Institut Universitaire de France. Avec Cyril Labbé de Grenoble et Alexander Magazinov, il a créé le logiciel « Problematic Paper Screener » qui détecte automatiquement les articles frauduleux en repérant les « expressions torturées » – ces traductions maladroites qui trahissent le plagiat, comme « conscience contrefaite » pour « intelligence artificielle » ! Guillaume a constitué un « collège invisible » d’une centaine de personnes – chercheurs et amateurs – qui traquent ensemble les fraudes. Nature l’a d’ailleurs désigné comme l‘un des dix scientifiques qui ont le plus marqué la science en 2021.
Il y a aussi Elisabeth Bik, la précurseuse incontournable, microbiologiste néerlandaise qui a quitté son emploi rémunéré pour se consacrer à plein temps à la détection d’images manipulées dans les publications scientifiques. Elle a analysé plus de 17 000 papiers et découvert qu’environ 4% contiennent des images dupliquées de manière inappropriée. Son travail d’assainissement de la recherche devrait être considéré comme essentiel – on a besoin d’une base saine pour la science !
Il y a également des non-scientifiques aussi, comme Kevin Patrick avec PubPeer, qui a avoué il y a deux ans n’avoir aucun background scientifique mais une vraie passion pour la science.
Et puis, il y a des événements comme la WCRI (World Conference on Research Integrity) ou les REC (Rencontres des Échanges Critiques), organisés à Toulouse l’année dernière par une petite équipe menée par Willy Lafran pour favoriser les échanges entre chercheurs et le grand public. L’OSF (Open Science Framework), fondé par Bryan Nosek, est également crucial.
Quand Elisabeth Bik a été poursuivie par Didier Raoult, nous avons écrit une lettre ouverte qui a rassemblé 2 300 signatures et a été relayée par The Guardian. Victor Garcia fait aussi un travail remarquable sur ces questions.
Guillaume Cabanac a créé un Slack appelé le « Collège Invisible » où des chercheurs qui veulent travailler ensemble sur ces sujets peuvent se retrouver. On peut le rejoindre après vérification de ses antécédents, pour se protéger mutuellement.
Mais ce combat a un coût humain énorme. Un ancien doctorant en Suisse, Solal Pirelli, a été poursuivi par la justice suisse suit à une plainte d’un chercheur jordanien. C’est très inquiétant pour la liberté de la critique scientifique.
Le combat peut aussi avoir un coût financier non négligeable : l’université et les labos sont contents quand les médias parlent de leurs chercheurs, mais ils ne veulent pas, ou ne peuvent pas, financer ou s’engager quand c’est difficile. Par exemple, aujourd’hui, je dois financer mes frais d’avocats seul.
Mon message est clair : il faut changer la façon dont on fait de la recherche. Plus collaborative, moins compétitive, moins de course à la publication, être ouvert à un examen réel de ce qu’on fait, et valoriser d’autres choses que la simple publication.
Le système actuel est conçu pour glorifier une personne. Un chercheur devient une marque avec un marché à satisfaire. L’université t’engage à rapporter des crédits via ta marque. Or, le système ne devrait pas privilégier des personnes, mais des travaux.
J’ai eu beaucoup de désillusion pendant mes premières années de recherche. On nous vend la collaboration, mais en réalité, il y a un véritable manque de collaboration entre chercheurs. La France s’en tire malgré tout mieux que d’autres pays : les chercheurs n’ont pas autant le couteau sous la gorge.
Le cas d’Elisabeth Bik est exemplaire : elle a arrêté sa carrière traditionnelle pour se consacrer uniquement à ce travail d’assainissement de la recherche. C’est fondamental d’avoir une base de données scientifique saine !
Sur les LLM et l’IA générative, c’est l’angoisse ! Il y a déjà des instructions dans les prompts pour écrire « en blanc » dans un document, de sorte que ce n’est pas visible à l’œil humain, mais entièrement accessible à l’IA, afin de tromper les détections. En réalité, on n’attrape que ceux qui ne trichent pas bien, en quelque sorte, ou ceux qui ne prennent pas le temps, alors que tous ceux qui prennent le temps de bien tricher ne sont, pour l’instant, pas attrapés. Heureusement, des techniques émergent. Par exemple, les LLM favorisent l’utilisation de certains mots plutôt que d’autres, ce qui se détecte aujourd’hui plus facilement. Mais il faut l’avouer : c’est un jeu de chat et de souris sans fin.
Ce qu’il faut bien comprendre, c’est que les scandales érodent la confiance dans la recherche, alors qu’on en a actuellement besoin. Il faut faire le travail de mettre en avant le métier de chercheur et les travaux scientifiques. Il faut qu’on arrête la course à la publication, c’est ce qui nuit le plus à la recherche et aux chercheurs, et c’est ce qui broie les jeunes générations.
Mes conseils pour les jeunes qui voudraient s’engager en faveur de l’intégrité scientifique ?
C’est une question difficile, parce que c’est dur. Vraiment dur. D’abord, ne jamais accuser directement. Si on a des doutes, on dit qu’on a des doutes. Si on a identifié des points problématiques, on les présente de manière factuelle. Ne pas penser que vous êtes tous seuls. Il existe plein de chercheurs en pleine galère qui font ce travail. Rejoignez le « Collège Invisible » de Guillaume Cabanac sur Slack ou contactez les chercheurs que vous savez intéressés par ces questions.
Si vous voulez vous protéger et protéger votre carrière, il peut malheureusement être nécessaire de signaler anonymement. On devrait pouvoir poser des questions sans avoir peur, mais ce n’est malheureusement pas le cas.
Pour les organismes et les labos, mes conseils sont de proposer des formations récurrentes et des rappels sur ce qu’est l’intégrité scientifique, de se rapprocher des bibliothèques universitaires, car les bibliothécaires savent souvent mieux que les chercheurs en ce qui concerne les problèmes d’intégrité scientifique, et enfin de protéger les lanceurs d’alerte !
Comment signaler un papier pour fraude ? En général, on fait les trois choses suivantes :
Attention, les fausses signalisations existent aussi. C’est facile de dire que c’est faux, mais vérifier prend énormément de temps, surtout quand les éditeurs ne sont pas du domaine. Le retour de bâton existe : depuis que j’ai signalé les articles de Raoult, tous mes articles sont systématiquement signalés pour fraude. C’est une forme de représailles.
Malgré tout, je reste fier de mon service à la science et à la société. Le combat est rude et parfois solitaire, mais il en vaut la peine. Pour la science, pour la confiance du public et pour les futures générations de chercheurs !
Propos recueillis pour le blog Binaire par Ikram Chraibi Kaadoud et Thierry Viéville.
Pour aller plus loin :
L’article Lonni Besançon, chercheur le jour, détective de la science la nuit est apparu en premier sur Blog binaire.
27.02.2026 à 06:58
Charles CUVELLIEZ
En 2024, une mise à jour automatique du produit Falcon de la célèbre société de sécurité CrowdStrike a mis à l’arrêt des entreprises, des aéroports et des infrastructures critiques: elle a provoqué le plantage de 8,5 millions d’ordinateurs qui affichent des heures d’écran bleues (l’écran bleu de la mort, ou Blue Screen of Death). Un […]
L’article Affaire CrowdStrike : vent arrière pour l’impunité sur les bugs logiciels… est apparu en premier sur Blog binaire.
______ Selon le droit américain, pour conclure à une tromperie des investisseurs, il faut trois conditions : • Que la fausse déclaration ou une omission soit liée à l’achat ou à la vente d’un titre ; C’est Thomas P. DiNapoli, le comptroller de l’État de New York, qui a porté plainte en ce sens contre Crowdstrike devant un juge à Austin, au Texas. Cette plainte s’est transformée en action collective (class action). Un comptroller est la personne qui supervise les audits, les finances de l’État et les investissements du fonds de retraite public de New York (environ 270 milliards de dollars). Il a été débouté de bout en bout, ce qui soulève des interrogations sur l’impunité des entreprises qui mettent sur le marché des produits trop vite, en y laissant des défauts persistants Déclarations erronées et omissions. Les plaignants, Di Napoli et ceux qui se sont joints à sa plainte, ont d’abord soutenu que CrowdStrike avait induit les investisseurs en erreur en vantant une « équipe d’assurance qualité » chargée des tests, ce qui, selon eux, n’a visiblement pas fonctionné. La cour a rejeté cet argument : d’une part, aucun investisseur raisonnable ne se serait fondé sur cette phrase isolée pour une décision d’investissement, d’autre part, le juge retenu l’argumentation de Crowdstrike selon laquelle il s’agissait de test d’accessibilité (à comprendre au sens d’ergonomie et de facilité d’utilisation), et pas de tests liés aux mises à jour logicielles.
Crowdstrike a alors soutenu que les plaignants avaient extrait ces déclarations de leur contexte, argument auquel la cour a fait droit :
La cour conclut qu’aucun investisseur raisonnable n’aurait pu interpréter ces propos comme des garanties relatives aux tests internes de CrowdStrike ; les six allégations sont dès lors rejetées faute de démonstration de fausseté ou de caractère trompeur ______ Déclarations concernant les tests et/ou les mises à jour logicielles Les plaignants ont contesté cinq déclarations de CrowdStrike relatives aux tests et mises à jour logicielles, les qualifiant de fausses ou trompeuses. Crowdstrike a toutefois répliqué que les plaignants confondaient le test du logiciel en tant que tel avec le test de l’évaluation de son efficacité à détecter les menaces. D’ailleurs, un investisseur s’intéresse avant tout à la question de savoir si le produit de Crowdstrike est efficace et s’il a été testé en ce sens. Même une déclaration d’un autre responsable selon laquelle le logiciel ne provoquera jamais d’écran bleu de la mort n’a pas été retenue par la cour : il s’agissait d’une simple exagération que tout investisseur sérieux ne considérerait pas comme déterminante pour l’acquisition d’actions Crowdstrike. En outre, les rapports annuels 2023 et 2024 de CrowdStrike avertissaient déjà abondamment les investisseurs des risques tels que les interruptions de service, les erreurs logicielles, les défauts, les déploiements incorrects et la faible tolérance client aux pannes — en mentionnant explicitement des incidents passés ainsi que des risques futurs potentiels. Ces mises en garde rendaient improbable la confiance d’un investisseur dans une simple remarque optimiste, la rendant, de ce fait, (même si c’est un peu un sophisme) non trompeuse. ______
Les plaignants critiquent enfin les rapports annuels 2023-2024, qui indiquent que le personnel technique surveille et teste le logiciel régulièrement. La Cour considère toutefois ces déclarations comme de simples affirmations générales non actionnables, qui ne portent pas spécifiquement sur les mises à jour automatisées ni sur des tests réalisés selon des protocoles traditionnels. Un investisseur raisonnable aurait bien compris que des mises à jour rapides et automatisées ne sont pas nécessairement soumises aux mêmes procédures de test qu’un nouveau logiciel. Finalement, la cour ne donne tort à Crowdstrike sur la non-existence d’une équipe assurance qualité distincte qui était obligatoire pour faire partie des fournisseurs officiels de l’administration fédérale US (FedRAMP) et du Pentagone.______
Les leçons pour ne pas se faire pincer (car c’est bien cela !) Si Crowdstrike s’en sort relativement bien ici, ce cas rappelle aux entreprises technologiques l’importance d’une communication rigoureuse et cohérente. Chaque déclaration publique doit être précisément formulée : lorsqu’il est question de tests, d’assurance qualité ou de conformité, il convient de distinguer clairement les intentions de conception les résultats obtenus et les pratiques internes. Si les engagements portent sur les performances observées chez le client lors de l’utilisation du produit, cela doit être explicitement indiqué. Les entreprises devraient éviter les affirmations catégoriques telles que « nos tests sont exhaustifs » et privilégier des formulations plus mesurées, centrées sur les objectifs plutôt que des garanties (« nos procédures visent à minimiser les risques »). Une documentation détaillée des procédures internes et des processus décisionnels renforce par ailleurs la crédibilité des déclarations en cas de contestation juridique. Enfin, la coordination de la communication sur l’ensemble des canaux — rapports financiers, déclarations des dirigeants et supports marketing — est essentielle pour éviter toute incohérence susceptible d’être interprétée comme une fausse déclaration. L’ordonnance du juge Pitman accorde aux plaignants un délai très court, jusqu’au 26 janvier 2026 (pas de nouvelles depuis), pour modifier leur plainte. Ils devront rapidement déterminer s’ils sont en mesure d’apporter de nouveaux éléments factuels ; à défaut, une nouvelle version risquerait seulement de retarder un rejet définitif. L’ordonnance du juge Pitman laisse aux plaignants un délai très court, jusqu’au 26 janvier 2026, pour modifier leur plainte. Ils doivent rapidement déterminer s’ils peuvent réunir de nouveaux éléments factuels ; à défaut, une nouvelle tentative risquerait seulement de retarder un rejet définitif.____ Charles Cuvelliez (ULB), Goedele Van de Plas (Aéroport de Bruxelles), Jean-Jacques Quisquater (UCL) Pour en savoir plus : In the United States District Court for the Western District of Texas Austin division – Order 1:24-CV-857-RP |
L’article Affaire CrowdStrike : vent arrière pour l’impunité sur les bugs logiciels… est apparu en premier sur Blog binaire.