24.04.2026 à 07:08
Thierry VIEVILLE
Récit policier de Serge Abiteboul et Lisa Bretzner, avec un beau trio de chatbots. Théâtre de l’IA, Paris 11e, 13 mai à 19:30 Interprété par Sandrine Briard, Mathilda Delecroix Denquin, Myriam Dahmany, Marco Carrafa, Geoffrey Lopez, Florian Velasco, et Lisa Bretzner. Pour réserver une place. Au sein d’un cycle d’événements : récits sur l’IA portés […]
L’article Bug sentimental est apparu en premier sur Blog binaire.
Au sein d’un cycle d’événements : récits sur l’IA portés par des comédiens. Entre lecture, jeu théâtral, et interactions numériques.
Durée de chaque événement : 1 h, avec possibilité de boire un verre sur place après la représentation.
Et le lien des résa ! https://www.helloasso.com/associations/compagnie-atropos/evenements/cycle-theatre-ia-x-lisa-bretzner-recits-theatraux-sur-l-ia
Et bientôt en podcast audio sur binaire.
(annonce proposée par Pierre Paradinas et Thierry Viéville).
L’article Bug sentimental est apparu en premier sur Blog binaire.
17.04.2026 à 07:09
binaire
L’article Les trois font la paire ! Appairer ou apparier ? est apparu en premier sur Blog binaire.
Appairer, apparier, appareiller… sont des mots qui vont très bien ensemble, très bien ensemble ! Pour écouter le tube mythique des Beatles, peut-être avez-vous appairé votre smartphone à une enceinte Bluetooth® et, pour augmenter la portée d’une box, vous l’avez sûrement appairée à un répéteur. Qui est donc cet appairer auquel les dictionnaires ne trouvent nulle place, mais qui est déjà si usité par les usagers du numérique ? Pourquoi appairer plutôt que se connecter, d’ailleurs ?
Se connecter semble de mise dès lors que les dispositifs concernés sont en contact physique, directement comme pour une clé USB et un ordinateur, ou via un câble électrique ou optique. L’accent est mis sur le substrat physique du lien établi.
Appairer est en vogue depuis que l’accent est mis sur la reconnaissance mutuelle des deux dispositifs afin qu’ils échangent des informations numériques, indépendamment du vecteur de communication, matériel ou non. Une clé USB et un ordinateur ont besoin de s’appairer pour fonctionner ensemble, et même, juste avant leur déconnexion physique, d’être désappairés.
Deux termes à l’étymologie millénaire sont candidats à la synonymie d’appairer : apparier et appareiller. Apparier deux éléments consiste à les associer, à les mettre ensemble lorsqu’on les juge aller bien ensemble, tels les mots des Beatles… mais nulle trace de connexion, et moins encore de communication.
Qui d’appareiller ? Outre sa douzaine d’acceptions, ce terme revêt trois sens : celui de préparation, celui qui le rend synonyme d’apparier, et celui, moderne, qui évoque l’appareillage d’un dispositif par un autre. Et si la mise de deux dispositifs en état de communiquer l’un avec l’autre consistait… à les appareiller (préparer) pour les appareiller (apparier) afin qu’ils s’appareillent l’un l’autre (appareillage) ? Le sens du néologisme appairer consisterait alors en l’union, au sens mathématique du terme, des trois sens d’appareiller, appliqués aux objets intercommunicants. Cela justifierait pleinement que les lexicographes adoubent appairer. Ils reconnaissent bien au cédérom et à l’ADSL le statut de nom commun alors que ces derniers sont orphelins de toute étymologie et qu’ils sont déjà entrés au Panthéon des technologies numériques du XXe siècle !
Appairer hérite de l’étymologie de pair – semblable, égal – tout en évoquant deux… appareils. Nul doute qu’il s’enorgueillirait d’être apparié à appairage comme apparier l’est à appariement. Gageons enfin que les termes dévolus aux données et aux algorithmes ont une espérance de vie supérieure à celle de ceux qui sont tributaires de l’existence de dispositifs matériels. Souhaitons alors qu’appairer, en gestation sous les auspices d’une sémantique solide pour désigner l’établissement et le maintien d’une communication biunivoque entre machines qui s’équipent mutuellement, naisse et survive à l’évolution de son support matériel, s’adossant à l’international à to pair qui dame actuellement le pion au plus classique to connect !*.
Yves Bertrand, professeur des universités à l’université de Poitiers ; avec la complicité graphique de Frédéric Havet, directeur de recherche au CNRS.
L’article Les trois font la paire ! Appairer ou apparier ? est apparu en premier sur Blog binaire.
10.04.2026 à 06:46
Thierry VIEVILLE
Date: 19 juin 2026, 9:30-19:30 Lieu: Amphithéâtre Alain Aspect, ENS Paris Saclay, 4 avenue des Sciences, 91190 Gif-sur-Yvette, France Inscription: formulaire (inscription gratuite mais obligatoire avant le 31 mai) Gilles Dowek, directeur de recherche à l’INRIA et professeur à l’Ecole Polytechnique puis à l’Ecole Normale Supérieure de Paris-Saclay, est décédé le 21 juillet 2025 à […]
L’article Colloque en hommage à Gilles Dowek est apparu en premier sur Blog binaire.
Date: 19 juin 2026, 9:30-19:30
Lieu: Amphithéâtre Alain Aspect, ENS Paris Saclay, 4 avenue des Sciences, 91190 Gif-sur-Yvette, France
Inscription: formulaire (inscription gratuite mais obligatoire avant le 31 mai)
Gilles Dowek, directeur de recherche à l’INRIA et professeur à l’Ecole Polytechnique puis à l’Ecole Normale Supérieure de Paris-Saclay, est décédé le 21 juillet 2025 à l’âge de 58 ans. Il a eu des contributions importantes non seulement en logique (unification, démonstration automatique, théorie des types), mais aussi en informatique quantique et en philosophie. Il a dirigé ou codirigé de nombreuses thèses de doctorat. Il a reçu plusieurs prix de l’Académie des sciences. Orateur et enseignant brillant, il a publié plusieurs ouvrages en informatique, logique et philosophie. Il a tenu une chronique régulière dans le journal Pour la Science. Il s’est beaucoup investi dans la promotion de l’enseignement de l’informatique au lycée et a contribué à la définition du programme correspondant. Enfin, il a travaillé au sein du comité consultatif national d’éthique du numérique.
Dans ce colloque sera évoqué l’ensemble des contributions de Gilles en recherche, enseignement, philosophie, vulgarisation, éthique, etc.
L’article Colloque en hommage à Gilles Dowek est apparu en premier sur Blog binaire.
03.04.2026 à 07:04
binaire
Le numérique et l’informatique constituent une révolution scientifique et technologique sans équivalent, qui remodèlent le monde, mais aussi notre langue humaine : nos mots. Sans chercher l’exhaustivité, Yves Bertrand s’attaque ici à 26 de ces mots, construisant un Abécédaire du numérique, pour nous aider à naviguer entre ces nouveaux mots. En contrepoint, Frédéric Havet rebondit sur les […]
L’article Alphabestiaire du numérique et de l’informatique est apparu en premier sur Blog binaire.
Le numérique et l’informatique constituent une révolution scientifique et technologique sans équivalent. Ils remodèlent le monde, pour le meilleur et pour le pire. Leur développement depuis l’après-guerre a entraîné l’apparition d’un vocabulaire spécifique, essentiellement en anglais. Mais les francophones créent et promeuvent des termes en français… parfois pour le meilleur, souvent pour le pire. Certains termes émergent sans être encore reconnus par les grands dictionnaires. D’autres s’appuient sur une étymologie discutable ; d’autres encore sont des francisations ridicules de termes anglais. La plupart sont maltraités ou ignorés par l’Académie française, surtout s’ils sont de genre féminin.
En outre, certains termes techniques s’inscrivent dans le vocabulaire courant. Ainsi, le terme « binaire » a depuis longtemps une acception et une étymologie stables et claires dans le champ scientifique. Mais la société s’est emparée du terme binaire en le faisant précéder de « non », dans une acception ô combien polémique, avec un regain de violence exclusive, sans égal outre-atlantique, à l’encontre des personnes concernées.
Réciproquement, des termes du quotidien s’invitent dans le numérique, comme le célèbre « cookie ». Cette porosité du vocabulaire entre société et technologie est source d’enrichissements sémantiques mutuels. Mais ces enrichissements ne sont pas sans excès, sans erreur, sans ridicule, sans contresens de tous ordres.
Or, aujourd’hui, via les réseaux sociaux, notamment, les mots tuent : par exemple, des adolescents convaincus, en quelques phrases, de mettre fin à leur vie. Aujourd’hui, les slogans tiennent lieu de politiques publiques, les tweets retournent des opinions, les vociférations étouffent le dialogue, les fake news prolifèrent.
C’est pourquoi traquer les emplois inappropriés de termes dans le numérique s’apparente à une œuvre de salubrité publique, tant les mots sont devenus des armes redoutables.
Pour illustrer modestement cette traque, nous avons sélectionné 26 termes – un par lettre de l’alphabet – qui, selon le cas, soulèvent des problèmes d’étymologie, de sens, d’acception ou d’usage. Nous les illustrons par autant de petits textes, volontairement hétérogènes en longueur, en objet et en propos. Ces textes constituent une alphabétisation partielle du numérique et de l’informatique. Ils ne prétendent rien d’autre que de proposer un éclairage sémantique et historique sur quelques termes que le numérique met à l’honneur. Le choix même des termes est arbitraire et ne porte pas sur les plus courants. Ainsi, le « A » ne concerne pas « Algorithme », par exemple, mais « Appairer ».
Puissent ces textes faire appréhender quelques mots du numérique sous un jour différent, plus précis, plus ludique, parfois plus inquiétant, dans ce qui sous-tend leur généralisation d’emploi, avec pour unique souci de susciter la réflexion et la mesure dans l’emploi de termes dont la puissance n’a d’égale que le danger de se fourvoyer quant à leurs acceptions.
Yves Bertrand, professeur des universités à l’université de Poitiers ; avec la complicité graphique de Frédéric Havet, directeur de recherche au CNRS.
Voir aussi L’informatique de A à Z, un abécédaire du numérique sur notre site ami interstices.info.
L’article Alphabestiaire du numérique et de l’informatique est apparu en premier sur Blog binaire.
01.04.2026 à 20:26
Thierry VIEVILLE
Après la pression des politiques pour qu’il y ait une obligation de passer une visite médicale appliquée aux chauffeurs et chauffeuses de plus de 70 ans, la restriction de liberté pour les seniors passe un nouveau cap avec cette proposition de loi du Sénat, dont nous reprenons le résumé du site de référence Korben : […]
L’article Après les moins de 15 ans, le Sénat veut interdire les réseaux sociaux aux plus de 50 ans est apparu en premier sur Blog binaire.
Après la pression des politiques pour qu’il y ait une obligation de passer une visite médicale appliquée aux chauffeurs et chauffeuses de plus de 70 ans, la restriction de liberté pour les seniors passe un nouveau cap avec cette proposition de loi du Sénat, dont nous reprenons le résumé du site de référence Korben :
Binaire s’associe à la diffusion de cette information que nous jugeons aussi liberticide que l’interdiction au moins de 15 ans. Nous invitons à lire le texte intégral sur le site Korben.
L’article Après les moins de 15 ans, le Sénat veut interdire les réseaux sociaux aux plus de 50 ans est apparu en premier sur Blog binaire.
27.03.2026 à 07:42
Thierry VIEVILLE
«Comprendre un système ne suffit pas : encore faut-il savoir ce qu’on en comprend», résume en une phrase l’autrice de cet article, Ikram Chraibi Kaadoud. Interagir avec des IA requiert de plus en plus de capacités métacognitives, en plus de l’esprit critique et d’autres compétences du 21e siècle. On demande aux utilisateurs de ces systèmes de […]
L’article La maturité métacognitive : la variable manquante de la gouvernance de l’IA est apparu en premier sur Blog binaire.

Les cadres contemporains de gouvernance de l’IA reposent sur un présupposé rarement rendu explicite : lorsqu’un opérateur humain reçoit l’output d’un système d’IA, il est en mesure de l’évaluer de manière significative. Les dispositions de l’AI Act européen relatives aux systèmes à haut risque exigent la transparence, l’explicabilité et la supervision humaine. Le plan d’action américain sur l’IA appelle au maintien d’un contrôle humain significatif sur les décisions d’IA à conséquences importantes. Les principes de l’OCDE sur l’IA inscrivent le centrage sur l’humain au cœur de ses engagements.
Ces engagements sont nécessaires — mais insuffisants. Ils portent sur ce que les systèmes d’IA doivent fournir aux opérateurs humains et laissent entièrement sans réponse la question de ce que ces derniers doivent être capables de faire pour agir sur ce qu’ils reçoivent. Cette lacune n’est pas accidentelle. C’est un angle mort structurel dans l’architecture actuelle de la gouvernance de l’IA.
Les cadres de gouvernance demandent aux systèmes d’IA de s’expliquer. Ils ne disent rien sur la capacité des humains à comprendre ces explications.
Le modèle implicite du superviseur humain dans la plupart des textes réglementaires est celui d’un professionnel compétent et attentif qui, face à des outputs précis et lisibles, formule des jugements éclairés. C’est une hypothèse plausible dans des environnements stables, à faibles enjeux et bien maîtrisés, mais une hypothèse fragile dans des contextes à forts enjeux, soumis à la pression temporelle et techniquement opaques — précisément les contextes dans lesquels les systèmes d’IA sont de plus en plus déployés.
La métacognition — la capacité à monitorer et réguler ses propres processus cognitifs — est le substrat psychologique d’une supervision efficace. Ce n’est ni un trait de personnalité ni un indicateur de valeur. C’est une compétence situationnelle, sensible au contexte, à la formation, à la charge cognitive et aux conditions de travail. Un opérateur métacognitivement averti sait quand il comprend quelque chose, quand il conjecture, et quand son jugement est façonné par des facteurs qu’il n’a pas consciemment enregistrés. Cette capacité ne peut pas être présumée ; elle varie significativement selon les individus, les formations et les pressions situationnelles.
La recherche en interaction humain-automatisme a documenté un ensemble de modes de défaillance qui émergent spécifiquement lorsque des humains supervisent des systèmes automatisés ou alimentés par l’IA. Le biais d’automatisation — la tendance à surpondérer les recommandations générées par la machine par rapport à son propre jugement — est l’un des résultats les plus robustes du domaine. Dans une étude fréquemment citée, Parasuraman et Riley (1997) ont montré que les humains mésusent (c’est-à-dire font un mauvais usage ou utilisent de manière inadéquate ou inappropriée) systématiquement de l’automatisation en l’appliquant là où elle est peu fiable, et la délaissent là où elle serait bénéfique — deux types d’erreurs qui reflètent un défaut d’étalonnage métacognitif plutôt qu’un défaut de provision d’information [1].
Le défi est aggravé par les caractéristiques propres aux systèmes d’IA contemporains. Le cadre de la cognition à double processus de Kahneman offre une grille de lecture utile : les outputs produits par des systèmes d’IA générative fluides et confiants activent le traitement rapide et associatif du Système 1, contournant l’évaluation plus lente et délibérée du Système 2 [2]. Une explication qui paraît plausible suscite des réponses cognitives différentes de celles qu’induit une explication qui l’est vraiment. Lorsque les explications des systèmes d’IA sont synthétiquement fluides, numériquement précises et visuellement formatées comme des outputs faisant autorité, elles suppriment précisément le scepticisme que nécessite une supervision significative [3,4].
Peut-être de manière contre-intuitive, fournir davantage d’explications n’améliore pas de manière fiable le jugement humain des résultats d’IA. Bansal et al. (2021), dans une étude expérimentale rigoureuse, ont constaté que les explications produites par l’IA n’amélioraient pas systématiquement les performances de l’équipe humain-IA, et les dégradaient dans plusieurs conditions — notamment lorsque les explications étaient techniquement exactes mais cognitivement incompatibles avec la manière dont les opérateurs formaient leurs propres jugements [5]. L’explicabilité est une condition nécessaire, mais insuffisante, d’une supervision efficace (voir l’article introductif de l’autrice ici sur Binaire). Ce qui réduit l’écart entre les deux, c’est la maturité métacognitive.
Fournir davantage d’explications n’améliore pas de manière fiable le jugement humain. Ce qui réduit l’écart, c’est la maturité métacognitive.
Cette analyse issue de la recherche à trois implications en matière de gouvernance. Si la maturité métacognitive est une propriété réelle et variable des opérateurs humains, alors les cadres de gouvernance qui imposent l’explicabilité sans s’intéresser à la métacognition des opérateurs sont tout simplement incomplets. Selon les travaux de la littérature scientifique — parmi lesquels ceux de l’IA explicable, de l’interaction humain-automatisme, des sciences cognitives, de la psychologie, des sciences humaines et sociales —, trois implications sont brièvement résumées ici : un constat, un écart et une hypothèse. Les détails sont disponibles dans l’article complet.
« Interaction humain-automatisme » est la traduction française de Human-Automation Interaction (HAI) ou Human Factors in Automation — un champ distinct du domaine de l’Interaction Humain-Machine. Issu de la psychologie ergonomique et des sciences de l’ingénieur, il s’intéresse à la manière dont les humains supervisent, font confiance et délèguent à des systèmes automatisés dans des contextes à forts enjeux : aviation, nucléaire, médecine, défense.
Première implication, le résultat : la transparence centrée sur la documentation est insuffisante. Ce n’est pas une intuition : c’est ce que la recherche montre depuis trente ans. Ainsi, documenter et expliquer le comportement d’un système ne suffit pas à garantir de bonnes décisions humaines sans 1) impliquer les individus dans les processus de conception de ces explications et de cette documentation et 2) prendre en compte le contexte du besoin métier à l’instant t. Des études contrôlées ont même montré que “trop d’explications” peuvent dégrader la performance de l’équipe humain-IA en noyant l’information pertinente dans le bruit.
Deuxième implication, le gap : la qualification métacognitive des opérateurs devrait être considérée comme une composante de la gouvernance IA. Il s’agit ici d’un gap que la recherche a commencé à nommer, sans qu’aucun référentiel n’ait encore été formalisé. Plus concrètement, les textes réglementaires comme l’AI Act exigent que les superviseurs humains soient « compétents », mais sans jamais définir ce que cela signifie — et, en particulier, aucun référentiel n’évalue ce que les chercheurs appellent la compétence métacognitive, soit la capacité à détecter les défaillances de son propre raisonnement face à un système opaque, une compétence qui relève de la formation et du contexte, pas de l’intelligence brute. Une précision importante s’impose ici. Parler de la qualification métacognitive des opérateurs ne revient pas à remettre en cause la valeur ou l’intelligence des personnes qui supervisent des systèmes d’IA. Il ne s’agit pas non plus de classer les humains selon leur capacité à « bien penser ». Comme la métacognition n’est ni un trait de personnalité ni un indicateur de valeur, mais une compétence situationnelle, elle est donc sensible au contexte, à la formation, à la charge cognitive et aux conditions de travail. Par exemple, un chirurgien expérimenté peut présenter un excellent étalonnage métacognitif dans son domaine et être tout aussi vulnérable au biais d’automatisation qu’un débutant face à un système d’IA opaque dans un contexte pour lequel il n’a reçu aucune formation spécifique.
Troisième implication, notre hypothèse : les compétences métacognitives — savoir ce qu’on comprend, détecter ses propres erreurs de raisonnement, réguler ses stratégies cognitives — varient selon les individus et ne sont pas uniformément réparties au sein de la population, ce qui crée un risque structurel pour la sécurité. Il s’agit d’une hypothèse, formulée à partir de travaux menés en psychologie de l’éducation, qui n’a pas encore été étudiée dans le contexte de la gouvernance de l’IA. C’est peut-être le prochain axe de recherche que les gouvernements devraient encourager activement. En effet, si les organisations les mieux dotées en moyens matériels et en ressources humaines peuvent satisfaire aux exigences de supervision réelle, celles qui n’en ont pas — non pas parce que leurs personnels seraient moins capables, mais parce que les conditions permettant le développement de cette compétence situationnelle n’ont pas été réunies — produiront une conformité de façade, insuffisante, générant une fausse sécurité particulièrement dangereuse dans les domaines critiques.
Le problème central identifié dans cette note n’est pas un manque d’ambition des cadres de gouvernance existants. L’AI Act européen [6], les principes de l’OCDE sur l’IA [7] et le plan d’action américain expriment tous des engagements forts en faveur de la supervision humaine et du contrôle significatif. Le problème est une lacune structurelle entre ce que ces cadres exigent des systèmes d’IA et ce qu’ils exigent des humains qui les supervisent.
Combler cette lacune nécessite de traiter la maturité métacognitive non pas comme une préoccupation périphérique relevant des « facteurs humains », mais comme une variable constitutive d’une supervision efficace de l’IA — une variable empiriquement étudiable, opérationnellement pertinente et inégalement répartie entre les institutions que la gouvernance de l’IA est censée protéger. Tant qu’elle ne sera pas intégrée à l’architecture formelle de la réglementation, la « supervision humaine » restera une déclaration d’intention plutôt qu’une garantie de sécurité.
Ikram Chraibi Kaadoud, PhD (she/her), Chercheuse XAI & sciences cognitives
LinkedIn I HAL I https://ikramchraibik.com/
Cet article est une adaptation grand public d’une note d’orientation publiée en anglais par l’autrice sur la plateforme Substack : https://substack.com/home/post/p-190513060
Un article dont la mise en forme (uniquement !) a utilisé une solution d’IA générative.
1 Parasuraman, R., & Riley, V. (1997). Humans and automation : Use, misuse, disuse, abuse. Human Factors, 39(2), 230–253. https://doi.org/10.1518/001872097778543886
2 Kahneman, D. (2011). Thinking, Fast and Slow. Farrar, Straus and Giroux. Le cadre de la cognition à double processus distingue le traitement rapide et associatif (Système 1) du traitement lent et délibéré (Système 2), avec des implications importantes pour la manière dont les humains répondent aux outputs automatisés à forte confiance apparente.
3 Tankelevitch, L., Kewenig, V., Simkute, A., Scott, E.A., Sarkar, A., Sellen, A., & Rintel, S. (2024). The
Metacognitive Demands and Opportunities of Generative AI. Proceedings of the CHI Conference on Human Factors in Computing Systems. https://doi.org/10.1145/3613904.3642902
4 Alter, A.L., & Oppenheimer, D.M. (2009). Uniting the tribes of fluency to form a metacognitive nation. Personality and Social Psychology Review, 13(3), 219–235.
5 Bansal, G., Vaughan Ngyuen, T., Vaughan, J. W., Weld, D., & Lasecki, W. S. (2021). Does the Whole Exceed Its Parts? The Effect of AI Explanations on Complementary Team Performance. Proceedings of the 2021 CHI Conference on Human Factors in Computing Systems. https://doi.org/10.1145/3411764.3445717
6 Parlement européen. (2024). Règlement (UE) 2024/1689 — Loi sur l’intelligence artificielle (AI Act). Articles 13 (Transparence), 14 (Supervision humaine), Annexe III (Systèmes d’IA à haut risque).
7 OCDE. (2024). Principes de l’OCDE sur l’IA. Principe 1.4 : Centrage sur l’humain et supervision humaine. https://oecd.ai/en/ai-principles
L’article La maturité métacognitive : la variable manquante de la gouvernance de l’IA est apparu en premier sur Blog binaire.