LePartisan - 438 vues
MEDIAS REVUES BLOGS
URL du flux RSS

▸ les 25 dernières parutions

11.03.2026 à 16:49

Détecter les images générées par IA : la proposition des métadonnées C2PA

Claire Scopsi, Professeur en sciences de l'information et de la documentation, Conservatoire national des arts et métiers (CNAM)
Il devient de plus en plus complexe de détecter le vrai du faux à l’œil nu. Une idée pourrait être de marquer les photos générées par IA. Cette solution pourrait être efficace, mais connaît encore de nombreuses limites.
Texte intégral (1955 mots)

Il y a encore quelques années, on s’amusait des photos totalement fantaisistes générées par l’IA mais, aujourd’hui, il devient de plus en plus complexe de détecter le vrai du faux à l’œil nu. Une idée pourrait être de marquer les photos générées par IA. Cette solution pourrait être efficace, mais connaît encore de nombreuses limites.


En 2024, les hypertrucages vidéo (ou deepfakes) ont rejoint la panoplie des escrocs en imitant le visage et la voix d’un dirigeant pour mieux tromper la vigilance de ses employés. Ils s’invitent désormais en politique. Catherine Connolly, candidate à la présidentielle irlandaise, découvre avec stupeur une vidéo virale où elle annonce son retrait de la campagne. L’intelligence artificielle (IA) se prête aux fantaisies des partisans du premier ministre hongrois Viktor Orban pour mieux discréditer Péter Magyar, son principal opposant aux législatives.

Détecter l’artificialité d’une image ou d’une vidéo est devenu un enjeu démocratique et une urgence. Menée par les Gafam et la BBC, la coalition internationale C2PA, composée d’entreprises de technologies, de groupes de presse et de médias, propose un modèle de métadonnées permettant d’identifier la nature et l’origine des contenus du Web.

Bâtir la confiance à l’ère de l’IA

Les premières promptographies (images générées par IA) étaient célèbres pour leurs aberrations, mains à six doigts ou trombones aussi grands que des gratte-ciels. Mais, comme l’affirme le photographe Niels Ackermann en comparant les performances des générateurs d’images entre 2022 et 2024 : « Il y a deux ans, on ricanait encore en comptant les doigts en trop ou les dents dans les bouches […]. C’est fini ! »

Les progrès de DALL-E, de Midjourney et de leurs émules sont rapides, et il devient presque impossible de distinguer leurs productions des photographies à l’œil nu. Dans le monde de la vidéo, les visages clonés bougent presque comme les originaux, les mouvements de lèvres suivent les textes qu’on leur soumet, le clonage vocal imite les timbres, rythmes et intonations. Les portes s’ouvrent pour de stimulantes créations, mais aussi pour la production de deepfakes toujours plus sophistiqués.

La situation est source de malaise pour les usagers du Web qui redoutent les fake news, tandis que les entreprises de presse et de communication craignent de perdre la confiance de leurs usagers ou de leurs clients si des images artificielles se glissent dans leurs productions.

« Près de 9 consommateurs sur 10 dans le monde veulent savoir si une image a été créée à l’aide de l’IA », c’est ce qu’annonce le rapport « Bâtir la confiance à l’ère de l’IA », consolidé en mai 2024, par l’agence d’images Getty à partir des données collectées auprès des milliers de consommateurs de tous pays. Il rejoint la conclusion de l’enquête Ifop Opinion de mars 2024 : « Neuf Français sur dix seraient favorables à l’imposition d’une mention indiquant l’origine artificielle du contenu sur les deepfakes. »

Le règlement européen sur l’intelligence artificielle (AI Act) entre en application en août 2026. Il consacre son chapitre IV à l’obligation de transparence, c’est-à-dire l’obligation pour les fournisseurs et déployeurs de systèmes de signaler les contenus produits ou modifiés par IA (article 50, items 2 et 4). Il énonce également sous quelle forme cette information doit être disponible en parlant de résultats « marqués dans un format lisible par machine » et d’informations « fournies aux personnes physiques concernées de manière claire et distincte au plus tard au moment de la première interaction ou de la première exposition » (article 50, item 5). L’information doit donc, d’une part, pouvoir être lue et affichée par des logiciels et, d’autre part, être lisible par un humain dès l’affichage du contenu concerné.

En 2021, six entreprises du monde des médias, de l’électronique et de l’authentification des documents numériques (Adobe, Arm, la BBC, Intel, Microsoft et Truepic) fondent la Coalition for Content Provenance and Authenticity (C2PA, Coalition pour la provenance et l’authenticité des contenus). Leur objectif est de rétablir la confiance des marchés dans l’IA en produisant une méthode commune de marquage des fichiers numériques. C2PA promet aux usagers d’afficher la manière dont la photo, la vidéo, le son ou le texte qu’ils consultent a été produit et à quelle date, avec quel logiciel il a été modifié par la suite et la nature des modifications apportées.

Le principe se base sur des métadonnées, c’est-à-dire des informations de toutes sortes concernant un contenu. Par exemple, pour une photo numérique : la date, l’auteur et le lieu d’une prise de vue, le type d’appareil photo utilisé, le nom et la version du logiciel de retouche. Elles sont produites par les applications des éditeurs de contenus, les caméras ou les appareils photo, qu’ils s’appuient ou non sur l’IA. Ces métadonnées, intégrées aux fichiers, sont complétées à chaque nouvelle modification du contenu, même si elle est effectuée avec un autre logiciel. La solution de C2PA repose sur les Content Credentials, un format de métadonnées standard et ouvert, dont les spécifications sont publiées sur le site C2pa.org. Pour résister aux falsifications, ces données sont cryptées par un système de signature numérique qui garantit leur origine.

La coalition est en marche

Mais pour être efficace, le système doit être adopté par le plus grand nombre possible d’éditeurs et de producteurs de contenus afin de marginaliser les fichiers dépourvus de ces métadonnées d’authentification (un peu comme un consommateur qui se détournerait d’un produit qui n’affiche pas de Nutri-Score). Une fois largement diffusés, les Content Credentials agiront aussi comme un label de transparence.

L’enjeu est d’attirer dans la coalition le plus grand nombre d’entreprises influentes, et les résultats sont prometteurs. En 2022, un an après sa création, C2PA compte 200 membres internationaux. En février 2024, Meta, OpenAI et Google rejoignent la coalition… et en intègrent le comité directeur. Du côté des groupes de presse et de communication, Publicis, Springer Nature, Reuters, la RAI, Die Zeit ou The Wallstreet Journal ont suivi la BBC et, fin 2025, France Télévision a annoncé avoir lancé ses essais d’intégration du standard pour l’authentification de ses journaux. En 2025, C2PA affiche une communauté de plus 5 000 membres.

Les premières applications de Content Credentials sont sur le marché

Adobe poursuit depuis 2024 le déploiement des Content Credentials dans ses applications de traitement d’image, dont le célèbre Photoshop et le générateur « du texte à l’image » Firefly. En novembre 2025, OpenAI annonce que les informations d’identification du contenu sont automatiquement appliquées à toutes les images générées par DALL-E 3, GPT-image-1 et le modèle génératif d’audio et de vidéo SORA 2.

La guerre des « outils d’inspection » est lancée. En 2026, dans les smartphones Pixel10 sous Android 8, l’application Google Photo affiche le « Content Credentials pin », « Cr », qui signale la présence des métadonnées d’authentification dans les images téléchargées. La plateforme Adobe Content Authenticity est fonctionnelle en version bêta. Une extension de vérification Lense exclusivement destinée au navigateur Chrome est disponible sur les plates-formes de téléchargement.

Au début de l’année 2026, les tests que j’ai effectués pour illustrer cet article ont été plutôt laborieux : les images comportant les précieuses métadonnées sont encore rares sur le Web. Il faut donc générer une image de test avec DALL-E 3 (intégré à ChatGPT), lequel ne produit les métadonnées C2PA qu’à la condition qu’on le lui demande clairement. Mais ensuite l’outil d’inspection d’Adobe affiche vaillamment les métadonnées et détecte la signature d’Open AI. En revanche, le test effectué avec l’extension Lense pour Chrome a échoué.

Une initiative non dénuée de risques

Transparence, authenticité et confiance sont les maîtres mots des membres de la coalition C2PA. Pour prometteuse qu’elle soit, l’initiative soulève quelques critiques, tout d’abord techniques : les métadonnées peuvent disparaître lors des manipulations de l’image, c’est un point de fragilité avoué par les membres. On peut craindre également que des fraudeurs simulent le comportement des outils d’inspection pour authentifier abusivement des « fake », ou piratent les métadonnées d’un contenu pour les intégrer à un autre.

Le World Privacy Forum alerte sur le risque d’atteintes à la vie privée. La production non contrôlable des métadonnées peut conduire à diffuser des informations contre le gré de l’auteur du contenu : souhaite-t-il vraiment que ses photos, en circulant sur le Web, indiquent à tous le lieu où il se trouvait au moment de la prise de vue ? D’autant que le recoupement de ces données de provenance accumulées sur un temps long peut constituer un traçage de ses activités. La possibilité pour les éditeurs d’ajouter des métadonnées visant la désignation de groupes militants ou discriminés est également à craindre.

La composition même de la coalition, composée d’entreprises commerciale et gouvernée par les Gafam, constitue un outil d’influence et d’orientation des marchés considérable. La coalition fonctionne dans un entre-soi en proposant les outils sur leurs propres suites logicielles ou plateformes. La complexité d’implémentation du standard peut empêcher les plus petits acteurs de produire les métadonnées. L’effet de label de confiance du Content Credentials pin détournera alors le public de leurs produits et renforcera le monopole des grands groupes. Mais n’est-ce pas l’objectif caché de la coalition ?

The Conversation

Claire Scopsi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

10.03.2026 à 17:04

Quinze ans après l’accident nucléaire de Fukushima, les leçons d’une crise environnementale et sociale

Olivier Evrard, Directeur de recherche, Commissariat à l’énergie atomique et aux énergies alternatives (CEA); Université Paris-Saclay
Cécile Asanuma-Brice, Directrice du Mitate Lab. Post Fukushima Studies, Centre national de la recherche scientifique (CNRS)
À Fukushima, la décontamination a progressé, mais le retour à la normale reste incertain. Jusqu’où dépolluer ? Et comment faire revenir des habitants dans les territoires qu’ils avaient évacués ?
Texte intégral (2570 mots)

En mars 2011, la catastrophe de Fukushima bouleversait le Japon. Quinze ans plus tard, les opérations de décontamination ont progressé, mais le retour à la normale reste incertain. Comment fixer le curseur de ce que serait un niveau de décontamination suffisant ? Les populations déplacées reviennent-elles vivre dans les villages évacués ? L’enjeu n’est plus seulement environnemental, il est également social, et révèle des fractures territoriales profondes.


C’est une date désormais bien ancrée dans les mémoires. Le 11 mars 2011, un tsunami suivi d’un séisme a dévasté 600 kilomètres de côtes au nord-est du Japon. Quelques jours plus tard, plusieurs explosions ont soufflé les enceintes de confinement de trois des six réacteurs de la centrale n°1 de la préfecture de Fukushima.

Les émissions radioactives qui s’ensuivirent furent rabattues par la neige sur les sols de la région, formant un panache radioactif qui a rendu nécessaire l’évacuation de plus de 160 000 habitants, selon les chiffres officiels.

Où en sont aujourd’hui les opérations de décontamination ? Quel bilan retenir de la gestion de la crise environnementale et sociale par les autorités japonaises : a-t-elle fonctionné ? Les habitants déplacés ont-ils pu revenir chez eux ? État des lieux, quinze ans après la catastrophe.

De quelle radioactivité parle-t-on ?

Parmi les produits radioactifs libérés lors de l’explosion de l’enceinte des réacteurs et qui subsistent sur le long terme dans l’environnement après leur émission, on retrouvait principalement deux isotopes radioactifs du césium :

  • le césium 134, dont la demi-vie, c’est-à-dire la durée nécessaire pour que la moitié des atomes se désintègrent, est de deux ans,

  • et le césium 137, dont la demi-vie est de trente ans.

On estime généralement qu’il faut 7 à 10 demi-vies pour qu’un isotope radioactif ait suffisamment décru pour que sa présence soit devenue négligeable, autrement dit, pour que la radioactivité résiduelle ne soit plus que de 1 à 7 % de son niveau initial.

C’est déjà quasiment le cas pour le césium 134, cette durée étant, pour ce radioisotope, de quatorze à vingt ans. Toutefois, il faudra encore patienter pour ce qui est du césium 137, le temps pour atteindre cet état étant de deux cent  dix à trois cents ans. C’est sur ce dernier que se concentrent désormais toutes les attentions.

Le problème ? Le césium radioactif se fixe presque de façon presque irréversible sur les argiles des sols. Seule l’action humaine peut l’en déloger.

En 2011, la surface du territoire japonais la plus contaminée par le césium 137 – c'est-à-dire susceptible d’être décontaminée au vu des débits de dose radioactifs significatifs (supérieurs à 2 millisieverts par an) auxquels les habitants étaient à l’époque exposés– couvrait une surface comparable à celle de la Corse, soit environ 9 000 kilomètres carrés.


À lire aussi : Bombe atomique et accident nucléaire : voici leurs effets biologiques respectifs


Une politique de décontamination efficace mais partielle

Dans la région de Fukushima, où les paysages sont montagneux et majoritairement recouverts de forêts, les autorités japonaises ont mis en œuvre une vaste stratégie de décontamination. Celle-ci visait à décaper la surface des rizières et des autres sols cultivés situés dans les fonds de vallées et ceux des zones résidentielles.

Ces opérations très coûteuses – l’ensemble des coûts de remédiation, incluant la décontamination, était estimé par la Cour des comptes japonaise à 44 milliards d’euros en 2023 – ont permis de faire baisser les concentrations de césium 137 de 80 % en moyenne dans les sols concernés par la décontamination.

Dans les rivières qui drainent les territoires contaminés, les niveaux de radioactivité des sédiments qui y transitent ont également fortement baissé. Cette baisse est désormais d’environ 90 %, si on compare les niveaux de césium 137 mesurés en 2011 et dix ans plus tard.

Depuis lors, ces niveaux restent stables. Ceci peut s’expliquer par l’apport pérenne de radioactivité des forêts, qui n’ont pas été décontaminées. En effet, celles-ci couvrent 75 % de la surface de la zone affectée par le panache radioactif.

Les barrages de la région qui sont utilisés pour irriguer les rizières de la plaine côtière stockent d’ailleurs une quantité importante de sédiments radioactifs. Dans certaines conditions, le césium radioactif peut ainsi être remobilisé dans la colonne d’eau, et il peut alors être réabsorbé par les organismes vivants, par exemple les poissons.


À lire aussi : Fukushima : 12 ans après l’accident, une décontamination des sols au bilan mitigé


La déforestation, une prochaine étape qui interroge

Plus d’une décennie après l’accident, le césium radioactif retombé sur les forêts et intercepté par la canopée des arbres a été transféré dans la partie minérale des sols. Depuis le sol, une partie de ce césium peut alors être réabsorbée par les arbres et les plantes par l’intermédiaire des racines, ce qui rend impossible la commercialisation du bois dont la teneur en césium dépasse la limite autorisée.

Ces valeurs limites sont également souvent dépassées dans les champignons, le gibier et les poissons des rivières qui traversent ces forêts. Les autorités évoquent donc désormais la possibilité de couper les forêts afin d’achever la décontamination.

Montagnes Abukuma, dans la préfecture de Fukushima, au Japon. Σ64/Wikicommons, CC BY

Pourtant, cette option interroge : les forêts se trouvent en effet sur les versants les plus pentus et l’érosion que la coupe des arbres engendrerait pourrait être massive, surtout en cas de typhon. Comme lors des événements cévenols en France, ces épisodes pluvieux intenses généreraient glissements de terrain, crues et débordements.

Ils occasionnent au passage une recontamination de certaines zones, en bas de versants et dans les vallées, qui avaient pourtant déjà été décontaminées à grands frais il y a quelques années. À ce risque, viennent s’ajouter la destruction des écosystèmes, la dégradation de la biodiversité et la destruction des habitats de nombreuses espèces.

En plus de la reconstruction et de la gestion des forêts, un autre problème se pose pour les autorités japonaises. Il s’agit de la redistribution sur le territoire japonais des terres issues de la décontamination, jusqu’ici stockées autour de la centrale, afin de rendre les terrains de stockage à leur propriétaire d’ici 2045.

Reconstruire les villes fantômes, mais avec quels habitants ?

Reste l’enjeu politique du retour des habitants dans les zones évacuées. Celles-ci concernaient 12 communes, dont certaines parties ont été progressivement rouvertes à l’habitat depuis 2017.

Sept zones de reconstruction prioritaires ont été délimitées dans la zone dite « difficile au retour », qui comprend les zones les plus contaminées après l’accident. La levée de l’ordre d’évacuation pour ces communes a engendré une suspension des soutiens financiers jusque là octroyés aux habitants déplacés, afin de les inciter au retour. Mais contrairement à ce qui était prévu par les autorités, 80 % des anciens habitants de ces communes ont exprimé leur intention de ne pas rentrer.

Pendant longtemps, la contamination encore élevée présente dans l’environnement leur a donné raison. Aujourd’hui toutefois, bien que des hotspots de contamination soient toujours observés, c’est la destruction des anciens lieux de vie qui en est la cause.

La reconstruction s’accompagne de la destruction de villages entiers, y compris des bâtiments datant parfois de plus d’un siècle. Les politiques de décontamination ont profondément modifié le paysage par la coupe des arbres ou l’arasement de montagnes. En outre, les autres membres de la famille ou les anciens voisins ont déménagé. En somme, ce ne sont pas seulement des villages et des lieux de vie qui ont été détruits, mais des communautés entières.

À ce défi déjà colossal vient s’ajouter l’absence des services territoriaux dans ces régions, et principalement du secteur hospitalier, qui fait cruellement défaut à une population vieillissante.

Enfin, quinze ans après, certains résidents sont décédés, alors que d’autres ont tout simplement refait leur vie ailleurs.

Attirer de nouvelles populations

Face à ce constat, le gouvernement japonais a décidé de financer le retour de nouvelles populations, pour lesquelles des villes nouvelles sont construites, aux dépens de la culture originelle des lieux.

Les nouveaux habitants se voient ainsi proposer des pavillons ou appartements dans des lotissements de ville nouvelle, avec les caractéristiques des espaces produits par la ville globale : homogénéisation des espaces, matériaux de construction légers, artificialisation des sols, en somme, une perte d’identité des lieux.

Pour ce faire, les autorités jouent la carte de l’incitation financière. L’habitat y est non seulement quasiment gratuit, mais chaque ménage reçoit également une somme d’argent conséquente pour venir habiter dans l’ancienne zone évacuée. À ce soutien financier s’ajoute un revenu complémentaire si les nouveaux venus sont capables de justifier d’un emploi dans la zone.

Outre la pollution potentielle, cette politique (construction de villes nouvelles à l’emplacement des anciens villages et implantation de populations venues d’ailleurs) conduit à l’effacement de l’histoire de villages séculaires. De fait, elle ne rencontre pas, pour l’instant, le succès escompté. La principale commune de la zone évacuée, Namie, compte aujourd’hui une population qui ne représente que 15 % de celle qui y vivait avant l’accident nucléaire. De même, la commune d’Iitate plafonne à 33 %, 23 % pour celle de Tomioka, 9 % pour celle d’Okuma et 3 % pour celle de Futaba. Ces niveaux de populations sont trop faibles pour faire tourner convenablement une économie locale.

Par ailleurs, les nouveaux habitants correspondent principalement à des personnes qui se trouvaient dans des situations de vulnérabilité sociale importante en provenance de différentes régions du Japon. Elles se retrouvent ainsi regroupées dans ces nouveaux quartiers.

Quelles seront les conséquences d’une telle ségrégation ? L’avenir le dira. Ces éléments montrent en tout cas que les traces les plus durables laissées par l’accident nucléaire de 2011 à Fukushima ne seront pas seulement d’ordre environnemental : elles seront aussi sociales.

Ces sujets, ainsi que le démantèlement total de la centrale, pour lequel la durée nécessaire est estimée à quarante ans par le gouvernement japonais, continue de faire l’objet de recherches interdisciplinaires, telles que celle que nous menons avec le laboratoire international MITATE Lab (CNRS, CEA, Université de Fukushima).


À lire aussi : Three Mile Island, Tchernobyl, Fukushima : le rôle des accidents dans la gouvernance nucléaire


The Conversation

Olivier Evrard a reçu des financements de l'ANR (TOFU_ANR-11-JAPN-0001), des Investissements d'Avenir de l'Etat français (AMORAD_11-RSNR-0002), du CNRS (IRP et IRL MITATE, NEEDS, EC2CO) et du CEA (via des financements de thèse notamment) pour mener ses recherches à Fukushima depuis 2011.

Cécile Asanuma-Brice, chercheur CNRS, est directrice du Laboratoire international Mitate lab. Post-Fukushima studies. Elle a reçu des financements divers depuis 2011 pour mener ses travaux pluridisciplnaire sur la gestion de la catastrophe nucléaire (ANR, NEEDS, PEPS-CNRS, etc.).

10.03.2026 à 17:04

Comment savoir si je parle à un chatbot ?

Zeling Zhong, Enseignante-Chercheuse en Innovation Digitale & Marketing, EDC Paris Business School
En mars 2025, GPT-4.5 a réussi à convaincre la plupart de ses évaluateurs qu’il était humain. Or, savoir à qui l’on parle est très important, avec des enjeux notamment en termes de sécurité en ligne.
Texte intégral (1635 mots)

GPT-4.5 a réussi à convaincre 73 % des évaluateurs qu’il était humain lors d’un test rigoureux en mars 2025. Or, savoir à qui l’on parle est très important, avec des enjeux notamment en termes de sécurité en ligne.


Vous échangez avec le service client de votre fournisseur d’électricité via un chat en ligne. Les réponses arrivent instantanément : précises, empathiques, légèrement familières et portées par un ton que vous identifiez comme féminin. Pour tester votre interlocutrice, vous posez une question piège et votre interlocutrice répond avec humour. Ai-je échangé avec une véritable conseillère… ou avec un algorithme d’IA sophistiqué ?

Vous n’êtes pas les seuls à éprouver ce doute ! Presque la moitié des utilisateurs de chatbots reconnaissent avoir déjà confondu un agent conversationnel virtuel avec un être humain. Jamais la frontière entre l’humain et la machine n’a été aussi floue.

Mes travaux de recherche récents examinent les mécanismes d’adoption de ces outils. Il est indéniable que nous sommes en train d’entrer dans une ère marquée par ce que l’on pourrait appeler une confusion ontologique, c’est-à-dire une ère où les frontières entre le naturel et l’artificiel deviennent de plus en plus floues pour l’être humain qui a du mal à les distinguer clairement.


À lire aussi : Comment enfants et adolescents grandissent avec l’IA, cette « amie » artificielle


Or, savoir à qui l’on parle ne relève plus uniquement d’une simple curiosité technologique : c’est devenu un enjeu de cybersécurité, de confiance et de bien-être psychologique.

Ne pas distinguer un humain d’un chatbot peut exposer à une confiance excessive dans des réponses qui peuvent être inexactes et à la divulgation imprudente d’informations à caractère personnel. Pour le grand public, savoir identifier un chatbot, comprendre ses limites et évaluer la qualité de ses réponses devient une compétence essentielle pour utiliser ces outils en connaissance de cause.

Pourquoi l’identité de votre interlocuteur change-t-elle tout ?

Aujourd’hui, plus d’un milliard de personnes dans le monde utilisent des chatbots. Il est prévu que ce marché atteigne 60,26 milliards de dollars (51,77 milliards d’euros) d’ici à 2030.

Le secteur de la santé, notamment en ce qui concerne la santé mentale, est témoin de l’émergence des chatbots IA de type compagnon qui sont programmés pour simuler la compassion. Savoir que l’on parle à un algorithme d’IA favorise le maintien d’une distance critique indispensable vis-à-vis des recommandations formulées. Par exemple, si une personne exprime un profond mal-être, un chatbot pourra proposer des exercices de relaxation, mais ces réponses standardisées reposant sur des modèles statistiques ne remplacent pas l’évaluation clinique individualisée et le suivi d’un professionnel de santé.


À lire aussi : Les IA, nos nouvelles confidentes : quels risques pour la santé mentale ?


Dans le monde des affaires, les entreprises recourent massivement aux chatbots IA afin de réduire les dépenses opérationnelles. La responsabilité juridique peut être engagée dans le cas où un chatbot IA émet une promesse commerciale erronée en raison d’un dysfonctionnement ou d’une hallucination, par exemple, si un chatbot promet par erreur une remise inexistante ou un remboursement sans condition. Qui est responsable de cette promesse ? Le concepteur du chatbot IA, l’entreprise qui l’utilise, ou tout autre acteur impliqué dans sa conception ou sa mise en œuvre ? La clarté concernant l’identité de l’émetteur est essentielle pour établir les fondements du contrat qui définit les responsabilités de chaque partie impliquée.

À l’échelle sociétale, savoir distinguer l’humain des chatbots IA est essentiel pour préserver l’intégrité du débat public. Identifier la nature de son interlocuteur permet d’éviter de confondre un contenu automatisé avec une prise de position authentiquement humaine. Par exemple, lors d’une consultation publique en ligne, un chatbot clairement identifié peut fournir rapidement des informations factuelles sur une réforme sans prétendre porter la voix des citoyens. Les utilisateurs du service public numérique font davantage confiance à un chatbot lorsque celui-ci est clairement identifié comme tel.

Comment identifier un chatbot aujourd’hui ?

Avant tout, pour comprendre son fonctionnement, il faut regarder l’architecture des « transformers », la structure technique derrière la plupart des chatbots modernes. Ces « transformers » sont capables de prédire le mot suivant une suite de mots donnée, grâce aux statistiques : ils donnent juste le mot suivant le plus probable. Savoir que l’on parle à un chatbot IA, c’est se rappeler qu’il ne comprend pas le sens, qu’il n’y a pas de pensée derrière la conversation : le chatbot ne fait que choisir les mots qui ont statistiquement gagné à l’issue de ses calculs.


À lire aussi : Comment fonctionne ChatGPT ? Décrypter son nom pour comprendre les modèles de langage


Voici quelques astuces de détection utiles pour savoir si l’on parle à un chatbot IA.

Posez des questions qui nécessitent des détails personnels ou des souvenirs à long terme que le chabot IA ne possède pas, par exemple « Tu te rappelles ce que je t’avais dit sur mon premier stage ? » Un être humain serait en mesure de mobiliser un souvenir précis, tandis qu’un chatbot IA ne pourrait que simuler une continuité. Autre test possible : faites référence à une expérience commune implicite, par exemple « On avait finalement choisi quel restaurant déjà ? » Un être humain pourra se souvenir du lieu exact, tandis qu’un chatbot IA tendra à proposer une réponse plausible sans véritable souvenir.

Posez des questions qui permettent de tester les limites du raisonnement de chatbot IA avec des situations absurdes, par exemple : « Explique-moi pourquoi il est impossible d’expliquer cette impossibilité. » Un humain est davantage susceptible de résister à la demande en exprimant un inconfort par rapport à la question posée. Le chatbot IA raisonne comme si la situation était cohérente, même quand elle ne l’est pas, l’action requise demeure irréalisable. Autre exemple : « Décris précisément la couleur d’un triangle invisible. » Un humain soulignera spontanément l’incohérence de la consigne, tandis qu’un chatbot IA cherchera souvent à formuler une explication théorique comme si la question avait un sens pleinement exploitable.

Posez des questions sur des événements récents hyperlocalisés avec une opinion nuancée, par exemple : « En tant que riverain, que penses-tu de la piétonnisation hier de cette rue ? » Les chatbots IA sont entraînés sur des bases de données figées à une date précise. Même si certains sont connectés à Internet, ils ont souvent du mal à commenter les actualités hyperlocales très récentes avec une perspective nuancée. Autre exemple : « Comment as-tu vécu la coupure d’électricité dans notre quartier hier soir ? » Un habitant pourra évoquer des détails précis comme les discussions avec les voisins et l’ambiance dans la rue, tandis qu’un chatbot restera dans des généralités sans véritable ancrage local.

Vers une transparence et une littératie numérique indispensables : l’IA Act et au-delà

Mes travaux récents, au-delà des astuces de détection, invitent à repenser notre relation avec ces interlocuteurs numériques. Notre étude montre que la divulgation de l’identité, c’est-à-dire l’annonce par un chatbot IA de sa nature artificielle, ne réduit pas forcément la satisfaction de l’utilisateur si la qualité informationnelle du chatbot IA est au rendez-vous. La loi européenne, par le biais de l’IA Act, va imposer cette transparence.

À l’avenir, la question sera donc plutôt « Comment optimiser la collaboration avec cette entité que je sais être artificielle ? » Pour les entreprises, il faut se concentrer sur ce qui compte vraiment aux yeux des utilisateurs grand public, c’est-à-dire la performance du chatbot IA permettant de fournir des réponses pertinentes, fiables et de qualité, plutôt que de se contenter de déclarations éthiques génériques ou d’avatars anthropomorphiques attrayants.

The Conversation

Zeling Zhong ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

4 / 25

 

  GÉNÉRALISTES
Ballast
Fakir
Interstices
Issues
Korii
Lava
La revue des médias
Time [Fr]
Mouais
Multitudes
Positivr
Regards
Slate
Smolny
Socialter
UPMagazine
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
À Contretemps
Alter-éditions
Contre-Attaque
Contretemps
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
 
  ARTS
L'Autre Quotidien
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
Gauche.Media
CETRI
ESSF
Inprecor
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
🌞