En avril, et ce pour la première fois, le site du chatbot d’Open AI, ChatGPT, a été plus visité que celui de Wikipédia aux États-Unis. Si le trafic sur le site de l’encyclopédie en ligne demeure stable, les visites sur ChatGPT ont quant à elles presque triplé en moins d’un an, passant de moins de 300 millions en mai 2024 à près de 800 millions par mois.
- Quelques semaines avant la publication de ces chiffres, un sondage conduit par la société d’études de marché britannique GWI indiquait que cette tendance se confirmait à l’échelle mondiale — à l’exclusion de la Chine ou l’accès à ChatGPT est interdit 1.
- Ces chiffres semblent indiquer que les utilisateurs n’ont pas remplacé dans leurs usages l’utilisation traditionnelle de Wikipedia, mais utilisent l’intelligence artificielle en appui ou bien pour d’autres tâches.
En février 2023, soit quatre mois seulement après la mise en ligne gratuite de ChatGPT par OpenAI, le groupe bancaire suisse UBS lui conférait le titre d’application à la croissance la plus rapide de l’histoire. Il a fallu seulement cinq jours au site pour atteindre un million d’utilisateurs, et moins de deux mois pour passer la barre des 100 millions d’utilisateurs mensuels actifs.
Malgré de nombreuses innovations et améliorations depuis sa mise en ligne, le chatbot est toujours susceptible de présenter des biais et des erreurs factuelles.
- Ces erreurs se sont notamment glissées ces derniers jours dans un rapport officiel américain sur la santé infantile supervisé par le secrétaire à la Santé Robert F. Kennedy, Jr. publié le 22 mai.
- Parmi les 522 notes de bas de page du document, au moins 7 études citées ont été inventées — un phénomène dit « d’hallucination ». L’épidémiologiste Katherine Keyes a notamment démenti être la principale auteur d’un article cité dans le rapport et utilisé pour étayer certains arguments.
- La présence dans les URL de l’expression « oaicite » indique que les citations ont vraisemblablement été générées par ChatGPT. Le journal en ligne NOTUS a également repéré plusieurs liens inaccessibles, confusion entre les auteurs et numéros de publication inexistants qui ont par la suite été corrigés dans une deuxième version 2.
Ces hallucinations se retrouvent aujourd’hui dans de nombreux domaines allant de la recherche scientifique aux médias, mais également dans les tribunaux. Selon le tracker du chercheur Damien Charlotin, des contenus inventés par des IA se sont retrouvés dans près de 140 décisions de justice rendues aux États-Unis depuis l’été 2023 3.
La capacité des grands modèles de langage (LLM) à répondre aux requêtes des utilisateurs dépend de la qualité et de la diversité des données sur lesquelles ils ont été entraînés. Lors de leur développement, si les tâches d’entraînement sont trop simples ou mal conçues, le modèle peut apprendre des raccourcis ou corrélations superficielles : on dit alors que l’IA « triche ». C’est notamment ce qu’il s’est produit avec o3, le dernier LLM d’OpenAI.
- Une évaluation comparative du comportement de plusieurs modèles d’IA menée le mois dernier a révélé que o3 avait plus tendance à ignorer les consignes données par l’utilisateur du chatbot que d’autres modèles.
- Lorsqu’ils ont été testés sur des tâches simples par les chercheurs de Palisade Research, les modèles d’Anthropic, Google et xAI se sont laissés désactiver sans résistance à la demande de l’utilisateur.
- Les modèles d’OpenAI « sabotent » quant à eux leur propre script beaucoup plus souvent : jusqu’à 79 % du temps pour o3.
- Ainsi, face à une mise hors tension simulée, o3 « refuse » de suivre l’instruction posée par l’utilisateur, sabotant ainsi son propre mécanisme d’arrêt.
Afin de repérer les hallucinations et les erreurs factuelles générées par des chatbots, des chercheurs américains travaillent au développement d’un évaluateur, alimenté par l’IA, capable de corriger les LLM 4. Dans sa politique d’utilisation, OpenAI met en garde contre les risques potentiels de « la fourniture de conseils juridiques, médicaux ou financiers sans examen par un professionnel qualifié ».
Sources
- Terrifying Survey Claims ChatGPT Has Overtaken Wikipedia », Futurism, 23 mai 2025.
- The MAHA Report Cites Studies That Don’t Exist », NOTUS, 29 mai 2025.
- AI Hallucination Cases, Damien Charlotin. Consulté le 5 juin 2025.
- Long-form factuality in large language models », arXiv, 7 novembre 2024.