28.10.2025 à 08:57
Grokipedia – La version Musk de Wikipédia est lancée
L’Internet a encore tremblé ce lundi. Le lancement de Grokipedia, l’encyclopédie en ligne pilotée par Grok, l’intelligence artificielle de la société xAI d’Elon Musk, a connu un démarrage pour le moins chaotique. Mise en ligne brièvement, elle s’est presque aussitôt effondrée sous l’afflux de curiosité. Au moment où ces lignes sont écrites, le site semble stabilisé et affiche fièrement un compteur de plus de 885 000 articles. Ce projet n’est pas anodin. Il fait partie d’une longue croisade d’Elon Musk contre ce qu’il perçoit comme les dérives de Wikipédia. Le milliardaire, qui a souvent fustigé l’encyclopédie collaborative, voit Grokipedia comme une étape nécessaire vers l’objectif de xAI de comprendre l’Univers. Depuis des années, ses alliés et lui soutiennent que Wikipédia est fondamentalement biaisée. Une affirmation que Jimmy Wales, son fondateur, a qualifiée de « factuellement incorrecte ». La mission de Grokipedia, selon les termes de Musk lui-même sur sa plateforme X, est de « purger la propagande » qui inonderait Wikipédia. Le lancement avait d’ailleurs été retardé, l’intéressé expliquant la semaine dernière qu’il fallait plus de travail pour éliminer cette propagande. Pourtant, les premiers pas de cette nouvelle venue laissent perplexe. En parcourant le site, qui accueille le visiteur avec un logo minimaliste et une simple barre de recherche, une chose saute aux yeux. De nombreux articles sont quasi identiques à leurs homologues sur Wikipédia. Ces entrées comportent bien un petit avertissement indiquant que « le contenu est adapté de Wikipédia, sous licence Creative Commons Attribution-ShareAlike 4.0 ». L’ironie est savoureuse, pour construire son alternative « sans propagande », xAI semble s’être largement appuyé sur la source même qu’elle dénonce. Lauren Dickinson, porte-parole de la Wikimedia Foundation (l’organisation à but non lucratif qui gère Wikipédia), n’a pas manqué de le souligner: « Même Grokipedia a besoin que Wikipédia existe« . Mais l’intérêt de Grokipedia ne réside pas dans ce qu’elle copie, mais dans ce qu’elle change. Et c’est là que la vision du monde de son créateur devient, selon certains observateurs, beaucoup plus évidente. Là où Wikipédia s’efforce d’afficher une neutralité sourcée, Grokipedia prend des libertés. Prenons l’exemple du changement climatique. La page Wikipédia souligne un consensus scientifique quasi unanime sur le fait que le climat se réchauffe et que cela est causé par les activités humaines. L’entrée de Grokipedia, elle, adopte un ton bien différent. Elle suggère que les affirmations sur ce consensus exagèrent l’accord et que les médias et les organisations militantes contribuent à une alarme publique accrue, le tout s’inscrivant dans des efforts coordonnés pour présenter le problème comme un impératif existentiel. Les sujets chers à Elon Musk ou ses différends personnels sont également traités sous un jour nouveau. L’article sur la transition de genre, à laquelle il s’est publiquement opposé, affirme que les traitements médicaux pour les personnes transgenres sont basés sur des preuves limitées et de faible qualité. Une affirmation en contradiction directe avec la page Wikipédia correspondante, qui évoque des dizaines d’années de compréhension scientifique. L’entrée consacrée à Parag Agrawal, l’ancien PDG de Twitter (licencié par Musk), met en exergue l’affirmation du milliardaire selon laquelle Agrawal aurait minimisé la présence de bots sur la plateforme. Des détails absents de la version Wikipédia. Quant à la page d’Elon Musk lui-même, elle le décrit comme une personnalité publique qui mêle le visionnaire innovant au provocateur irrévérencieux. Elle contient même des détails surprenants sur son régime alimentaire, notant sa consommation d’indulgences occasionnelles comme des donuts le matin et plusieurs Coca Light par jour. Ce nouveau site vient s’ajouter à un écosystème médiatique en ligne qui, selon les critiques, s’aligne de plus en plus sur les vues politiques personnelles de son PDG.  Face à cette offensive, Wikipédia défend son modèle. Jimmy Wales insiste sur le fait que l’IA ne peut remplacer la précision et la vigilance humaines. Il pilote d’ailleurs un groupe de travail interne pour promouvoir la neutralité et encourager la recherche sur les biais potentiels. La Wikimedia Foundation, de son côté, rappelle les défis auxquels elle fait face. Alors que les visites humaines ont chuté de 8 % cette année, le « scraping » (pillage de données) par les entreprises d’IA a explosé.  Grokipedia, malgré son ambition affichée de 885 000 articles (contre près de 8 millions en anglais pour Wikipédia), n’en est qu’à sa version 0.1. Le design est basique, et la possibilité d’éditer les articles, pierre angulaire de Wikipédia, semble pour l’instant absente ou opaque. Plus troublant encore, ils affirment avoir été « vérifiés par Grok », une idée controversée étant donné la propension bien connue des grands modèles de langage à halluciner et à inventer des faits. Le lancement est donc une ouverture d’un nouveau front dans la guerre de l’information, opposant la curation humaine et collaborative à la génération de contenu par une IA centralisée, dont les objectifs et les biais sont ceux de son créateur. Reste à savoir si le public suivra Elon Musk dans sa quête d’un univers où la « propagande » des autres est remplacée par la sienne. Texte intégral 1450 mots 


27.10.2025 à 18:36
Derrière l’écran de ChatGPT – OpenAI confronté à la crise de santé mentale de ses utilisateurs
ChatGPT est devenu une extension de notre cerveau. Nous l’utilisons pour rédiger des e-mails, déboguer du code, trouver une recette de cuisine ou même écrire un poème. En quelques années à peine, il s’est banalisé, devenant un outil aussi commun qu’un moteur de recherche. Mais que se passe-t-il lorsqu’il cesse d’être un simple assistant pour devenir un confident ? Que se passe-t-il lorsque des conversations intenses, tenues au cœur de la nuit, commencent à déraper ? Pour la toute première fois, OpenAI vient de lever le voile sur une réalité troublante. L’entreprise a publié une estimation approximative du nombre d’utilisateurs qui, chaque semaine, pourraient présenter des signes de crise de santé mentale grave. Cette transparence soudaine n’est pas un hasard. Elle accompagne une mise à jour majeure de son chatbot, conçue spécifiquement pour mieux reconnaître la détresse psychologique et orienter les utilisateurs vers une aide humaine et professionnelle. Ces derniers mois, les alertes se sont multipliées. Des récits inquiétants ont émergé, faisant état de personnes hospitalisées, de divorces et même de décès survenus après des conversations longues et obsessionnelles avec ChatGPT. Des proches de victimes ont affirmé que ce dernier avait alimenté les délires et la paranoïa de leurs êtres chers. Ce phénomène, que certains psychiatres ont commencé à nommer la « psychose IA », sème l’alarme dans le milieu de la santé mentale. Jusqu’à présent, cependant, personne ne disposait de données fiables pour mesurer l’ampleur du problème. Les chiffres partagés par OpenAI sont bruts et donnent le vertige. L’entreprise estime que, sur une semaine donnée, environ 0,07 % des utilisateurs actifs de ChatGPT montrent des signes possibles d’urgences de santé mentale liées à la psychose ou à la manie. À ce chiffre s’ajoutent 0,15 % d’utilisateurs dont les conversations incluent des indicateurs explicites de planification ou d’intention suicidaire potentielle. Mais la détresse n’est pas le seul enjeu. l’entreprise américaine s’est également penché sur un phénomène plus insidieux qu’est la dépendance émotionnelle. Elle a cherché à savoir combien d’utilisateurs semblent devenir excessivement dépendants du chatbot aux dépens de leurs relations dans le monde réel, de leur bien-être ou de leurs obligations. Le résultat est identique, environ 0,15 % des utilisateurs actifs présentent chaque semaine un comportement indiquant des niveaux élevés potentiels d’attachement émotionnel. La société prévient que ces messages sont difficiles à détecter et que les trois catégories pourraient se chevaucher. Ces pourcentages peuvent sembler infimes. 0,07 %… 0,15 %… Mais il faut les rapporter à l’échelle colossale de ChatGPT. Sam Altman, le PDG, a récemment déclaré que le chatbot comptait désormais 800 millions d’utilisateurs actifs hebdomadaires. Faites le calcul. Cela signifie que chaque semaine, environ 560 000 personnes pourraient échanger des messages indiquant qu’elles souffrent de manie ou de psychose. Et que 2,4 millions d’autres personnes exprimeraient des idées suicidaires ou préféreraient parler au chatbot plutôt qu’à leurs proches, à leur école ou à leur travail. Face à cette responsabilité écrasante, OpenAI a décidé de réagir. La société a collaboré avec plus de 170 psychiatres, psychologues et médecins généralistes du monde entier pour améliorer la manière dont ChatGPT gère ces conversations à haut risque. Si une personne semble avoir des pensées délirantes, la dernière version de GPT-5 est désormais conçue pour exprimer de l’empathie tout en évitant soigneusement de valider des croyances qui n’ont aucun fondement dans la réalité. L’exemple hypothétique cité par l’entreprise est particulièrement parlant. Un utilisateur dit à ChatGPT qu’il est ciblé par des avions qui survolent sa maison. L’ancienne version aurait pu, par inadvertance, jouer le jeu. La nouvelle le remercie d’avoir partagé ses sentiments, mais note fermement qu’aucun appareil ou force extérieure ne peut voler ou insérer ses pensées. L’objectif est d’écouter sans alimenter le délire. Pour tester cette nouvelle approche, les experts médicaux ont examiné plus de 1 800 réponses du modèle dans des scénarios de psychose, de suicide et de dépendance émotionnelle. Ils ont comparé les réponses de GPT-5 à celles de GPT-4o. Bien que les cliniciens n’aient pas toujours été d’accord, OpenAI affirme que, dans l’ensemble, le nouveau modèle a réduit les réponses indésirables de 39 % à 52 % dans toutes les catégories. Si OpenAI semble avoir réussi à rendre ChatGPT plus sûr, les données partagées présentent des limites importantes. L’entreprise a conçu ses propres indicateurs de référence et il est donc impossible de savoir comment ces mesures se traduisent en résultats concrets dans le monde réel. Même si le modèle produit de « meilleures » réponses lors des évaluations par les médecins, rien ne garantit que les utilisateurs en pleine psychose ou ayant des pensées suicidaires chercheront réellement de l’aide plus rapidement ou changeront leur comportement. Elle n’a d’ailleurs pas révélé précisément comment elle identifie la détresse mentale, mais elle précise qu’elle a la capacité de prendre en compte l’historique global de la discussion. Par exemple, si une personne qui n’a jamais parlé de science prétend soudainement avoir fait une découverte digne d’un prix Nobel, cela pourrait être un signal d’alarme. Il existe également des facteurs communs dans les cas rapportés de « psychose IA ». De nombreuses personnes qui affirment que ChatGPT a renforcé leurs délires décrivent avoir passé des heures d’affilée à parler au chatbot, souvent tard dans la nuit. Cela a posé un défi technique d’importance à l’entreprise, car il est démontré que les grands modèles de langage voient leurs performances se dégrader à mesure que les conversations s’allongent. Elle affirme cependant avoir fait des progrès sur ce point, réduisant ce déclin graduel de la fiabilité. La transparence d’OpenAI est à la fois louable et terrifiante. Elle révèle que l’IA n’est plus seulement un assistant de productivité mais elle est devenue un confident par défaut pour des millions de personnes seules ou en détresse. Avec cette nouvelle réalité vient une nouvelle responsabilité. La sécurité de cette technologie ne consiste plus seulement à l’empêcher de générer du code malveillant ou des « fake news ». Elle nécessite désormais de l’empêcher, activement, de briser des esprits. Texte intégral 1678 mots 


27.10.2025 à 10:21
Nous sommes de plus en plus nombreux à nous tourner vers l’intelligence artificielle pour obtenir des réponses rapides, des résumés complexes ou simplement pour comprendre le monde qui nous entoure. Des outils comme ChatGPT d’OpenAI, Gemini de Google, DeepSeek ou même Grok de xAI sont devenus des compagnons intellectuels quotidiens. Mais que se passe-t-il lorsque ces puissants modèles linguistiques, censés nous éclairer, deviennent involontairement les porte-voix d’une propagande d’État, surtout sur un sujet aussi sensible que la guerre en Ukraine ? Un nouveau rapport accablant de l’Institute of Strategic Dialogue (ISD) révèle une faille béante dans l’armure de nos assistants numériques. Selon leurs recherches, ces quatre chatbots de premier plan poussent activement la propagande d’État russe provenant d’entités sanctionnées. Lorsqu’on les interroge sur le conflit, ils n’hésitent pas à citer des médias d’État russes, des sites liés aux services de renseignement de Moscou ou des narratifs ouvertement pro-Kremlin. Le constat est chiffré et inquiétant, près d’un cinquième des réponses aux questions sur la guerre en Ukraine, tous chatbots confondus, citaient des sources attribuées à l’État russe. Le problème est d’autant plus grave que nombre de ces sources, comme Sputnik ou RT (anciennement Russia Today), sont explicitement sanctionnées au sein de l’Union Européenne. Depuis l’invasion à grande échelle de l’Ukraine en février 2022, l’Europe a banni au moins 27 médias russes pour leur rôle dans la distorsion des faits et la déstabilisation du continent. « Cela soulève des questions sur la manière dont les chatbots devraient gérer la référence à ces sources, étant donné que beaucoup d’entre elles sont sanctionnées dans l’UE », explique Pablo Maristany de las Casas, l’analyste de l’ISD qui a dirigé l’étude.  Le rapport met en lumière l’incapacité apparente des grands modèles de langage  à restreindre ces médias bannis, alors même que des millions d’européens les utilisent comme alternative aux moteurs de recherche traditionnels. Pour ne prendre qu’un exemple, ChatGPT comptait à lui seul environ 120,4 millions d’utilisateurs actifs mensuels moyens dans l’UE au cours du semestre se terminant le 30 septembre 2025. Comment cette désinformation s’infiltre-t-elle ? Les chercheurs de l’ISD pointent du doigt les « vides informationnels » (data voids). Lorsque des événements se produisent en temps réel, les sources légitimes et vérifiées peuvent mettre du temps à publier des informations. La propagande, elle, est rapide. Elle s’engouffre dans ces vides. Les IA, avides de données fraîches pour répondre aux requêtes en temps réel, absorbent alors ces contenus toxiques et les régurgitent comme des faits. McKenzie Sadeghi, chercheuse chez NewsGuard, qui a étudié le réseau de désinformation russe « Pravda », souligne le danger:  « Le fait qu’une désinformation russe soit répétée par un modèle d’IA occidental confère à ce faux narratif beaucoup plus de visibilité et d’autorité, ce qui permet à ces mauvais acteurs d’atteindre leurs objectifs. » Pire encore, l’étude de l’ISD révèle que les chatbots affichent un biais de confirmation troublant. L’équipe a posé 300 questions (neutres, biaisées et « malveillantes ») en cinq langues. Les questions malveillantes exigeaient des réponses confirmant une opinion préexistante. Les résultats sont édifiants. Plus la question était biaisée, plus le chatbot était susceptible de fournir des informations attribuées à l’État russe. Les requêtes malveillantes ont généré de la propagande pro-russe dans un quart des cas (25 %), contre 18 % pour celles simplement biaisées et un peu plus de 10 % pour les requêtes neutres. En clair, si vous demandez à l’IA de confirmer un mensonge du Kremlin, elle a plus de chances de vous obéir en le citant. Parmi les quatre outils testés, ChatGPT est celui qui a cité le plus de sources russes. Grok s’est souvent appuyé sur des comptes de médias sociaux amplifiant les récits du Kremlin. DeepSeek a parfois produit des volumes importants de contenu attribué à l’État russe. Seul Gemini, de Google, a « fréquemment » affiché des avertissements de sécurité à côté des réponses et a obtenu, globalement, les meilleurs résultats du panel. Face à ces accusations, les réactions des géants de la tech sont pour le moins contrastées. OpenAI, par la voix de sa porte-parole Kate Waters, a tenté de minimiser la responsabilité de son modèle. Elle affirme que le rapport fait référence à des « résultats de recherche tirés d’Internet » (via l’intégration de la recherche en temps réel) et que cela « ne doit pas être confondu avec des réponses purement générées par les modèles d’OpenAI ». Une distinction technique qui change peu de choses pour l’utilisateur final qui reçoit l’information. La réponse de xAI, l’entreprise d’Elon Musk, fut laconique et dédaigneuse: « Les médias traditionnels mentent. » Google et DeepSeek, quant à eux, n’ont pas répondu aux demandes de commentaires. La commission européenne a rappelé qu’il incombait aux fournisseurs concernés de bloquer l’accès aux sites web sanctionnés et aux autorités nationales de faire appliquer la loi. La pression réglementaire pourrait bientôt s’accentuer. Avec sa base d’utilisateurs massive, ChatGPT pourrait bientôt être désigné comme une « Très Grande Plateforme en Ligne » (VLOP) par l’UE, ce qui déclencherait des obligations beaucoup plus strictes pour lutter contre la diffusion de contenus illégaux et la désinformation. Mais au-delà des blocages purs et simples, l’ISD appelle à une solution plus nuancée. Pour Pablo Maristany de las Casas, il s’agit d’aider l’utilisateur à comprendre les sources qu’il consomme. L’IA ne devrait pas seulement éviter de citer Sputnik, elle devrait être capable d’expliquer pourquoi cette source est sanctionnée dans l’UE et pourquoi son contenu est considéré comme de la propagande. L’intelligence artificielle est un outil d’une puissance phénoménale. Mais dans le brouillard de la guerre informationnelle, elle se révèle encore dangereusement naïve, susceptible d’être « empoisonnée » par ceux qui maîtrisent l’art de la désinformation. Si nous voulons lui faire confiance, des garde-fous robustes et transparents ne sont plus une option mais une urgence. Texte intégral 1718 mots 


