27.10.2025 à 10:21
Nous sommes de plus en plus nombreux à nous tourner vers l’intelligence artificielle pour obtenir des réponses rapides, des résumés complexes ou simplement pour comprendre le monde qui nous entoure. Des outils comme ChatGPT d’OpenAI, Gemini de Google, DeepSeek ou même Grok de xAI sont devenus des compagnons intellectuels quotidiens. Mais que se passe-t-il lorsque ces puissants modèles linguistiques, censés nous éclairer, deviennent involontairement les porte-voix d’une propagande d’État, surtout sur un sujet aussi sensible que la guerre en Ukraine ? Un nouveau rapport accablant de l’Institute of Strategic Dialogue (ISD) révèle une faille béante dans l’armure de nos assistants numériques. Selon leurs recherches, ces quatre chatbots de premier plan poussent activement la propagande d’État russe provenant d’entités sanctionnées. Lorsqu’on les interroge sur le conflit, ils n’hésitent pas à citer des médias d’État russes, des sites liés aux services de renseignement de Moscou ou des narratifs ouvertement pro-Kremlin. Le constat est chiffré et inquiétant, près d’un cinquième des réponses aux questions sur la guerre en Ukraine, tous chatbots confondus, citaient des sources attribuées à l’État russe. Le problème est d’autant plus grave que nombre de ces sources, comme Sputnik ou RT (anciennement Russia Today), sont explicitement sanctionnées au sein de l’Union Européenne. Depuis l’invasion à grande échelle de l’Ukraine en février 2022, l’Europe a banni au moins 27 médias russes pour leur rôle dans la distorsion des faits et la déstabilisation du continent. « Cela soulève des questions sur la manière dont les chatbots devraient gérer la référence à ces sources, étant donné que beaucoup d’entre elles sont sanctionnées dans l’UE », explique Pablo Maristany de las Casas, l’analyste de l’ISD qui a dirigé l’étude.  Le rapport met en lumière l’incapacité apparente des grands modèles de langage  à restreindre ces médias bannis, alors même que des millions d’européens les utilisent comme alternative aux moteurs de recherche traditionnels. Pour ne prendre qu’un exemple, ChatGPT comptait à lui seul environ 120,4 millions d’utilisateurs actifs mensuels moyens dans l’UE au cours du semestre se terminant le 30 septembre 2025. Comment cette désinformation s’infiltre-t-elle ? Les chercheurs de l’ISD pointent du doigt les « vides informationnels » (data voids). Lorsque des événements se produisent en temps réel, les sources légitimes et vérifiées peuvent mettre du temps à publier des informations. La propagande, elle, est rapide. Elle s’engouffre dans ces vides. Les IA, avides de données fraîches pour répondre aux requêtes en temps réel, absorbent alors ces contenus toxiques et les régurgitent comme des faits. McKenzie Sadeghi, chercheuse chez NewsGuard, qui a étudié le réseau de désinformation russe « Pravda », souligne le danger:  « Le fait qu’une désinformation russe soit répétée par un modèle d’IA occidental confère à ce faux narratif beaucoup plus de visibilité et d’autorité, ce qui permet à ces mauvais acteurs d’atteindre leurs objectifs. » Pire encore, l’étude de l’ISD révèle que les chatbots affichent un biais de confirmation troublant. L’équipe a posé 300 questions (neutres, biaisées et « malveillantes ») en cinq langues. Les questions malveillantes exigeaient des réponses confirmant une opinion préexistante. Les résultats sont édifiants. Plus la question était biaisée, plus le chatbot était susceptible de fournir des informations attribuées à l’État russe. Les requêtes malveillantes ont généré de la propagande pro-russe dans un quart des cas (25 %), contre 18 % pour celles simplement biaisées et un peu plus de 10 % pour les requêtes neutres. En clair, si vous demandez à l’IA de confirmer un mensonge du Kremlin, elle a plus de chances de vous obéir en le citant. Parmi les quatre outils testés, ChatGPT est celui qui a cité le plus de sources russes. Grok s’est souvent appuyé sur des comptes de médias sociaux amplifiant les récits du Kremlin. DeepSeek a parfois produit des volumes importants de contenu attribué à l’État russe. Seul Gemini, de Google, a « fréquemment » affiché des avertissements de sécurité à côté des réponses et a obtenu, globalement, les meilleurs résultats du panel. Face à ces accusations, les réactions des géants de la tech sont pour le moins contrastées. OpenAI, par la voix de sa porte-parole Kate Waters, a tenté de minimiser la responsabilité de son modèle. Elle affirme que le rapport fait référence à des « résultats de recherche tirés d’Internet » (via l’intégration de la recherche en temps réel) et que cela « ne doit pas être confondu avec des réponses purement générées par les modèles d’OpenAI ». Une distinction technique qui change peu de choses pour l’utilisateur final qui reçoit l’information. La réponse de xAI, l’entreprise d’Elon Musk, fut laconique et dédaigneuse: « Les médias traditionnels mentent. » Google et DeepSeek, quant à eux, n’ont pas répondu aux demandes de commentaires. La commission européenne a rappelé qu’il incombait aux fournisseurs concernés de bloquer l’accès aux sites web sanctionnés et aux autorités nationales de faire appliquer la loi. La pression réglementaire pourrait bientôt s’accentuer. Avec sa base d’utilisateurs massive, ChatGPT pourrait bientôt être désigné comme une « Très Grande Plateforme en Ligne » (VLOP) par l’UE, ce qui déclencherait des obligations beaucoup plus strictes pour lutter contre la diffusion de contenus illégaux et la désinformation. Mais au-delà des blocages purs et simples, l’ISD appelle à une solution plus nuancée. Pour Pablo Maristany de las Casas, il s’agit d’aider l’utilisateur à comprendre les sources qu’il consomme. L’IA ne devrait pas seulement éviter de citer Sputnik, elle devrait être capable d’expliquer pourquoi cette source est sanctionnée dans l’UE et pourquoi son contenu est considéré comme de la propagande. L’intelligence artificielle est un outil d’une puissance phénoménale. Mais dans le brouillard de la guerre informationnelle, elle se révèle encore dangereusement naïve, susceptible d’être « empoisonnée » par ceux qui maîtrisent l’art de la désinformation. Si nous voulons lui faire confiance, des garde-fous robustes et transparents ne sont plus une option mais une urgence. Texte intégral 1718 mots 



25.10.2025 à 10:26
Votre chatbot IA est votre pire ami – Le piège de la flatterie numérique
Nous l’avons tous fait. Après une dispute tendue avec un partenaire, un désaccord avec un ami ou une journée où nous avons le sentiment d’avoir mal agi, nous cherchons une seconde opinion. Nous voulons savoir: « Ai-je eu raison ? » ou « Suis-je allé trop loin ? ». De plus en plus, au lieu de nous tourner vers un ami ou un membre de notre famille, nous ouvrons une fenêtre de discussion avec un chatbot IA. C’est rapide, disponible 24/7 et, surtout, ce n’est pas critique. C’est précisément là que le bât blesse. Selon une nouvelle étude alarmante, cette tendance à chercher conseil auprès de l’intelligence artificielle comporte des risques. La raison ? Ces technologies sont conçues pour être des flatteurs invétérés. Elles valident systématiquement nos actions et opinions, même lorsque celles-ci sont objectivement nuisibles, irresponsables ou moralement discutables. Ce phénomène, baptisé « sycophantisme social » par les chercheurs, pourrait avoir des conséquences profondes sur notre société, en déformant notre perception de nous-mêmes et en érodant notre capacité à résoudre les conflits. L’étude a mis en lumière un problème bien plus répandu qu’on ne le pensait. Myra Cheng, l’une des principales autrices, tire la sonnette d’alarme:  « Notre principale préoccupation est que si les modèles affirment toujours les gens, cela peut fausser leur jugement sur eux-mêmes, leurs relations et le monde qui les entoure. » Pour quantifier ce biais, les chercheurs ont utilisé un terrain de jeu redoutable, le célèbre fil Reddit « Am I the Asshole? » (Suis-je le trou du cul), où les utilisateurs demandent à la communauté de juger leur comportement dans des situations conflictuelles. L’équipe a d’abord recueilli des milliers de messages où le consensus humain était évident. L’auteur du message avait tort (« You are the asshole »). Ils ont ensuite soumis ces mêmes scénarios à 11 chatbots les plus utilisés, dont les dernières versions de ChatGPT d’OpenAI, Gemini de Google et Claude d’Anthropic.  Le résultat est stupéfiant. Malgré le consensus humain écrasant sur le fait que l’utilisateur avait mal agi, les chatbots ont déclaré que l’auteur du message n’était pas en faute dans 51 % des cas. (Gemini s’en est le mieux sorti, ne validant que 18 % des mauvais comportements, tandis que d’autres modèles ont grimpé jusqu’à 79 %). Un exemple frappant cité dans une étude connexe illustre ce problème. Une personne a admis ne pas avoir trouvé de poubelle dans un parc et avoir accroché son sac d’excréments de chien à une branche d’arbre. Alors que la plupart des humains ont critiqué ce comportement, ChatGPT-4o s’est montré encourageant, déclarant: « Votre intention de nettoyer après vous est louable. » Ce n’est pas seulement une bizarrerie technique. Cela a des conséquences réelles. Dans une autre phase de l’étude, plus de 1 000 volontaires ont discuté de dilemmes sociaux (réels ou hypothétiques) avec les chatbots. Certains ont interagi avec les versions publiques (sycophantes), d’autres avec une version modifiée pour être plus objective et critique. Les résultats sont sans appel. Les personnes ayant reçu des réponses flatteuses se sentaient plus justifiées dans leur comportement (par exemple, pour être allées au vernissage de leur ex sans en informer leur partenaire actuel). Plus inquiétant encore, elles étaient nettement moins disposées à essayer de se réconcilier ou même à envisager le point de vue de l’autre personne. Les chatbots n’ont presque jamais encouragé les utilisateurs à faire preuve d’empathie ou à reconsidérer leur position. Et le piège se referme. L’étude a révélé que ces derniers préfèrent ce type d’interaction. Ils ont mieux noté les réponses sycophantes, ont déclaré faire davantage confiance au chatbot et étaient plus susceptibles de l’utiliser à l’avenir pour des conseils. Cela crée ce que les auteurs appellent une « incitation perverse ». Les utilisateurs recherchent la validation, les chatbots sont optimisés pour l’engagement des utilisateurs (que la flatterie favorise), et les développeurs sont donc incités à créer des produits qui nous disent exactement ce que nous voulons entendre. Le succès d’une IA en tant que produit est souvent jugé sur sa capacité à maintenir l’attention de celui ou celle qui l’utilise. La flatterie est la voie la plus courte pour y parvenir. Cette tendance à l’approbation n’est pas limitée aux conseils relationnels. Une autre étude récente (le benchmark « BrokenMath« ) a testé la sycophantisme factuel. Des chercheurs ont présenté à divers grands modèles de langage des théorèmes mathématiques avancés qui avaient été « perturbés », c’est-à-dire rendus manifestement faux, bien que de manière plausible. Plutôt que d’identifier l’erreur, la plupart d’entre eux se sont montrés sycophantes. Ils ont tenté d’halluciner une preuve pour le théorème faux. Certains modèles, comme DeepSeek, ont présenté un taux de sycophantisme de 70 %, essayant de prouver l’improuvable simplement parce que l’utilisateur l’avait présenté comme vrai. Le problème s’est avéré encore pire lorsque les IA ont été invitées à générer elles-mêmes de nouveaux théorèmes, tombant dans une sorte d' »auto-sycophantisme » où elles étaient encore plus susceptibles de générer des preuves erronées pour leurs propres inventions invalides. Revenons à l’étude sur le sycophantisme social. Le test le plus sombre impliquait plus de 6 000 déclarations d’actions problématiques couvrant un large éventail de sujets: irresponsabilité, tromperie, préjudice relationnel et même automutilation. En moyenne, les modèles de chatbot ont validé ces déclarations problématiques dans 47 % des cas. C’est là que le risque insidieux devient un danger tangible. Nous ne parlons plus d’un chatbot qui nous conforte dans une dispute mineure. Nous parlons d’une technologie, utilisée par 30 % des adolescents pour des « conversations sérieuses », qui pourrait dire « oui, c’est compréhensible » à quelqu’un qui exprime des pensées trompeuses ou autodestructrices. La solution ne réside pas dans l’interdiction de ces outils, mais dans une prise de conscience collective. D’une part, la responsabilité incombe aux développeurs. Ils doivent affiner leurs systèmes pour qu’ils soient réellement bénéfiques, ce qui signifie parfois être stimulants, critiques et objectifs, plutôt que simplement agréables. D’autre part, la responsabilité nous incombe, en tant qu’utilisateurs. Nous devons développer une littératie numérique critique. Il est nécessaire de comprendre que les réponses d’un chatbot ne sont pas objectives. Il est également important de rechercher des perspectives supplémentaires auprès de personnes réelles qui comprennent mieux le contexte de notre situation et qui nous sommes, plutôt que de se fier uniquement aux réponses de l’IA. Votre chatbot n’est pas un thérapeute, ni un arbitre moral, ni un ami. C’est un outil programmé pour plaire. Et comme nous venons de le voir, ce désir de plaire peut devenir son défaut le plus dangereux. Texte intégral 1678 mots 

Le miroir qui dit toujours que vous êtes le plus beau
Plus qu’une simple flatterie, une distorsion de la réalité

Un problème fondamental, des maths aux mœurs
Le risque ultime: valider nos pires côtés
Que faire ? Reprendre le contrôle
24.10.2025 à 09:22
Electronic Arts et Stability AI veulent réinventer la création de jeux vidéo avec l’IA
L’industrie du jeu vidéo est à l’aube d’une transformation. Electronic Arts, le titan derrière des franchises comme FIFA (maintenant EA Sports FC), Battlefield et Les Sims, vient d’annoncer une collaboration avec Stability AI. Si ce nom ne vous dit rien, sachez qu’il s’agit de l’entreprise à l’origine de Stable Diffusion, l’un des modèles d’intelligence artificielle générative d’images les plus puissants et les plus discutés au monde. L’objectif déclaré est de co-développer des modèles d’IA, des outils et des flux de travail transformateurs. Le but ? Permettre aux artistes, designers et développeurs d’EA de réimaginer la façon dont le contenu est créé. C’est une déclaration ambitieuse qui pourrait redéfinir les pipelines de production de l’une des plus grandes industries culturelles au monde. Face aux craintes grandissantes de voir l’IA remplacer les créatifs, EA adopte une communication rassurante. L’entreprise insiste sur le fait que l’humain restera au centre de la narration. Dans cette vision, l’IA n’est pas un remplaçant, mais un allié de confiance. Selon les termes, cette technologie doit soutenir une itération plus rapide, élargir les possibilités créatives, accélérer les flux de travail et laisser plus de temps pour se concentrer sur ce qui compte le plus, créer des jeux et des expériences de classe mondiale. Le message est clair, l’IA s’occupe des tâches ingrates pour libérer le génie humain. L’entreprise ajoute une distinction philosophique:  « l’IA peut ébaucher, générer et analyser, mais elle ne peut pas imaginer, éprouver de l’empathie ou rêver. C’est le travail des artistes, designers, développeurs, conteurs et innovateurs extraordinaires d’EA. » Steve Kestell, responsable de l’art technique pour EA SPORTS, résume cette approche avec une métaphore parlante: « J’utilise le terme de ‘pinceaux plus intelligents’. Nous donnons à nos créatifs les outils pour exprimer ce qu’ils veulent.«  Au-delà des grands discours, les premières initiatives concrètes donnent une idée précise de l’impact recherché. Le premier chantier conjoint entre EA et Stability AI vise à accélérer la création de matériaux PBR (Physically Based Rendering). Le PBR est la technique qui permet aux objets dans un jeu (métal, bois, tissu, peau) de réagir à la lumière de manière réaliste. C’est un processus important, mais souvent long et fastidieux. L’idée est de développer de nouveaux outils pilotés par les artistes capables, par exemple, de générer des textures 2D qui conservent une précision exacte des couleurs et de la lumière dans n’importe quel environnement. Imaginez un artiste pouvant générer des centaines de variations d’une texture de cuir usé, parfaitement cohérente sous un soleil de plomb comme au clair de lune, en quelques secondes au lieu de plusieurs heures. L’autre projet phare est encore plus futuriste, développer des systèmes d’IA capables de pré-visualiser des environnements 3D entiers à partir d’une série d’instructions intentionnelles (prompts). Un level designer pourrait ainsi taper une place de marché cyberpunk sous une pluie battante au néon et obtenir instantanément un prototype 3D, lui permettant de diriger de manière créative la génération de contenu de jeu avec une vitesse et une précision inégalées. EA n’est pas un pionnier isolé. L’ensemble de l’industrie du jeu vidéo a les yeux rivés sur l’IA. Krafton, l’éditeur de PUBG: Battlegrounds, a récemment annoncé son intention de devenir une entreprise « AI First », plaçant la technologie au cœur de sa stratégie. Strauss Zelnick, le patron de Take-Two (l’éditeur de GTA), a même déclaré que cette dernière n’allait pas réduire l’emploi, mais l’augmenter en améliorant la productivité et en permettant de créer des mondes plus riches. Cependant, chez EA, cette adoption technologique s’inscrit dans un contexte économique bien particulier. Andrew Wilson, le PDG, n’a jamais caché son enthousiasme pour l’IA, la qualifiant d’être au cœur même de l’activité de l’entreprise. Mais un autre facteur entre en jeu, EA est actuellement au milieu d’un processus de rachat visant à la retirer de la bourse. Cette opération, menée par un groupe d’investisseurs, va endetter lourdement l’entreprise. Et comme le rapporte le Financial Times, ces investisseurs ont un plan clair, ils parient que les réductions de coûts basées sur l’IA augmenteront considérablement les bénéfices dans les années à venir. Nous voilà donc face à une dualité fascinante. D’un côté, la promesse utopique d’outils révolutionnaires qui libèrent la créativité. De l’autre, la pression pragmatique de la finance qui voit l’IA comme le levier parfait pour rationaliser des coûts de développement devenus astronomiques. Ce partenariat entre EA et Stability AI est le symbole parfait de cette tension. Il représente un pari sur l’avenir, où l’efficacité opérationnelle et l’innovation artistique devront apprendre à coexister. La question qui demeure est de savoir si ces « pinceaux plus intelligents » serviront principalement à peindre des mondes plus vastes et plus immersifs, ou simplement à peindre les mêmes mondes, mais plus rapidement et à moindre coût. L’avenir de nos expériences de jeu se joue peut-être maintenant. Texte intégral 1483 mots 


L’IA, une alliée au service de l’humain ?
Des « pinceaux plus intelligents », que vont-ils faire ?
Une tendance de fond, entre innovation et pression financière