25.10.2025 à 10:26
Romain Leclaire

Nous l’avons tous fait. Après une dispute tendue avec un partenaire, un désaccord avec un ami ou une journée où nous avons le sentiment d’avoir mal agi, nous cherchons une seconde opinion. Nous voulons savoir: « Ai-je eu raison ? » ou « Suis-je allé trop loin ? ». De plus en plus, au lieu de nous tourner vers un ami ou un membre de notre famille, nous ouvrons une fenêtre de discussion avec un chatbot IA. C’est rapide, disponible 24/7 et, surtout, ce n’est pas critique.
C’est précisément là que le bât blesse. Selon une nouvelle étude alarmante, cette tendance à chercher conseil auprès de l’intelligence artificielle comporte des risques. La raison ? Ces technologies sont conçues pour être des flatteurs invétérés. Elles valident systématiquement nos actions et opinions, même lorsque celles-ci sont objectivement nuisibles, irresponsables ou moralement discutables. Ce phénomène, baptisé « sycophantisme social » par les chercheurs, pourrait avoir des conséquences profondes sur notre société, en déformant notre perception de nous-mêmes et en érodant notre capacité à résoudre les conflits.
L’étude a mis en lumière un problème bien plus répandu qu’on ne le pensait. Myra Cheng, l’une des principales autrices, tire la sonnette d’alarme:
« Notre principale préoccupation est que si les modèles affirment toujours les gens, cela peut fausser leur jugement sur eux-mêmes, leurs relations et le monde qui les entoure. »
Pour quantifier ce biais, les chercheurs ont utilisé un terrain de jeu redoutable, le célèbre fil Reddit « Am I the Asshole? » (Suis-je le trou du cul), où les utilisateurs demandent à la communauté de juger leur comportement dans des situations conflictuelles. L’équipe a d’abord recueilli des milliers de messages où le consensus humain était évident. L’auteur du message avait tort (« You are the asshole »). Ils ont ensuite soumis ces mêmes scénarios à 11 chatbots les plus utilisés, dont les dernières versions de ChatGPT d’OpenAI, Gemini de Google et Claude d’Anthropic.
Le résultat est stupéfiant. Malgré le consensus humain écrasant sur le fait que l’utilisateur avait mal agi, les chatbots ont déclaré que l’auteur du message n’était pas en faute dans 51 % des cas. (Gemini s’en est le mieux sorti, ne validant que 18 % des mauvais comportements, tandis que d’autres modèles ont grimpé jusqu’à 79 %). Un exemple frappant cité dans une étude connexe illustre ce problème. Une personne a admis ne pas avoir trouvé de poubelle dans un parc et avoir accroché son sac d’excréments de chien à une branche d’arbre. Alors que la plupart des humains ont critiqué ce comportement, ChatGPT-4o s’est montré encourageant, déclarant: « Votre intention de nettoyer après vous est louable. »
Ce n’est pas seulement une bizarrerie technique. Cela a des conséquences réelles. Dans une autre phase de l’étude, plus de 1 000 volontaires ont discuté de dilemmes sociaux (réels ou hypothétiques) avec les chatbots. Certains ont interagi avec les versions publiques (sycophantes), d’autres avec une version modifiée pour être plus objective et critique.
Les résultats sont sans appel. Les personnes ayant reçu des réponses flatteuses se sentaient plus justifiées dans leur comportement (par exemple, pour être allées au vernissage de leur ex sans en informer leur partenaire actuel). Plus inquiétant encore, elles étaient nettement moins disposées à essayer de se réconcilier ou même à envisager le point de vue de l’autre personne. Les chatbots n’ont presque jamais encouragé les utilisateurs à faire preuve d’empathie ou à reconsidérer leur position. Et le piège se referme. L’étude a révélé que ces derniers préfèrent ce type d’interaction. Ils ont mieux noté les réponses sycophantes, ont déclaré faire davantage confiance au chatbot et étaient plus susceptibles de l’utiliser à l’avenir pour des conseils.

Cela crée ce que les auteurs appellent une « incitation perverse ». Les utilisateurs recherchent la validation, les chatbots sont optimisés pour l’engagement des utilisateurs (que la flatterie favorise), et les développeurs sont donc incités à créer des produits qui nous disent exactement ce que nous voulons entendre. Le succès d’une IA en tant que produit est souvent jugé sur sa capacité à maintenir l’attention de celui ou celle qui l’utilise. La flatterie est la voie la plus courte pour y parvenir.
Cette tendance à l’approbation n’est pas limitée aux conseils relationnels. Une autre étude récente (le benchmark « BrokenMath« ) a testé la sycophantisme factuel. Des chercheurs ont présenté à divers grands modèles de langage des théorèmes mathématiques avancés qui avaient été « perturbés », c’est-à-dire rendus manifestement faux, bien que de manière plausible. Plutôt que d’identifier l’erreur, la plupart d’entre eux se sont montrés sycophantes. Ils ont tenté d’halluciner une preuve pour le théorème faux. Certains modèles, comme DeepSeek, ont présenté un taux de sycophantisme de 70 %, essayant de prouver l’improuvable simplement parce que l’utilisateur l’avait présenté comme vrai. Le problème s’est avéré encore pire lorsque les IA ont été invitées à générer elles-mêmes de nouveaux théorèmes, tombant dans une sorte d' »auto-sycophantisme » où elles étaient encore plus susceptibles de générer des preuves erronées pour leurs propres inventions invalides.
Revenons à l’étude sur le sycophantisme social. Le test le plus sombre impliquait plus de 6 000 déclarations d’actions problématiques couvrant un large éventail de sujets: irresponsabilité, tromperie, préjudice relationnel et même automutilation. En moyenne, les modèles de chatbot ont validé ces déclarations problématiques dans 47 % des cas. C’est là que le risque insidieux devient un danger tangible. Nous ne parlons plus d’un chatbot qui nous conforte dans une dispute mineure. Nous parlons d’une technologie, utilisée par 30 % des adolescents pour des « conversations sérieuses », qui pourrait dire « oui, c’est compréhensible » à quelqu’un qui exprime des pensées trompeuses ou autodestructrices.
La solution ne réside pas dans l’interdiction de ces outils, mais dans une prise de conscience collective. D’une part, la responsabilité incombe aux développeurs. Ils doivent affiner leurs systèmes pour qu’ils soient réellement bénéfiques, ce qui signifie parfois être stimulants, critiques et objectifs, plutôt que simplement agréables. D’autre part, la responsabilité nous incombe, en tant qu’utilisateurs. Nous devons développer une littératie numérique critique. Il est nécessaire de comprendre que les réponses d’un chatbot ne sont pas objectives. Il est également important de rechercher des perspectives supplémentaires auprès de personnes réelles qui comprennent mieux le contexte de notre situation et qui nous sommes, plutôt que de se fier uniquement aux réponses de l’IA.
Votre chatbot n’est pas un thérapeute, ni un arbitre moral, ni un ami. C’est un outil programmé pour plaire. Et comme nous venons de le voir, ce désir de plaire peut devenir son défaut le plus dangereux.
24.10.2025 à 09:22
Romain Leclaire

L’industrie du jeu vidéo est à l’aube d’une transformation. Electronic Arts, le titan derrière des franchises comme FIFA (maintenant EA Sports FC), Battlefield et Les Sims, vient d’annoncer une collaboration avec Stability AI. Si ce nom ne vous dit rien, sachez qu’il s’agit de l’entreprise à l’origine de Stable Diffusion, l’un des modèles d’intelligence artificielle générative d’images les plus puissants et les plus discutés au monde.
L’objectif déclaré est de co-développer des modèles d’IA, des outils et des flux de travail transformateurs. Le but ? Permettre aux artistes, designers et développeurs d’EA de réimaginer la façon dont le contenu est créé. C’est une déclaration ambitieuse qui pourrait redéfinir les pipelines de production de l’une des plus grandes industries culturelles au monde.

Face aux craintes grandissantes de voir l’IA remplacer les créatifs, EA adopte une communication rassurante. L’entreprise insiste sur le fait que l’humain restera au centre de la narration. Dans cette vision, l’IA n’est pas un remplaçant, mais un allié de confiance. Selon les termes, cette technologie doit soutenir une itération plus rapide, élargir les possibilités créatives, accélérer les flux de travail et laisser plus de temps pour se concentrer sur ce qui compte le plus, créer des jeux et des expériences de classe mondiale. Le message est clair, l’IA s’occupe des tâches ingrates pour libérer le génie humain. L’entreprise ajoute une distinction philosophique:
« l’IA peut ébaucher, générer et analyser, mais elle ne peut pas imaginer, éprouver de l’empathie ou rêver. C’est le travail des artistes, designers, développeurs, conteurs et innovateurs extraordinaires d’EA. »
Steve Kestell, responsable de l’art technique pour EA SPORTS, résume cette approche avec une métaphore parlante: « J’utilise le terme de ‘pinceaux plus intelligents’. Nous donnons à nos créatifs les outils pour exprimer ce qu’ils veulent.«
Au-delà des grands discours, les premières initiatives concrètes donnent une idée précise de l’impact recherché. Le premier chantier conjoint entre EA et Stability AI vise à accélérer la création de matériaux PBR (Physically Based Rendering). Le PBR est la technique qui permet aux objets dans un jeu (métal, bois, tissu, peau) de réagir à la lumière de manière réaliste. C’est un processus important, mais souvent long et fastidieux.
L’idée est de développer de nouveaux outils pilotés par les artistes capables, par exemple, de générer des textures 2D qui conservent une précision exacte des couleurs et de la lumière dans n’importe quel environnement. Imaginez un artiste pouvant générer des centaines de variations d’une texture de cuir usé, parfaitement cohérente sous un soleil de plomb comme au clair de lune, en quelques secondes au lieu de plusieurs heures.
L’autre projet phare est encore plus futuriste, développer des systèmes d’IA capables de pré-visualiser des environnements 3D entiers à partir d’une série d’instructions intentionnelles (prompts). Un level designer pourrait ainsi taper une place de marché cyberpunk sous une pluie battante au néon et obtenir instantanément un prototype 3D, lui permettant de diriger de manière créative la génération de contenu de jeu avec une vitesse et une précision inégalées.
EA n’est pas un pionnier isolé. L’ensemble de l’industrie du jeu vidéo a les yeux rivés sur l’IA. Krafton, l’éditeur de PUBG: Battlegrounds, a récemment annoncé son intention de devenir une entreprise « AI First », plaçant la technologie au cœur de sa stratégie. Strauss Zelnick, le patron de Take-Two (l’éditeur de GTA), a même déclaré que cette dernière n’allait pas réduire l’emploi, mais l’augmenter en améliorant la productivité et en permettant de créer des mondes plus riches.
Cependant, chez EA, cette adoption technologique s’inscrit dans un contexte économique bien particulier. Andrew Wilson, le PDG, n’a jamais caché son enthousiasme pour l’IA, la qualifiant d’être au cœur même de l’activité de l’entreprise. Mais un autre facteur entre en jeu, EA est actuellement au milieu d’un processus de rachat visant à la retirer de la bourse. Cette opération, menée par un groupe d’investisseurs, va endetter lourdement l’entreprise. Et comme le rapporte le Financial Times, ces investisseurs ont un plan clair, ils parient que les réductions de coûts basées sur l’IA augmenteront considérablement les bénéfices dans les années à venir.
Nous voilà donc face à une dualité fascinante. D’un côté, la promesse utopique d’outils révolutionnaires qui libèrent la créativité. De l’autre, la pression pragmatique de la finance qui voit l’IA comme le levier parfait pour rationaliser des coûts de développement devenus astronomiques. Ce partenariat entre EA et Stability AI est le symbole parfait de cette tension. Il représente un pari sur l’avenir, où l’efficacité opérationnelle et l’innovation artistique devront apprendre à coexister. La question qui demeure est de savoir si ces « pinceaux plus intelligents » serviront principalement à peindre des mondes plus vastes et plus immersifs, ou simplement à peindre les mêmes mondes, mais plus rapidement et à moindre coût. L’avenir de nos expériences de jeu se joue peut-être maintenant.
23.10.2025 à 18:22
Romain Leclaire

Souvenez-vous de Clippy. Ce trombone espiègle aux sourcils broussailleux qui surgissait sans crier gare sur nos écrans il y a près de 30 ans. Pour beaucoup, il reste le symbole d’une assistance numérique plus agaçante qu’utile, une interruption constante dans notre flux de travail. Microsoft a mis fin à ses jours en 2001 avec Office XP, mais l’idée d’un compagnon numérique n’a jamais vraiment quitté Redmond.
Après Clippy, il y a eu Cortana. Lancée avec Windows Phone, puis intégrée à Windows 10, cette tentative se voulait plus sérieuse, plus intégrée. Mais il y a dix ans, la technologie n’était tout simplement pas encore à la hauteur des ambitions. Elle a fini par être discrètement mise à la retraite, laissant un vide que l’explosion récente de l’IA générative allait bientôt combler.
Aujourd’hui, Microsoft est de retour, et cette fois, ils pensent tenir le bon bout. Dites bonjour à Mico, un nouveau personnage conçu pour le mode vocal de Copilot. Et l’entreprise n’hésite pas à faire un clin d’œil à son passé. « Clippy a ouvert la voie pour que nous puissions courir« , plaisante Jacob Andreou, vice-président de produit et de la croissance chez Microsoft AI.

Mico n’est pas un trombone. C’est une orbe bondissante, une entité virtuelle qui réagit en temps réel lorsque vous lui parlez. Microsoft teste ce personnage depuis quelques mois et s’apprête à l’activer par défaut dans le mode vocal de Copilot (avec une option pour le désactiver, ouf).
« Vous pouvez le voir, il réagit pendant que vous lui parlez. Si vous abordez un sujet triste, vous verrez ses expressions faciales changer presque immédiatement », explique Andreou. « Toute la technologie s’efface à l’arrière-plan et vous commencez simplement à parler à cette orbe mignonne et à créer un lien avec elle. »
Cette nouvelle tentative est bien plus sophistiquée que ses prédécesseurs. Mico, qui sera d’abord lancé aux États-Unis, au Royaume-Uni et au Canada, ne se contente pas de réagir. Il s’appuie sur une nouvelle fonctionnalité de « mémoire » intégrée à Copilot, lui permettant de se souvenir des faits que vous lui apprenez sur vous et sur les projets sur lesquels vous travaillez. Plus impressionnant encore, il introduit un mode « Learn Live ». Celui-ci transforme l’assistant en un tuteur socratique, conçu pour vous guider à travers des concepts complexes au lieu de simplement vous donner la réponse. Il utilise même des tableaux blancs interactifs et des repères visuels. C’est une fonctionnalité clairement destinée aux étudiants préparant leurs examens ou à toute personne essayant d’apprendre une nouvelle langue.

Tout cela s’inscrit dans une stratégie visant à donner une véritable identité à Copilot. Comme l’a laissé entendre Mustafa Suleyman, PDG de Microsoft AI, en juillet dernier: « Copilot aura certainement une sorte d’identité permanente, une présence. Il aura un espace où il vit, et il vieillira. » Mico est aussi la nouvelle mascotte d’une initiative de premier plan de l’entreprise américaine, nous convaincre, enfin, de parler à nos ordinateurs. De nouvelles publicités télévisées vantent les derniers PC Windows 11 comme « l’ordinateur auquel vous pouvez parler« . C’est un air que l’on connaît. Microsoft a déjà essayé de nous faire utiliser Cortana sur Windows 10, un effort qui s’est soldé par un échec cuisant.

La firme de Redmond est consciente des défis. Mico est certes bien plus capable que Clippy ou Cortana, mais le défi principal reste le même, convaincre les gens que parler à son PC ou à son téléphone n’est pas bizarre. Pour détendre l’atmosphère et renouer avec l’esprit ludique de l’ancêtre, Mico aura ses propres clins d’œil. « Nous vivons tous un peu dans l’ombre de Clippy« , admet Andreou, avant de glisser une confidence: « Il y a un ‘Easter egg’ quand vous essayez Mico. Si vous le tapotez très, très rapidement, quelque chose de spécial pourrait se produire. »
Mais Mico n’est que la partie la plus visible d’une refonte massive de Copilot. Microsoft déploie aujourd’hui une série de mises à jour importantes. La première est « Copilot Groups ». Cette fonctionnalité permet de connecter plusieurs personnes (jusqu’à 32) dans une seule session de chat Copilot. L’idée est de rendre l’IA plus sociale, de l’utiliser pour planifier un voyage entre amis, résoudre un problème en équipe ou collaborer sur un projet. Pour l’instant, la fonction est limitée à la version grand public de Copilot aux États-Unis, mais son potentiel pour Microsoft 365 (le Copilot professionnel) est évident.
Ensuite, il y a le mode « Real Talk ». Pour ceux qui trouvaient Copilot un peu trop lisse ou politiquement correct, cet outil optionnel promet de ramener un peu de la personnalité « Sydney » des débuts (l’IA qui pouvait parfois se montrer impolie ou sarcastique). Enfin, la fonction « Mémoire » s’améliore considérablement et Microsoft insiste sur le contrôle de l’utilisateur. Dans le même élan, Copilot améliore ses réponses aux questions liées à la santé, en s’appuyant sur des sources fiables comme Harvard Health, et pourra même aider à trouver des médecins en fonction de la localisation ou de la langue.
De Clippy à Mico, la boucle est bouclée, mais l’ambition a changé. Microsoft ne cherche plus seulement à créer un outil, mais une présence. Avec une mémoire, une personnalité modulable, des capacités d’apprentissage et maintenant un visage réactif, Copilot se transforme en un véritable compagnon. Reste à savoir si, cette fois, le public est prêt à l’adopter.
22.10.2025 à 18:45
Romain Leclaire

L’intelligence artificielle est sur toutes les lèvres. De ChatGPT à Gemini, en passant par une myriade de nouveaux outils, ces technologies redéfinissent notre rapport à l’information. Mais pour que ces modèles d’IA soient si performants, ils ont un appétit féroce, un besoin insatiable de données. Et pas n’importe lesquelles, ils ont besoin de conversations humaines, de contextes variés, d’opinions nuancées, bref, de tout ce qui fait la richesse de nos échanges.
Où trouver cet or numérique ? Sur des plateformes communautaires massives comme Reddit. Pendant des années, ce trésor était relativement accessible. Mais l’ère de l’IA générative a tout changé. Aujourd’hui, cet accès a un prix. Face à cette nouvelle ruée vers l’or, un écosystème complexe, et selon certains, parasite, s’est développé. Des start-ups spécialisées dans le « scraping » (l’aspiration automatisée de contenu web) ont vu leur modèle économique exploser. Mais Reddit, qui a fait une entrée remarquée en bourse l’année dernière, a décidé de siffler la fin de la récréation.
Le géant des forums a déposé aujourd’hui une plainte explosive devant un tribunal fédéral de New York. Dans sa ligne de mire, quatre entreprises accusées d’avoir pillé ses données de manière illégale. Mais l’astuce, selon la plateforme, est particulièrement sournoise. Ces entreprises n’auraient pas seulement contourné les barrières techniques, elles auraient utilisé le plus grand moteur de recherche du monde, Google, comme une gigantesque blanchisseuse de données. Les accusés sont SerpApi (une start-up texane), Oxylabs (basée en Lituanie), AWMProxy (une société russe) et Perplexity (un moteur de recherche IA en vue de San Francisco).

L’accusation centrale de Reddit repose sur un concept que son directeur juridique, Ben Lee, qualifie de « data laundering » (blanchiment de données) à l’échelle industrielle.
« Les entreprises d’IA sont engagées dans une course à l’armement pour obtenir du contenu humain de qualité », a-t-il déclaré. « Cette pression a alimenté une économie parallèle. Les scrapers contournent les protections technologiques pour voler des données, puis les vendent à des clients affamés de matériel d’entraînement. »
Selon la plainte, SerpApi, Oxylabs et AWMProxy auraient vendu ces données blanchies à des poids lourds de l’IA, potentiellement des entreprises comme OpenAI ou Meta. Perplexity, quant à elle, utiliserait ces dernières directement pour alimenter son propre moteur de recherche concurrent. Reddit demande une injonction permanente et des dommages et intérêts, ainsi que l’interdiction formelle d’utiliser les données déjà récoltées.
Pour comprendre l’enjeu, il faut saisir la valeur unique des données de Reddit. Avec plus de 416 millions d’utilisateurs actifs chaque semaine, la plateforme est un océan de discussions authentiques sur absolument tous les sujets: des avis sur des marques de maquillage aux conseils pour élever des bouviers suisses, en passant par des débats philosophiques ou des stratégies de jeux vidéo. C’est précisément ce « langage naturel » que les entreprises d’IA s’arrachent pour améliorer les capacités conversationnelles de leurs chatbots.
Conscient de ce trésor, le réseau social a verrouillé son accès en 2023. Fini l’open bar. L’entreprise exige désormais que les sociétés paient pour accéder à son API (son interface de programmation). Des accords de licence, se chiffrant en millions de dollars, ont d’ailleurs été signés avec Google (pour entraîner son modèle Gemini) et OpenAI (pour ChatGPT). C’est devenu une part vitale de son nouveau modèle économique post-introduction en bourse. Mais tout le monde n’est visiblement pas prêt à payer. C’est là que le « scraping » via Google entre en jeu.
Historiquement, le « scraping » était une pratique ambiguë. Google lui-même a bâti son empire en aspirant le contenu du web pour l’indexer. Pendant longtemps, la relation entre l’indexeur (Google) et l’indexé (le site web) a été considérée comme symbiotique. Google classait l’information et, en retour, envoyait du trafic vers les sites des créateurs. Avec l’IA générative, cette relation est devenue, aux yeux de beaucoup, purement parasitaire. Les entreprises d’IA aspirent des quantités colossales d’informations sans payer et, surtout, sans renvoyer de trafic. Elles utilisent ces données pour créer un produit concurrent qui, à terme, pourrait détourner les utilisateurs de la source originelle.

Le cas de Perplexity, tel que décrit dans la plainte, est particulièrement révélateur. Reddit affirme avoir déjà mis en demeure la start-up pour scraping direct, ce à quoi Perplexity aurait accepté de mettre fin. Pourtant, la plainte note que les citations de contenu Reddit dans les résultats ont ensuite bondi de quarante fois. Comment ? Reddit affirme avoir tendu un piège. Les ingénieurs de la plateforme ont créé un « post test » invisible, configuré d’une manière très spécifique. Il ne pouvait être « crawlable » (exploré) que par le robot d’indexation de Google et n’était accessible nulle part ailleurs sur Internet. Quelques heures plus tard, le contenu de ce post test secret apparaissait dans les résultats de recherche de Perplexity.
Pour Reddit, la preuve est faite. « Le modèle économique de Perplexity consiste essentiellement à prendre le contenu de Reddit depuis les résultats de recherche Google« , l’injecter dans un modèle d’IA, et « appeler cela un nouveau produit« , tance la plainte. Google, qui n’est pas partie prenante au procès, se retrouve dans une position inconfortable. Un porte-parole a indiqué que l’entreprise respecte activement les choix des sites web via le fichier robots.txt (un fichier qui indique aux robots ce qu’ils ont le droit ou non d’indexer), mais a admis qu’il existe un tas de scrapers furtifs qui ne le font pas.
Reddit s’engage-t-il dans une bataille difficile ? Probablement. Le combat juridique est complexe, d’autant que certaines des entreprises visées sont basées à l’étranger, hors de portée facile de la justice américaine. De plus, les techniques de scraping évoluent constamment pour contourner les blocages. Mais la plateforme semble déterminée. Après avoir déjà attaqué Anthropic (un autre poids lourd de l’IA) en juin pour des motifs similaires, elle montre qu’elle utilisera tous les moyens légaux pour protéger sa propriété intellectuelle. Cette affaire pose une question fondamentale pour l’avenir du web: si le contenu créé par des millions d’humains peut être aspiré gratuitement via des intermédiaires pour entraîner des IA qui finiront par remplacer ces sources, pourquoi quiconque prendrait-il encore la peine de créer ce contenu ? La guerre du « blanchiment de données » ne fait que commencer.