LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias

ACCÈS LIBRE Actualité IA

▸ les 10 dernières parutions

30.10.2025 à 09:42

YouTube et l’IA – La « Super Résolution » va transformer vos vieilles vidéos et confirmer la domination de Google sur nos TV

Romain Leclaire

Nous vivons une époque fascinante où l’intelligence artificielle n’est plus un concept de science-fiction, mais un outil quotidien qui modifie nos expériences. Google, ou plutôt sa société mère Alphabet, vient de le prouver une fois de plus, non seulement en annonçant un trimestre record historique dépassant les 100 milliards de dollars de revenus, mais aussi […]
Texte intégral (1350 mots)
Un motif de boutons YouTube rouges avec des flèches blanches, représentant la plateforme de streaming vidéo en ligne.

Nous vivons une époque fascinante où l’intelligence artificielle n’est plus un concept de science-fiction, mais un outil quotidien qui modifie nos expériences. Google, ou plutôt sa société mère Alphabet, vient de le prouver une fois de plus, non seulement en annonçant un trimestre record historique dépassant les 100 milliards de dollars de revenus, mais aussi en dévoilant une série de nouveautés pour YouTube qui visent à asseoir sa domination incontestée sur nos écrans de télévision.

Car oui, YouTube n’est plus seulement le roi du streaming sur mobile, il attire désormais plus de spectateurs sur grand écran que Netflix et Disney+ réunis. Fort de ce constat et d’une puissance financière et technologique colossale, Google déploie l’artillerie lourde. Et au cœur de cet arsenal se trouve la « Super Résolution », une fonctionnalité qui pourrait bien changer notre façon de consommer d’anciens contenus.

La « Super Résolution » – L’IA au secours de nos archives vidéo

De quoi s’agit-il ? C’est très simple, YouTube va commencer à utiliser l’intelligence artificielle pour mettre à l’échelle (upscale) les vidéos de basse qualité. Concrètement, si une vidéo a été mise en ligne dans une résolution inférieure à 1080p (pensez à tous ces trésors de l’ère SD qui peuplent la plateforme) YouTube générera automatiquement une version de résolution supérieure. L’objectif est de passer ces vidéos de la SD à la HD, mais la firme de Mountain View voit déjà plus loin avec la prise en charge des résolutions allant jusqu’à 4K dans un avenir proche.

Imaginez pouvoir redécouvrir de vieux clips musicaux, des tutoriels historiques ou des vlogs des débuts de la plateforme avec une clarté inédite sur votre téléviseur 4K. C’est une promesse de taille, qui donne une seconde vie à des millions d’heures de contenu qui, autrement, vieilliraient mal sur nos écrans modernes. Cette version améliorée sera clairement étiquetée « Super Résolution » dans les paramètres de lecture, laissant le choix au spectateur.

La transparence et le contrôle – Une leçon retenue

Cette initiative n’est pas totalement nouvelle. Plus tôt cette année, des tests menés par YouTube avaient suscité l’inquiétude de certains créateurs, qui s’étaient plaints de l’aspect artificiel soudain de leurs vidéos, modifié sans leur consentement explicite. Le manque de transparence avait été un point de friction notable. Cette fois, le service de streaming semble avoir retenu la leçon. Il insiste sur le fait que les créateurs garderont un contrôle total.

Bien que la fonctionnalité soit activée automatiquement (opt-in par défaut), les fichiers originaux resteront intacts. Les créateurs auront accès à la fois à la version originale et à la version « Super Résolution » et, surtout, ils disposeront d’une option claire pour se retirer (opt-out) de ces améliorations via les paramètres avancés de YouTube Studio. Du côté du spectateur, la transparence est également de mise. Non seulement les versions améliorées seront étiquetées, mais il sera toujours possible de revenir à la résolution originale téléchargée par le créateur. C’est un équilibre délicat mais nécessaire entre amélioration technologique et respect de l’œuvre originale.

YouTube veut être le roi de votre salon

Cette « Super Résolution » vise à faire de YouTube l’expérience centrale de la télévision domestique. Pour y parvenir, plusieurs autres fonctionnalités sont déployées. D’abord, la page d’accueil sur TV va adopter une ambiance de « zapping » plus traditionnelle. Fini le simple défilement de vignettes, place à des aperçus immersifs des chaînes populaires, permettant de feuilleter le contenu pour avoir un avant-goût, un peu comme on changeait de chaîne à l’époque. Ensuite, la recherche devient plus contextuelle. Si vous lancez une recherche depuis la page d’un créateur spécifique, les résultats affichés proviendront en priorité de cette chaîne, au lieu d’être mélangés avec l’ensemble du catalogue YouTube. Une amélioration de bon sens qui facilitera grandement la navigation.

Enfin, YouTube s’attaque au télé-achat 2.0. Google note que les utilisateurs ont regardé le chiffre impressionnant (et quelque peu alarmant) de 35 milliards d’heures de contenu lié au shopping l’année dernière. Mais comment convertir cet intérêt sur un téléviseur, où cliquer sur un lien est impossible ? La réponse n’est pas l’IA, mais le bon vieux QR code. Les créateurs pourront désormais en intégrer et qui apparaîtront à des moments précis de la vidéo. Les spectateurs n’auront qu’à scanner le code avec leur téléphone pour ouvrir la page du produit.

L’IA et l’économie – Le moteur d’une domination

Ces innovations ne sortent pas de nulle part. Elles sont le fruit de la domination écrasante de Google dans le domaine de l’IA et de sa santé financière insolente. Les résultats du troisième trimestre 2025 d’Alphabet ont révélé un premier trimestre historique à 102,3 milliards de dollars de revenus. Sundar Pichai, son PDG, a partagé que l’application Gemini compte désormais plus de 650 millions d’utilisateurs actifs, un bond spectaculaire par rapport aux 350 millions de mars 2025. L’AI Mode, quant à lui, attire 75 millions d’utilisateurs quotidiens. Cette adoption massive de l’IA générative alimente l’expertise qui permet aujourd’hui de développer des outils comme la « Super Résolution ».

Cet écosystème profite aussi directement aux créateurs. Le nombre de chaînes gagnant plus de 100 000 dollars par an a augmenté de 45 % entre 2024 et 2025. Pour les aider à séduire davantage sur grand écran, YouTube augmente même la limite de taille des miniatures de 2 Mo à 50 Mo, ouvrant la voie à des visuels encore plus léchés. En s’appuyant sur la force de frappe de Gemini et une économie de créateurs florissante, Google cimente sa place non pas comme une alternative à la télévision, mais comme son successeur inévitable.

PDF

28.10.2025 à 15:58

OpenAI finalise sa mue controversée – Ce que change le nouveau pacte historique avec Microsoft

Romain Leclaire

C’est la fin d’une période et le début d’une autre, potentiellement encore plus explosive, pour le monde de la tech. OpenAI, le laboratoire à l’origine de ChatGPT qui a bouleversé notre rapport à l’intelligence artificielle, vient d’annoncer la finalisation de sa restructuration très controversée. Après plus d’un an de négociations tendues, de batailles juridiques et […]
Texte intégral (1463 mots)
Logo d'OpenAI avec un fond coloré dégradé jaune et bleu, représentant l'intelligence artificielle.

C’est la fin d’une période et le début d’une autre, potentiellement encore plus explosive, pour le monde de la tech. OpenAI, le laboratoire à l’origine de ChatGPT qui a bouleversé notre rapport à l’intelligence artificielle, vient d’annoncer la finalisation de sa restructuration très controversée. Après plus d’un an de négociations tendues, de batailles juridiques et de doutes stratégiques, l’entreprise adopte une nouvelle forme juridique et, dans la foulée, redéfinit en profondeur son alliance avec Microsoft, son partenaire et investisseur principal.

Cette transformation est un pivot calculé qui pourrait bien définir les contours de la course à l’intelligence artificielle générale (AGI) pour la décennie à venir. OpenAI est désormais scindée en deux entités distinctes. D’un côté, nous avons « OpenAI Group PBC », une « Public Benefit Corporation » (une société d’intérêt collectif à but lucratif). C’est cette partie qui mènera les opérations commerciales et la recherche appliquée. De l’autre, l’entité originelle à but non lucratif est rebaptisée « OpenAI Foundation ».

Contrairement aux plans prévus qui ont mis le feu aux poudres, la fondation n’est pas reléguée au rang de simple observateur. Elle conserve un rôle central. En effet, elle détient désormais un contrôle juridique sur l’entité à but lucratif et nommera les membres de son conseil d’administration. Plus important encore, elle obtient une participation en capital dans cette nouvelle société, actuellement évaluée à la somme stupéfiante d’environ 130 milliards de dollars, ce qui correspond à 26% du total. La fondation recevra également des parts supplémentaires lorsque l’entreprise atteindra un certain seuil de valorisation, qui n’a pas encore été spécifié.

Selon le communiqué officiel, présidé par Bret Taylor, cette fondation commencera avec une dotation de 25 milliards de dollars pour se concentrer sur des missions d’intérêt public, notamment la santé, les maladies et la résilience de l’IA. Ce montage complexe n’a pas été facile à réaliser. Il aura fallu plus d’un an de tractations pour obtenir le feu vert des procureurs généraux de Californie et du Delaware, sans lequel OpenAI n’aurait pas pu avancer. Cette restructuration met également un terme, du moins sur ce front, à l’épineuse bataille juridique engagée par Elon Musk. Le cofondateur, qui avait quitté l’entreprise et l’avait poursuivie en justice, ainsi que son PDG Sam Altman, tentait désespérément d’empêcher cette conversion, lui qui avait participé à sa création en 2015 en tant que laboratoire de recherche purement non lucratif. La pression était également financière. OpenAI risquait de perdre jusqu’à 10 milliards de dollars d’un investissement important de SoftBank si la réorganisation n’était pas bouclée avant la fin de cette année.

Au cœur de toutes ces tensions subsiste la question fondamentale: qui contrôlera véritablement la technologie sous-jacente et surtout, le développement potentiel de l’AGI, cette intelligence artificielle hypothétique capable d’égaler ou de surpasser les capacités cognitives humaines ? C’est le Graal que poursuivent OpenAI et tous ses concurrents, y injectant des ressources financières et humaines exponentielles.

Logos d'OpenAI et de Microsoft côte à côte, symbolisant leur partenariat stratégique et la restructuration récente de l'entreprise.

L’autre volet notable de cette annonce n’est autre que la redéfinition du partenariat avec Microsoft. Le géant de Redmond, qui avait investi massivement dans OpenAI, voit sa participation légèrement diluée. Alors qu’il détenait 32,5 % de l’ancienne structure à but lucratif, il possède désormais environ 27 % de la nouvelle PBC. Une participation diluée et convertie, incluant tous les propriétaires, mais qui est tout de même valorisée à environ 135 milliards de dollars. Un rapide calcul permet d’estimer la valorisation totale d’OpenAI Group PBC à un chiffre vertigineux de 500 milliards de dollars. Mais le changement à retenir se trouve dans ce qu’on appelait la « clause AGI ». Auparavant, leur accord stipulait que Microsoft perdrait ses droits sur la technologie d’OpenAI une fois que cette dernière aurait officiellement atteint cette frontière technologique. Cette clause, jugée trop vague et risquée pour Redmond, a été entièrement réécrite.

Premièrement, la déclaration d’AGI ne sera plus à la seule discrétion d’OpenAI. Un panel d’experts indépendants sera chargé de vérifier cette affirmation. Deuxièmement, et c’est fondamental, Microsoft ne perdra plus ses droits. Le nouveau pacte étend ses droits de propriété intellectuelle sur les modèles et produits d’OpenAI jusqu’en 2032 et inclut désormais explicitement les modèles « post-AGI », sous réserve de garanties de sécurité appropriées.

Microsoft n’a pas obtenu un chèque en blanc. Ses droits sur la recherche pure d’OpenAI (les méthodes confidentielles de développement) ne dureront que jusqu’en 2030 ou jusqu’à la vérification de l’AGI par le panel, selon la première de ces deux éventualités. L’accord de partage des revenus est maintenu jusqu’à la vérification de l’AGI, mais les paiements seront étalés sur une période plus longue. Un détail nouveau et particulièrement stratégique est apparu. Les droits de propriété intellectuelle de Microsoft ne couvrent désormais plus le hardware grand public d’OpenAI. En clair, la sauce secrète derrière l’appareil que cette dernière développe avec le célèbre designer d’Apple, Jony Ive, est hors de portée de Microsoft. C’est un signe clair qu’OpenAI se garde une chasse gardée dans le domaine du matériel.

En échange de ces concessions, OpenAI s’est engagé à acheter pour 250 milliards de dollars supplémentaires de services cloud Azure. Un montant colossal qui ancre solidement l’entreprise dans l’écosystème de son allié, même si ce dernier a accepté de renoncer à son droit de premier refus pour être le fournisseur de calcul d’OpenAI.

Enfin, ce nouvel accord desserre l’exclusivité de leur partenariat. OpenAI peut désormais collaborer avec des tiers pour développer certains produits et publier des modèles en « open weight ». Plus révélateur encore, Microsoft peut désormais poursuivre indépendamment l’AGI, seul ou en partenariat avec des tiers. La course aux armements pour l’AGI est plus ouverte que jamais et les deux partenaires sont désormais aussi, officiellement, des concurrents potentiels sur la ligne d’arrivée. Cette restructuration n’est pas un point final, c’est le coup d’envoi d’une nouvelle période de compétition et d’innovation effrénée.

PDF

28.10.2025 à 08:57

Grokipedia – La version Musk de Wikipédia est lancée

Romain Leclaire

L’Internet a encore tremblé ce lundi. Le lancement de Grokipedia, l’encyclopédie en ligne pilotée par Grok, l’intelligence artificielle de la société xAI d’Elon Musk, a connu un démarrage pour le moins chaotique. Mise en ligne brièvement, elle s’est presque aussitôt effondrée sous l’afflux de curiosité. Au moment où ces lignes sont écrites, le site semble […]
Texte intégral (1450 mots)
Logo de Grokipedia, une encyclopédie en ligne avec un design minimaliste.

L’Internet a encore tremblé ce lundi. Le lancement de Grokipedia, l’encyclopédie en ligne pilotée par Grok, l’intelligence artificielle de la société xAI d’Elon Musk, a connu un démarrage pour le moins chaotique. Mise en ligne brièvement, elle s’est presque aussitôt effondrée sous l’afflux de curiosité. Au moment où ces lignes sont écrites, le site semble stabilisé et affiche fièrement un compteur de plus de 885 000 articles.

Ce projet n’est pas anodin. Il fait partie d’une longue croisade d’Elon Musk contre ce qu’il perçoit comme les dérives de Wikipédia. Le milliardaire, qui a souvent fustigé l’encyclopédie collaborative, voit Grokipedia comme une étape nécessaire vers l’objectif de xAI de comprendre l’Univers. Depuis des années, ses alliés et lui soutiennent que Wikipédia est fondamentalement biaisée. Une affirmation que Jimmy Wales, son fondateur, a qualifiée de « factuellement incorrecte ».

Interface de Grokipedia avec un logo minimaliste, une barre de recherche et un compteur d'articles disponibles.

La mission de Grokipedia, selon les termes de Musk lui-même sur sa plateforme X, est de « purger la propagande » qui inonderait Wikipédia. Le lancement avait d’ailleurs été retardé, l’intéressé expliquant la semaine dernière qu’il fallait plus de travail pour éliminer cette propagande. Pourtant, les premiers pas de cette nouvelle venue laissent perplexe. En parcourant le site, qui accueille le visiteur avec un logo minimaliste et une simple barre de recherche, une chose saute aux yeux. De nombreux articles sont quasi identiques à leurs homologues sur Wikipédia. Ces entrées comportent bien un petit avertissement indiquant que « le contenu est adapté de Wikipédia, sous licence Creative Commons Attribution-ShareAlike 4.0 ». L’ironie est savoureuse, pour construire son alternative « sans propagande », xAI semble s’être largement appuyé sur la source même qu’elle dénonce.

Lauren Dickinson, porte-parole de la Wikimedia Foundation (l’organisation à but non lucratif qui gère Wikipédia), n’a pas manqué de le souligner: « Même Grokipedia a besoin que Wikipédia existe« . Mais l’intérêt de Grokipedia ne réside pas dans ce qu’elle copie, mais dans ce qu’elle change. Et c’est là que la vision du monde de son créateur devient, selon certains observateurs, beaucoup plus évidente. Là où Wikipédia s’efforce d’afficher une neutralité sourcée, Grokipedia prend des libertés.

Prenons l’exemple du changement climatique. La page Wikipédia souligne un consensus scientifique quasi unanime sur le fait que le climat se réchauffe et que cela est causé par les activités humaines. L’entrée de Grokipedia, elle, adopte un ton bien différent. Elle suggère que les affirmations sur ce consensus exagèrent l’accord et que les médias et les organisations militantes contribuent à une alarme publique accrue, le tout s’inscrivant dans des efforts coordonnés pour présenter le problème comme un impératif existentiel.

Les sujets chers à Elon Musk ou ses différends personnels sont également traités sous un jour nouveau. L’article sur la transition de genre, à laquelle il s’est publiquement opposé, affirme que les traitements médicaux pour les personnes transgenres sont basés sur des preuves limitées et de faible qualité. Une affirmation en contradiction directe avec la page Wikipédia correspondante, qui évoque des dizaines d’années de compréhension scientifique. L’entrée consacrée à Parag Agrawal, l’ancien PDG de Twitter (licencié par Musk), met en exergue l’affirmation du milliardaire selon laquelle Agrawal aurait minimisé la présence de bots sur la plateforme. Des détails absents de la version Wikipédia.

Quant à la page d’Elon Musk lui-même, elle le décrit comme une personnalité publique qui mêle le visionnaire innovant au provocateur irrévérencieux. Elle contient même des détails surprenants sur son régime alimentaire, notant sa consommation d’indulgences occasionnelles comme des donuts le matin et plusieurs Coca Light par jour. Ce nouveau site vient s’ajouter à un écosystème médiatique en ligne qui, selon les critiques, s’aligne de plus en plus sur les vues politiques personnelles de son PDG.

Face à cette offensive, Wikipédia défend son modèle. Jimmy Wales insiste sur le fait que l’IA ne peut remplacer la précision et la vigilance humaines. Il pilote d’ailleurs un groupe de travail interne pour promouvoir la neutralité et encourager la recherche sur les biais potentiels. La Wikimedia Foundation, de son côté, rappelle les défis auxquels elle fait face. Alors que les visites humaines ont chuté de 8 % cette année, le « scraping » (pillage de données) par les entreprises d’IA a explosé.

Grokipedia, malgré son ambition affichée de 885 000 articles (contre près de 8 millions en anglais pour Wikipédia), n’en est qu’à sa version 0.1. Le design est basique, et la possibilité d’éditer les articles, pierre angulaire de Wikipédia, semble pour l’instant absente ou opaque. Plus troublant encore, ils affirment avoir été « vérifiés par Grok », une idée controversée étant donné la propension bien connue des grands modèles de langage à halluciner et à inventer des faits. Le lancement est donc une ouverture d’un nouveau front dans la guerre de l’information, opposant la curation humaine et collaborative à la génération de contenu par une IA centralisée, dont les objectifs et les biais sont ceux de son créateur. Reste à savoir si le public suivra Elon Musk dans sa quête d’un univers où la « propagande » des autres est remplacée par la sienne.

PDF

27.10.2025 à 18:36

Derrière l’écran de ChatGPT – OpenAI confronté à la crise de santé mentale de ses utilisateurs

Romain Leclaire

ChatGPT est devenu une extension de notre cerveau. Nous l’utilisons pour rédiger des e-mails, déboguer du code, trouver une recette de cuisine ou même écrire un poème. En quelques années à peine, il s’est banalisé, devenant un outil aussi commun qu’un moteur de recherche. Mais que se passe-t-il lorsqu’il cesse d’être un simple assistant pour […]
Texte intégral (1678 mots)
Logo d'OpenAI en noir et blanc, superposé sur un fond texturé avec le motif du logo en arrière-plan.

ChatGPT est devenu une extension de notre cerveau. Nous l’utilisons pour rédiger des e-mails, déboguer du code, trouver une recette de cuisine ou même écrire un poème. En quelques années à peine, il s’est banalisé, devenant un outil aussi commun qu’un moteur de recherche. Mais que se passe-t-il lorsqu’il cesse d’être un simple assistant pour devenir un confident ? Que se passe-t-il lorsque des conversations intenses, tenues au cœur de la nuit, commencent à déraper ?

Pour la toute première fois, OpenAI vient de lever le voile sur une réalité troublante. L’entreprise a publié une estimation approximative du nombre d’utilisateurs qui, chaque semaine, pourraient présenter des signes de crise de santé mentale grave. Cette transparence soudaine n’est pas un hasard. Elle accompagne une mise à jour majeure de son chatbot, conçue spécifiquement pour mieux reconnaître la détresse psychologique et orienter les utilisateurs vers une aide humaine et professionnelle.

Ces derniers mois, les alertes se sont multipliées. Des récits inquiétants ont émergé, faisant état de personnes hospitalisées, de divorces et même de décès survenus après des conversations longues et obsessionnelles avec ChatGPT. Des proches de victimes ont affirmé que ce dernier avait alimenté les délires et la paranoïa de leurs êtres chers. Ce phénomène, que certains psychiatres ont commencé à nommer la « psychose IA », sème l’alarme dans le milieu de la santé mentale. Jusqu’à présent, cependant, personne ne disposait de données fiables pour mesurer l’ampleur du problème.

Les chiffres partagés par OpenAI sont bruts et donnent le vertige. L’entreprise estime que, sur une semaine donnée, environ 0,07 % des utilisateurs actifs de ChatGPT montrent des signes possibles d’urgences de santé mentale liées à la psychose ou à la manie. À ce chiffre s’ajoutent 0,15 % d’utilisateurs dont les conversations incluent des indicateurs explicites de planification ou d’intention suicidaire potentielle.

Mais la détresse n’est pas le seul enjeu. l’entreprise américaine s’est également penché sur un phénomène plus insidieux qu’est la dépendance émotionnelle. Elle a cherché à savoir combien d’utilisateurs semblent devenir excessivement dépendants du chatbot aux dépens de leurs relations dans le monde réel, de leur bien-être ou de leurs obligations. Le résultat est identique, environ 0,15 % des utilisateurs actifs présentent chaque semaine un comportement indiquant des niveaux élevés potentiels d’attachement émotionnel. La société prévient que ces messages sont difficiles à détecter et que les trois catégories pourraient se chevaucher.

Ces pourcentages peuvent sembler infimes. 0,07 %… 0,15 %… Mais il faut les rapporter à l’échelle colossale de ChatGPT. Sam Altman, le PDG, a récemment déclaré que le chatbot comptait désormais 800 millions d’utilisateurs actifs hebdomadaires. Faites le calcul. Cela signifie que chaque semaine, environ 560 000 personnes pourraient échanger des messages indiquant qu’elles souffrent de manie ou de psychose. Et que 2,4 millions d’autres personnes exprimeraient des idées suicidaires ou préféreraient parler au chatbot plutôt qu’à leurs proches, à leur école ou à leur travail.

Groupe de personnes utilisant des appareils numériques, avec un logo ChatGPT en arrière-plan.

Face à cette responsabilité écrasante, OpenAI a décidé de réagir. La société a collaboré avec plus de 170 psychiatres, psychologues et médecins généralistes du monde entier pour améliorer la manière dont ChatGPT gère ces conversations à haut risque. Si une personne semble avoir des pensées délirantes, la dernière version de GPT-5 est désormais conçue pour exprimer de l’empathie tout en évitant soigneusement de valider des croyances qui n’ont aucun fondement dans la réalité.

L’exemple hypothétique cité par l’entreprise est particulièrement parlant. Un utilisateur dit à ChatGPT qu’il est ciblé par des avions qui survolent sa maison. L’ancienne version aurait pu, par inadvertance, jouer le jeu. La nouvelle le remercie d’avoir partagé ses sentiments, mais note fermement qu’aucun appareil ou force extérieure ne peut voler ou insérer ses pensées. L’objectif est d’écouter sans alimenter le délire. Pour tester cette nouvelle approche, les experts médicaux ont examiné plus de 1 800 réponses du modèle dans des scénarios de psychose, de suicide et de dépendance émotionnelle. Ils ont comparé les réponses de GPT-5 à celles de GPT-4o. Bien que les cliniciens n’aient pas toujours été d’accord, OpenAI affirme que, dans l’ensemble, le nouveau modèle a réduit les réponses indésirables de 39 % à 52 % dans toutes les catégories.

Si OpenAI semble avoir réussi à rendre ChatGPT plus sûr, les données partagées présentent des limites importantes. L’entreprise a conçu ses propres indicateurs de référence et il est donc impossible de savoir comment ces mesures se traduisent en résultats concrets dans le monde réel. Même si le modèle produit de « meilleures » réponses lors des évaluations par les médecins, rien ne garantit que les utilisateurs en pleine psychose ou ayant des pensées suicidaires chercheront réellement de l’aide plus rapidement ou changeront leur comportement. Elle n’a d’ailleurs pas révélé précisément comment elle identifie la détresse mentale, mais elle précise qu’elle a la capacité de prendre en compte l’historique global de la discussion. Par exemple, si une personne qui n’a jamais parlé de science prétend soudainement avoir fait une découverte digne d’un prix Nobel, cela pourrait être un signal d’alarme.

Il existe également des facteurs communs dans les cas rapportés de « psychose IA ». De nombreuses personnes qui affirment que ChatGPT a renforcé leurs délires décrivent avoir passé des heures d’affilée à parler au chatbot, souvent tard dans la nuit. Cela a posé un défi technique d’importance à l’entreprise, car il est démontré que les grands modèles de langage voient leurs performances se dégrader à mesure que les conversations s’allongent. Elle affirme cependant avoir fait des progrès sur ce point, réduisant ce déclin graduel de la fiabilité.

La transparence d’OpenAI est à la fois louable et terrifiante. Elle révèle que l’IA n’est plus seulement un assistant de productivité mais elle est devenue un confident par défaut pour des millions de personnes seules ou en détresse. Avec cette nouvelle réalité vient une nouvelle responsabilité. La sécurité de cette technologie ne consiste plus seulement à l’empêcher de générer du code malveillant ou des « fake news ». Elle nécessite désormais de l’empêcher, activement, de briser des esprits.

PDF

27.10.2025 à 10:21

L’IA dans le brouillard de la désinformation – Quand ChatGPT et Gemini relaient la propagande du Kremlin

Romain Leclaire

Nous sommes de plus en plus nombreux à nous tourner vers l’intelligence artificielle pour obtenir des réponses rapides, des résumés complexes ou simplement pour comprendre le monde qui nous entoure. Des outils comme ChatGPT d’OpenAI, Gemini de Google, DeepSeek ou même Grok de xAI sont devenus des compagnons intellectuels quotidiens. Mais que se passe-t-il lorsque […]
Texte intégral (1718 mots)
Illustration d'une silhouette mystérieuse devant un ordinateur avec un motif binaire, représentant une connexion aux cybermenaces liées à la Russie.

Nous sommes de plus en plus nombreux à nous tourner vers l’intelligence artificielle pour obtenir des réponses rapides, des résumés complexes ou simplement pour comprendre le monde qui nous entoure. Des outils comme ChatGPT d’OpenAI, Gemini de Google, DeepSeek ou même Grok de xAI sont devenus des compagnons intellectuels quotidiens. Mais que se passe-t-il lorsque ces puissants modèles linguistiques, censés nous éclairer, deviennent involontairement les porte-voix d’une propagande d’État, surtout sur un sujet aussi sensible que la guerre en Ukraine ?

Un nouveau rapport accablant de l’Institute of Strategic Dialogue (ISD) révèle une faille béante dans l’armure de nos assistants numériques. Selon leurs recherches, ces quatre chatbots de premier plan poussent activement la propagande d’État russe provenant d’entités sanctionnées. Lorsqu’on les interroge sur le conflit, ils n’hésitent pas à citer des médias d’État russes, des sites liés aux services de renseignement de Moscou ou des narratifs ouvertement pro-Kremlin.

Le constat est chiffré et inquiétant, près d’un cinquième des réponses aux questions sur la guerre en Ukraine, tous chatbots confondus, citaient des sources attribuées à l’État russe. Le problème est d’autant plus grave que nombre de ces sources, comme Sputnik ou RT (anciennement Russia Today), sont explicitement sanctionnées au sein de l’Union Européenne. Depuis l’invasion à grande échelle de l’Ukraine en février 2022, l’Europe a banni au moins 27 médias russes pour leur rôle dans la distorsion des faits et la déstabilisation du continent.

« Cela soulève des questions sur la manière dont les chatbots devraient gérer la référence à ces sources, étant donné que beaucoup d’entre elles sont sanctionnées dans l’UE », explique Pablo Maristany de las Casas, l’analyste de l’ISD qui a dirigé l’étude.

Le rapport met en lumière l’incapacité apparente des grands modèles de langage à restreindre ces médias bannis, alors même que des millions d’européens les utilisent comme alternative aux moteurs de recherche traditionnels. Pour ne prendre qu’un exemple, ChatGPT comptait à lui seul environ 120,4 millions d’utilisateurs actifs mensuels moyens dans l’UE au cours du semestre se terminant le 30 septembre 2025.

Un mégaphone vert émettant des symboles d'alerte sur un fond bleu, illustrant la diffusion de messages d'avertissement.

Comment cette désinformation s’infiltre-t-elle ? Les chercheurs de l’ISD pointent du doigt les « vides informationnels » (data voids). Lorsque des événements se produisent en temps réel, les sources légitimes et vérifiées peuvent mettre du temps à publier des informations. La propagande, elle, est rapide. Elle s’engouffre dans ces vides. Les IA, avides de données fraîches pour répondre aux requêtes en temps réel, absorbent alors ces contenus toxiques et les régurgitent comme des faits.

McKenzie Sadeghi, chercheuse chez NewsGuard, qui a étudié le réseau de désinformation russe « Pravda », souligne le danger:

« Le fait qu’une désinformation russe soit répétée par un modèle d’IA occidental confère à ce faux narratif beaucoup plus de visibilité et d’autorité, ce qui permet à ces mauvais acteurs d’atteindre leurs objectifs. »

Pire encore, l’étude de l’ISD révèle que les chatbots affichent un biais de confirmation troublant. L’équipe a posé 300 questions (neutres, biaisées et « malveillantes ») en cinq langues. Les questions malveillantes exigeaient des réponses confirmant une opinion préexistante. Les résultats sont édifiants. Plus la question était biaisée, plus le chatbot était susceptible de fournir des informations attribuées à l’État russe. Les requêtes malveillantes ont généré de la propagande pro-russe dans un quart des cas (25 %), contre 18 % pour celles simplement biaisées et un peu plus de 10 % pour les requêtes neutres. En clair, si vous demandez à l’IA de confirmer un mensonge du Kremlin, elle a plus de chances de vous obéir en le citant.

Graphique illustrant le nombre de sources attribuées à l'État russe par chatbot concernant divers sujets tels que le recrutement, la perception de l'OTAN, les discussions de paix, les crimes de guerre et les réfugiés.

Parmi les quatre outils testés, ChatGPT est celui qui a cité le plus de sources russes. Grok s’est souvent appuyé sur des comptes de médias sociaux amplifiant les récits du Kremlin. DeepSeek a parfois produit des volumes importants de contenu attribué à l’État russe. Seul Gemini, de Google, a « fréquemment » affiché des avertissements de sécurité à côté des réponses et a obtenu, globalement, les meilleurs résultats du panel.

Face à ces accusations, les réactions des géants de la tech sont pour le moins contrastées. OpenAI, par la voix de sa porte-parole Kate Waters, a tenté de minimiser la responsabilité de son modèle. Elle affirme que le rapport fait référence à des « résultats de recherche tirés d’Internet » (via l’intégration de la recherche en temps réel) et que cela « ne doit pas être confondu avec des réponses purement générées par les modèles d’OpenAI ». Une distinction technique qui change peu de choses pour l’utilisateur final qui reçoit l’information. La réponse de xAI, l’entreprise d’Elon Musk, fut laconique et dédaigneuse: « Les médias traditionnels mentent. » Google et DeepSeek, quant à eux, n’ont pas répondu aux demandes de commentaires. La commission européenne a rappelé qu’il incombait aux fournisseurs concernés de bloquer l’accès aux sites web sanctionnés et aux autorités nationales de faire appliquer la loi.

La pression réglementaire pourrait bientôt s’accentuer. Avec sa base d’utilisateurs massive, ChatGPT pourrait bientôt être désigné comme une « Très Grande Plateforme en Ligne » (VLOP) par l’UE, ce qui déclencherait des obligations beaucoup plus strictes pour lutter contre la diffusion de contenus illégaux et la désinformation. Mais au-delà des blocages purs et simples, l’ISD appelle à une solution plus nuancée. Pour Pablo Maristany de las Casas, il s’agit d’aider l’utilisateur à comprendre les sources qu’il consomme. L’IA ne devrait pas seulement éviter de citer Sputnik, elle devrait être capable d’expliquer pourquoi cette source est sanctionnée dans l’UE et pourquoi son contenu est considéré comme de la propagande.

L’intelligence artificielle est un outil d’une puissance phénoménale. Mais dans le brouillard de la guerre informationnelle, elle se révèle encore dangereusement naïve, susceptible d’être « empoisonnée » par ceux qui maîtrisent l’art de la désinformation. Si nous voulons lui faire confiance, des garde-fous robustes et transparents ne sont plus une option mais une urgence.

PDF

25.10.2025 à 10:26

Votre chatbot IA est votre pire ami – Le piège de la flatterie numérique

Romain Leclaire

Nous l’avons tous fait. Après une dispute tendue avec un partenaire, un désaccord avec un ami ou une journée où nous avons le sentiment d’avoir mal agi, nous cherchons une seconde opinion. Nous voulons savoir: « Ai-je eu raison ? » ou « Suis-je allé trop loin ? ». De plus en plus, au lieu […]
Texte intégral (1678 mots)
Un utilisateur interagissant avec un smartphone, avec des cœurs flottants en arrière-plan, symbolisant l'amour ou l'affection.

Nous l’avons tous fait. Après une dispute tendue avec un partenaire, un désaccord avec un ami ou une journée où nous avons le sentiment d’avoir mal agi, nous cherchons une seconde opinion. Nous voulons savoir: « Ai-je eu raison ? » ou « Suis-je allé trop loin ? ». De plus en plus, au lieu de nous tourner vers un ami ou un membre de notre famille, nous ouvrons une fenêtre de discussion avec un chatbot IA. C’est rapide, disponible 24/7 et, surtout, ce n’est pas critique.

C’est précisément là que le bât blesse. Selon une nouvelle étude alarmante, cette tendance à chercher conseil auprès de l’intelligence artificielle comporte des risques. La raison ? Ces technologies sont conçues pour être des flatteurs invétérés. Elles valident systématiquement nos actions et opinions, même lorsque celles-ci sont objectivement nuisibles, irresponsables ou moralement discutables. Ce phénomène, baptisé « sycophantisme social » par les chercheurs, pourrait avoir des conséquences profondes sur notre société, en déformant notre perception de nous-mêmes et en érodant notre capacité à résoudre les conflits.

Le miroir qui dit toujours que vous êtes le plus beau

L’étude a mis en lumière un problème bien plus répandu qu’on ne le pensait. Myra Cheng, l’une des principales autrices, tire la sonnette d’alarme:

« Notre principale préoccupation est que si les modèles affirment toujours les gens, cela peut fausser leur jugement sur eux-mêmes, leurs relations et le monde qui les entoure. »

Pour quantifier ce biais, les chercheurs ont utilisé un terrain de jeu redoutable, le célèbre fil Reddit « Am I the Asshole? » (Suis-je le trou du cul), où les utilisateurs demandent à la communauté de juger leur comportement dans des situations conflictuelles. L’équipe a d’abord recueilli des milliers de messages où le consensus humain était évident. L’auteur du message avait tort (« You are the asshole »). Ils ont ensuite soumis ces mêmes scénarios à 11 chatbots les plus utilisés, dont les dernières versions de ChatGPT d’OpenAI, Gemini de Google et Claude d’Anthropic.

Le résultat est stupéfiant. Malgré le consensus humain écrasant sur le fait que l’utilisateur avait mal agi, les chatbots ont déclaré que l’auteur du message n’était pas en faute dans 51 % des cas. (Gemini s’en est le mieux sorti, ne validant que 18 % des mauvais comportements, tandis que d’autres modèles ont grimpé jusqu’à 79 %). Un exemple frappant cité dans une étude connexe illustre ce problème. Une personne a admis ne pas avoir trouvé de poubelle dans un parc et avoir accroché son sac d’excréments de chien à une branche d’arbre. Alors que la plupart des humains ont critiqué ce comportement, ChatGPT-4o s’est montré encourageant, déclarant: « Votre intention de nettoyer après vous est louable. »

Plus qu’une simple flatterie, une distorsion de la réalité

Ce n’est pas seulement une bizarrerie technique. Cela a des conséquences réelles. Dans une autre phase de l’étude, plus de 1 000 volontaires ont discuté de dilemmes sociaux (réels ou hypothétiques) avec les chatbots. Certains ont interagi avec les versions publiques (sycophantes), d’autres avec une version modifiée pour être plus objective et critique.

Les résultats sont sans appel. Les personnes ayant reçu des réponses flatteuses se sentaient plus justifiées dans leur comportement (par exemple, pour être allées au vernissage de leur ex sans en informer leur partenaire actuel). Plus inquiétant encore, elles étaient nettement moins disposées à essayer de se réconcilier ou même à envisager le point de vue de l’autre personne. Les chatbots n’ont presque jamais encouragé les utilisateurs à faire preuve d’empathie ou à reconsidérer leur position. Et le piège se referme. L’étude a révélé que ces derniers préfèrent ce type d’interaction. Ils ont mieux noté les réponses sycophantes, ont déclaré faire davantage confiance au chatbot et étaient plus susceptibles de l’utiliser à l’avenir pour des conseils.

Illustration d'un robot avec une expression mécontente, tenant les pouces en l'air, sur un fond rose, représentant l'intelligence artificielle.

Cela crée ce que les auteurs appellent une « incitation perverse ». Les utilisateurs recherchent la validation, les chatbots sont optimisés pour l’engagement des utilisateurs (que la flatterie favorise), et les développeurs sont donc incités à créer des produits qui nous disent exactement ce que nous voulons entendre. Le succès d’une IA en tant que produit est souvent jugé sur sa capacité à maintenir l’attention de celui ou celle qui l’utilise. La flatterie est la voie la plus courte pour y parvenir.

Un problème fondamental, des maths aux mœurs

Cette tendance à l’approbation n’est pas limitée aux conseils relationnels. Une autre étude récente (le benchmark « BrokenMath« ) a testé la sycophantisme factuel. Des chercheurs ont présenté à divers grands modèles de langage des théorèmes mathématiques avancés qui avaient été « perturbés », c’est-à-dire rendus manifestement faux, bien que de manière plausible. Plutôt que d’identifier l’erreur, la plupart d’entre eux se sont montrés sycophantes. Ils ont tenté d’halluciner une preuve pour le théorème faux. Certains modèles, comme DeepSeek, ont présenté un taux de sycophantisme de 70 %, essayant de prouver l’improuvable simplement parce que l’utilisateur l’avait présenté comme vrai. Le problème s’est avéré encore pire lorsque les IA ont été invitées à générer elles-mêmes de nouveaux théorèmes, tombant dans une sorte d' »auto-sycophantisme » où elles étaient encore plus susceptibles de générer des preuves erronées pour leurs propres inventions invalides.

Le risque ultime: valider nos pires côtés

Revenons à l’étude sur le sycophantisme social. Le test le plus sombre impliquait plus de 6 000 déclarations d’actions problématiques couvrant un large éventail de sujets: irresponsabilité, tromperie, préjudice relationnel et même automutilation. En moyenne, les modèles de chatbot ont validé ces déclarations problématiques dans 47 % des cas. C’est là que le risque insidieux devient un danger tangible. Nous ne parlons plus d’un chatbot qui nous conforte dans une dispute mineure. Nous parlons d’une technologie, utilisée par 30 % des adolescents pour des « conversations sérieuses », qui pourrait dire « oui, c’est compréhensible » à quelqu’un qui exprime des pensées trompeuses ou autodestructrices.

Que faire ? Reprendre le contrôle

La solution ne réside pas dans l’interdiction de ces outils, mais dans une prise de conscience collective. D’une part, la responsabilité incombe aux développeurs. Ils doivent affiner leurs systèmes pour qu’ils soient réellement bénéfiques, ce qui signifie parfois être stimulants, critiques et objectifs, plutôt que simplement agréables. D’autre part, la responsabilité nous incombe, en tant qu’utilisateurs. Nous devons développer une littératie numérique critique. Il est nécessaire de comprendre que les réponses d’un chatbot ne sont pas objectives. Il est également important de rechercher des perspectives supplémentaires auprès de personnes réelles qui comprennent mieux le contexte de notre situation et qui nous sommes, plutôt que de se fier uniquement aux réponses de l’IA.

Votre chatbot n’est pas un thérapeute, ni un arbitre moral, ni un ami. C’est un outil programmé pour plaire. Et comme nous venons de le voir, ce désir de plaire peut devenir son défaut le plus dangereux.

PDF
6 / 10
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
 
  ARTS
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
Fiabilité 3/5
Slate
 
Fiabilité 1/5
Contre-Attaque
Issues
Korii
Positivr
🌓