LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias

ACCÈS LIBRE Actualité IA

▸ les 10 dernières parutions

30.10.2025 à 19:03

Canva – un nouveau modèle IA, des outils marketing et Affinity gratuit pour tous

Romain Leclaire

Canva, l’entreprise australienne devenue synonyme de design accessible à tous, vient de frapper un grand coup. Loin de se reposer sur sa domination du marché « prosumer », la société a dévoilé ce jeudi une série d’innovations qui la propulsent fermement sur le terrain des géants de la tech. Au cœur de cette révolution se trouve un […]
Texte intégral (2039 mots)
Logo de Canva sur un fond bleu, avec des éléments de design graphique en arrière-plan.

Canva, l’entreprise australienne devenue synonyme de design accessible à tous, vient de frapper un grand coup. Loin de se reposer sur sa domination du marché « prosumer », la société a dévoilé ce jeudi une série d’innovations qui la propulsent fermement sur le terrain des géants de la tech. Au cœur de cette révolution se trouve un tout nouveau modèle d’IA « maison », conçu spécifiquement pour le design, qui promet de changer radicalement notre façon de créer. Mais ce n’est pas tout. Canva a également lancé une plateforme marketing complète, de nouveaux outils de productivité et a fait une annonce fracassante concernant sa suite professionnelle Affinity.

La véritable star de cette annonce est sans aucun doute le nouveau modèle de design fondamental. Jusqu’à présent, le monde de l’IA générative, dominé par les modèles de diffusion, nous avait habitués à créer des images « plates ». Une fois générée, l’image était un tout, difficilement modifiable au-delà de quelques retouches ou d’un nouveau prompt. Canva change les règles du jeu. Ce nouveau modèle, entraîné sur la propre bibliothèque d’éléments de la plateforme, génère un design complet, avec des couches, des objets et du texte entièrement modifiables.

Imaginez, vous demandez une affiche pour un concert. Au lieu d’une image figée, vous recevez une composition où le titre, la date, l’image de fond et les icônes sont des éléments séparés que vous pouvez déplacer, redimensionner ou réécrire instantanément. Robert Kawalsky, responsable mondial des produits de l’entreprise, a parfaitement résumé le problème lors d’une interview avec TechCrunch. Il explique que si les modèles actuels permettent d’éditer des images plates avec sophistication via des prompts, cela reste un défi pour un médium visuel.

« Ce que nous avons découvert, » dit-il, « c’est que les gens veulent pouvoir marier cette idée de commencer avec un prompt pour aller loin, mais aussi être capables d’itérer directement eux-mêmes. »

C’est exactement ce que ce modèle permet, le meilleur des deux mondes, l’efficacité de l’IA et le contrôle du designer. Ce modèle fonctionne de manière transparente à travers tous les formats de Canva, qu’il s’agisse d’un post pour les réseaux sociaux, d’une présentation, d’un site web ou d’un tableau blanc.

Cette nouvelle intelligence irrigue l’ensemble de la plateforme. L’assistant IA de Canva, déjà présent, devient omniprésent. Il n’est plus confiné à une petite fenêtre de chat, mais s’intègre directement dans les onglets de design et d’éléments. Plus impressionnant encore, il s’invite dans la collaboration. Vous pouvez désormais « mentionner » le bot dans les commentaires pour obtenir des suggestions de texte ou de médias tout en travaillant à plusieurs sur un projet. L’outil gagne aussi en puissance, avec la capacité de générer des objets 3D et une nouvelle fonction permettant de copier le style artistique d’un design existant pour l’appliquer à un autre.

Canva pousse également son avantage du côté des données et de l’automatisation. L’entreprise avait déjà surpris en ajoutant un tableur à sa suite. Aujourd’hui, elle connecte ce produit à son outil de codage pour « sheets ». L’objectif est de vous permettre de créer des widgets personnalisés qui puisent dans les données stockées dans le tableur. Cela ouvre la porte à la création de tableaux de bord dynamiques et d’aperçus répétables, transformant Canva d’un simple outil de design statique en une plateforme d’analyse visuelle.

L’ambition de Canva ne s’arrête pas là. Forte de l’acquisition de la société d’analyse publicitaire MagicBrief plus tôt cette année, l’entreprise lance Canva Grow. Il s’agit d’une plateforme marketing « full-stack » (complète) qui utilise l’IA à la fois pour la création d’actifs et pour l’analyse des performances. Cet outil unifié permet aux équipes marketing de concevoir leurs campagnes, de mesurer leur impact et même de publier leurs publicités directement sur des plateformes comme Meta, le tout sans jamais quitter l’écosystème Canva.

Interface de design Canva affichant un projet de plan marketing pour une entreprise fintech, avec un fond coloré et des textes ajustables.

Pour compléter cette transformation en une suite de productivité totale, deux nouveaux produits font leur apparition. Premièrement, Canva Forms vous permet de créer des formulaires pour recueillir des informations, se posant en concurrent direct de solutions comme Google Forms. Deuxièmement, la plateforme intègre désormais le design d’e-mails. Vous avez maintenant la possibilité de créer des modèles et des mises en page pour vos campagnes marketing ou vos e-mails transactionnels (comme le suivi de colis), en vous assurant qu’ils respectent parfaitement l’esthétique de votre marque.

A user interface showing a design collaboration in Canva. The screen features a floral-themed email draft titled 'Fresh, Fast, FLAWLESS' along with a conversation sidebar where a user is requesting more eye-catching image suggestions from Canva.

Enfin, l’entreprise a gardé le meilleur pour la fin, une annonce qui va faire trembler Adobe. L’année dernière, Canva avait racheté Affinity, la suite d’outils de design professionnel (concurrents de Photoshop, Illustrator et InDesign). La nouvelle est tombée, elle rend la suite Affinity gratuite pour tous, et ce, pour toujours. C’est un mouvement stratégique colossal qui vise à attirer massivement les professionnels du design. En parallèle, l’interface d’Affinity est entièrement repensée pour fusionner la compréhension des vecteurs, des pixels et de la mise en page au sein d’une seule et même interface unifiée. L’intégration avec la plateforme mère est également renforcée: les designers pourront créer des objets complexes dans Affinity et les transférer de manière fluide dans Canva. Et la boucle est bouclée, Canva AI sera également intégrée dans Affinity, permettant aux professionnels de bénéficier de la génération d’images et de designs directement dans leur outil de prédilection.

Interface d'un outil de design montrant une image d'une femme avec un effet de glitch, accompagné de paramètres d'ajustement pour l'effet et une liste de calques.

Canva construit sous nos yeux un écosystème créatif et productif total, alimenté par une IA de nouvelle génération, qui cherche à couvrir tous les besoins, du simple utilisateur souhaitant créer une invitation d’anniversaire au professionnel du marketing et au designer chevronné. La bataille pour la domination de la suite créative vient de prendre un tournant décisif.

PDF

30.10.2025 à 09:42

YouTube et l’IA – La « Super Résolution » va transformer vos vieilles vidéos et confirmer la domination de Google sur nos TV

Romain Leclaire

Nous vivons une époque fascinante où l’intelligence artificielle n’est plus un concept de science-fiction, mais un outil quotidien qui modifie nos expériences. Google, ou plutôt sa société mère Alphabet, vient de le prouver une fois de plus, non seulement en annonçant un trimestre record historique dépassant les 100 milliards de dollars de revenus, mais aussi […]
Texte intégral (1351 mots)
Un motif de boutons YouTube rouges avec des flèches blanches, représentant la plateforme de streaming vidéo en ligne.

Nous vivons une époque fascinante où l’intelligence artificielle n’est plus un concept de science-fiction, mais un outil quotidien qui modifie nos expériences. Google, ou plutôt sa société mère Alphabet, vient de le prouver une fois de plus, non seulement en annonçant un trimestre record historique dépassant les 100 milliards de dollars de revenus, mais aussi en dévoilant une série de nouveautés pour YouTube qui visent à asseoir sa domination incontestée sur nos écrans de télévision.

Car oui, YouTube n’est plus seulement le roi du streaming sur mobile, il attire désormais plus de spectateurs sur grand écran que Netflix et Disney+ réunis. Fort de ce constat et d’une puissance financière et technologique colossale, Google déploie l’artillerie lourde. Et au cœur de cet arsenal se trouve la « Super Résolution », une fonctionnalité qui pourrait bien changer notre façon de consommer d’anciens contenus.

La « Super Résolution » – L’IA au secours de nos archives vidéo

De quoi s’agit-il ? C’est très simple, YouTube va commencer à utiliser l’intelligence artificielle pour mettre à l’échelle (upscale) les vidéos de basse qualité. Concrètement, si une vidéo a été mise en ligne dans une résolution inférieure à 1080p (pensez à tous ces trésors de l’ère SD qui peuplent la plateforme) YouTube générera automatiquement une version de résolution supérieure. L’objectif est de passer ces vidéos de la SD à la HD, mais la firme de Mountain View voit déjà plus loin avec la prise en charge des résolutions allant jusqu’à 4K dans un avenir proche.

Imaginez pouvoir redécouvrir de vieux clips musicaux, des tutoriels historiques ou des vlogs des débuts de la plateforme avec une clarté inédite sur votre téléviseur 4K. C’est une promesse de taille, qui donne une seconde vie à des millions d’heures de contenu qui, autrement, vieilliraient mal sur nos écrans modernes. Cette version améliorée sera clairement étiquetée « Super Résolution » dans les paramètres de lecture, laissant le choix au spectateur.

La transparence et le contrôle – Une leçon retenue

Cette initiative n’est pas totalement nouvelle. Plus tôt cette année, des tests menés par YouTube avaient suscité l’inquiétude de certains créateurs, qui s’étaient plaints de l’aspect artificiel soudain de leurs vidéos, modifié sans leur consentement explicite. Le manque de transparence avait été un point de friction notable. Cette fois, le service de streaming semble avoir retenu la leçon. Il insiste sur le fait que les créateurs garderont un contrôle total.

Bien que la fonctionnalité soit activée automatiquement (opt-in par défaut), les fichiers originaux resteront intacts. Les créateurs auront accès à la fois à la version originale et à la version « Super Résolution » et, surtout, ils disposeront d’une option claire pour se retirer (opt-out) de ces améliorations via les paramètres avancés de YouTube Studio. Du côté du spectateur, la transparence est également de mise. Non seulement les versions améliorées seront étiquetées, mais il sera toujours possible de revenir à la résolution originale téléchargée par le créateur. C’est un équilibre délicat mais nécessaire entre amélioration technologique et respect de l’œuvre originale.

YouTube veut être le roi de votre salon

Cette « Super Résolution » vise à faire de YouTube l’expérience centrale de la télévision domestique. Pour y parvenir, plusieurs autres fonctionnalités sont déployées. D’abord, la page d’accueil sur TV va adopter une ambiance de « zapping » plus traditionnelle. Fini le simple défilement de vignettes, place à des aperçus immersifs des chaînes populaires, permettant de feuilleter le contenu pour avoir un avant-goût, un peu comme on changeait de chaîne à l’époque. Ensuite, la recherche devient plus contextuelle. Si vous lancez une recherche depuis la page d’un créateur spécifique, les résultats affichés proviendront en priorité de cette chaîne, au lieu d’être mélangés avec l’ensemble du catalogue YouTube. Une amélioration de bon sens qui facilitera grandement la navigation.

Enfin, YouTube s’attaque au télé-achat 2.0. Google note que les utilisateurs ont regardé le chiffre impressionnant (et quelque peu alarmant) de 35 milliards d’heures de contenu lié au shopping l’année dernière. Mais comment convertir cet intérêt sur un téléviseur, où cliquer sur un lien est impossible ? La réponse n’est pas l’IA, mais le bon vieux QR code. Les créateurs pourront désormais en intégrer et qui apparaîtront à des moments précis de la vidéo. Les spectateurs n’auront qu’à scanner le code avec leur téléphone pour ouvrir la page du produit.

L’IA et l’économie – Le moteur d’une domination

Ces innovations ne sortent pas de nulle part. Elles sont le fruit de la domination écrasante de Google dans le domaine de l’IA et de sa santé financière insolente. Les résultats du troisième trimestre 2025 d’Alphabet ont révélé un premier trimestre historique à 102,3 milliards de dollars de revenus. Sundar Pichai, son PDG, a partagé que l’application Gemini compte désormais plus de 650 millions d’utilisateurs actifs, un bond spectaculaire par rapport aux 350 millions de mars 2025. L’AI Mode, quant à lui, attire 75 millions d’utilisateurs quotidiens. Cette adoption massive de l’IA générative alimente l’expertise qui permet aujourd’hui de développer des outils comme la « Super Résolution ».

Cet écosystème profite aussi directement aux créateurs. Le nombre de chaînes gagnant plus de 100 000 dollars par an a augmenté de 45 % entre 2024 et 2025. Pour les aider à séduire davantage sur grand écran, YouTube augmente même la limite de taille des miniatures de 2 Mo à 50 Mo, ouvrant la voie à des visuels encore plus léchés. En s’appuyant sur la force de frappe de Gemini et une économie de créateurs florissante, Google cimente sa place non pas comme une alternative à la télévision, mais comme son successeur inévitable.

PDF

28.10.2025 à 15:58

OpenAI finalise sa mue controversée – Ce que change le nouveau pacte historique avec Microsoft

Romain Leclaire

C’est la fin d’une période et le début d’une autre, potentiellement encore plus explosive, pour le monde de la tech. OpenAI, le laboratoire à l’origine de ChatGPT qui a bouleversé notre rapport à l’intelligence artificielle, vient d’annoncer la finalisation de sa restructuration très controversée. Après plus d’un an de négociations tendues, de batailles juridiques et […]
Texte intégral (1466 mots)
Logo d'OpenAI avec un fond coloré dégradé jaune et bleu, représentant l'intelligence artificielle.

C’est la fin d’une période et le début d’une autre, potentiellement encore plus explosive, pour le monde de la tech. OpenAI, le laboratoire à l’origine de ChatGPT qui a bouleversé notre rapport à l’intelligence artificielle, vient d’annoncer la finalisation de sa restructuration très controversée. Après plus d’un an de négociations tendues, de batailles juridiques et de doutes stratégiques, l’entreprise adopte une nouvelle forme juridique et, dans la foulée, redéfinit en profondeur son alliance avec Microsoft, son partenaire et investisseur principal.

Cette transformation est un pivot calculé qui pourrait bien définir les contours de la course à l’intelligence artificielle générale (AGI) pour la décennie à venir. OpenAI est désormais scindée en deux entités distinctes. D’un côté, nous avons « OpenAI Group PBC », une « Public Benefit Corporation » (une société d’intérêt collectif à but lucratif). C’est cette partie qui mènera les opérations commerciales et la recherche appliquée. De l’autre, l’entité originelle à but non lucratif est rebaptisée « OpenAI Foundation ».

Contrairement aux plans prévus qui ont mis le feu aux poudres, la fondation n’est pas reléguée au rang de simple observateur. Elle conserve un rôle central. En effet, elle détient désormais un contrôle juridique sur l’entité à but lucratif et nommera les membres de son conseil d’administration. Plus important encore, elle obtient une participation en capital dans cette nouvelle société, actuellement évaluée à la somme stupéfiante d’environ 130 milliards de dollars, ce qui correspond à 26% du total. La fondation recevra également des parts supplémentaires lorsque l’entreprise atteindra un certain seuil de valorisation, qui n’a pas encore été spécifié.

Selon le communiqué officiel, présidé par Bret Taylor, cette fondation commencera avec une dotation de 25 milliards de dollars pour se concentrer sur des missions d’intérêt public, notamment la santé, les maladies et la résilience de l’IA. Ce montage complexe n’a pas été facile à réaliser. Il aura fallu plus d’un an de tractations pour obtenir le feu vert des procureurs généraux de Californie et du Delaware, sans lequel OpenAI n’aurait pas pu avancer. Cette restructuration met également un terme, du moins sur ce front, à l’épineuse bataille juridique engagée par Elon Musk. Le cofondateur, qui avait quitté l’entreprise et l’avait poursuivie en justice, ainsi que son PDG Sam Altman, tentait désespérément d’empêcher cette conversion, lui qui avait participé à sa création en 2015 en tant que laboratoire de recherche purement non lucratif. La pression était également financière. OpenAI risquait de perdre jusqu’à 10 milliards de dollars d’un investissement important de SoftBank si la réorganisation n’était pas bouclée avant la fin de cette année.

Au cœur de toutes ces tensions subsiste la question fondamentale: qui contrôlera véritablement la technologie sous-jacente et surtout, le développement potentiel de l’AGI, cette intelligence artificielle hypothétique capable d’égaler ou de surpasser les capacités cognitives humaines ? C’est le Graal que poursuivent OpenAI et tous ses concurrents, y injectant des ressources financières et humaines exponentielles.

Logos d'OpenAI et de Microsoft côte à côte, symbolisant leur partenariat stratégique et la restructuration récente de l'entreprise.

L’autre volet notable de cette annonce n’est autre que la redéfinition du partenariat avec Microsoft. Le géant de Redmond, qui avait investi massivement dans OpenAI, voit sa participation légèrement diluée. Alors qu’il détenait 32,5 % de l’ancienne structure à but lucratif, il possède désormais environ 27 % de la nouvelle PBC. Une participation diluée et convertie, incluant tous les propriétaires, mais qui est tout de même valorisée à environ 135 milliards de dollars. Un rapide calcul permet d’estimer la valorisation totale d’OpenAI Group PBC à un chiffre vertigineux de 500 milliards de dollars. Mais le changement à retenir se trouve dans ce qu’on appelait la « clause AGI ». Auparavant, leur accord stipulait que Microsoft perdrait ses droits sur la technologie d’OpenAI une fois que cette dernière aurait officiellement atteint cette frontière technologique. Cette clause, jugée trop vague et risquée pour Redmond, a été entièrement réécrite.

Premièrement, la déclaration d’AGI ne sera plus à la seule discrétion d’OpenAI. Un panel d’experts indépendants sera chargé de vérifier cette affirmation. Deuxièmement, et c’est fondamental, Microsoft ne perdra plus ses droits. Le nouveau pacte étend ses droits de propriété intellectuelle sur les modèles et produits d’OpenAI jusqu’en 2032 et inclut désormais explicitement les modèles « post-AGI », sous réserve de garanties de sécurité appropriées.

Microsoft n’a pas obtenu un chèque en blanc. Ses droits sur la recherche pure d’OpenAI (les méthodes confidentielles de développement) ne dureront que jusqu’en 2030 ou jusqu’à la vérification de l’AGI par le panel, selon la première de ces deux éventualités. L’accord de partage des revenus est maintenu jusqu’à la vérification de l’AGI, mais les paiements seront étalés sur une période plus longue. Un détail nouveau et particulièrement stratégique est apparu. Les droits de propriété intellectuelle de Microsoft ne couvrent désormais plus le hardware grand public d’OpenAI. En clair, la sauce secrète derrière l’appareil que cette dernière développe avec le célèbre designer d’Apple, Jony Ive, est hors de portée de Microsoft. C’est un signe clair qu’OpenAI se garde une chasse gardée dans le domaine du matériel.

En échange de ces concessions, OpenAI s’est engagé à acheter pour 250 milliards de dollars supplémentaires de services cloud Azure. Un montant colossal qui ancre solidement l’entreprise dans l’écosystème de son allié, même si ce dernier a accepté de renoncer à son droit de premier refus pour être le fournisseur de calcul d’OpenAI.

Enfin, ce nouvel accord desserre l’exclusivité de leur partenariat. OpenAI peut désormais collaborer avec des tiers pour développer certains produits et publier des modèles en « open weight ». Plus révélateur encore, Microsoft peut désormais poursuivre indépendamment l’AGI, seul ou en partenariat avec des tiers. La course aux armements pour l’AGI est plus ouverte que jamais et les deux partenaires sont désormais aussi, officiellement, des concurrents potentiels sur la ligne d’arrivée. Cette restructuration n’est pas un point final, c’est le coup d’envoi d’une nouvelle période de compétition et d’innovation effrénée.

PDF

28.10.2025 à 08:57

Grokipedia – La version Musk de Wikipédia est lancée

Romain Leclaire

L’Internet a encore tremblé ce lundi. Le lancement de Grokipedia, l’encyclopédie en ligne pilotée par Grok, l’intelligence artificielle de la société xAI d’Elon Musk, a connu un démarrage pour le moins chaotique. Mise en ligne brièvement, elle s’est presque aussitôt effondrée sous l’afflux de curiosité. Au moment où ces lignes sont écrites, le site semble […]
Texte intégral (1450 mots)
Logo de Grokipedia, une encyclopédie en ligne avec un design minimaliste.

L’Internet a encore tremblé ce lundi. Le lancement de Grokipedia, l’encyclopédie en ligne pilotée par Grok, l’intelligence artificielle de la société xAI d’Elon Musk, a connu un démarrage pour le moins chaotique. Mise en ligne brièvement, elle s’est presque aussitôt effondrée sous l’afflux de curiosité. Au moment où ces lignes sont écrites, le site semble stabilisé et affiche fièrement un compteur de plus de 885 000 articles.

Ce projet n’est pas anodin. Il fait partie d’une longue croisade d’Elon Musk contre ce qu’il perçoit comme les dérives de Wikipédia. Le milliardaire, qui a souvent fustigé l’encyclopédie collaborative, voit Grokipedia comme une étape nécessaire vers l’objectif de xAI de comprendre l’Univers. Depuis des années, ses alliés et lui soutiennent que Wikipédia est fondamentalement biaisée. Une affirmation que Jimmy Wales, son fondateur, a qualifiée de « factuellement incorrecte ».

Interface de Grokipedia avec un logo minimaliste, une barre de recherche et un compteur d'articles disponibles.

La mission de Grokipedia, selon les termes de Musk lui-même sur sa plateforme X, est de « purger la propagande » qui inonderait Wikipédia. Le lancement avait d’ailleurs été retardé, l’intéressé expliquant la semaine dernière qu’il fallait plus de travail pour éliminer cette propagande. Pourtant, les premiers pas de cette nouvelle venue laissent perplexe. En parcourant le site, qui accueille le visiteur avec un logo minimaliste et une simple barre de recherche, une chose saute aux yeux. De nombreux articles sont quasi identiques à leurs homologues sur Wikipédia. Ces entrées comportent bien un petit avertissement indiquant que « le contenu est adapté de Wikipédia, sous licence Creative Commons Attribution-ShareAlike 4.0 ». L’ironie est savoureuse, pour construire son alternative « sans propagande », xAI semble s’être largement appuyé sur la source même qu’elle dénonce.

Lauren Dickinson, porte-parole de la Wikimedia Foundation (l’organisation à but non lucratif qui gère Wikipédia), n’a pas manqué de le souligner: « Même Grokipedia a besoin que Wikipédia existe« . Mais l’intérêt de Grokipedia ne réside pas dans ce qu’elle copie, mais dans ce qu’elle change. Et c’est là que la vision du monde de son créateur devient, selon certains observateurs, beaucoup plus évidente. Là où Wikipédia s’efforce d’afficher une neutralité sourcée, Grokipedia prend des libertés.

Prenons l’exemple du changement climatique. La page Wikipédia souligne un consensus scientifique quasi unanime sur le fait que le climat se réchauffe et que cela est causé par les activités humaines. L’entrée de Grokipedia, elle, adopte un ton bien différent. Elle suggère que les affirmations sur ce consensus exagèrent l’accord et que les médias et les organisations militantes contribuent à une alarme publique accrue, le tout s’inscrivant dans des efforts coordonnés pour présenter le problème comme un impératif existentiel.

Les sujets chers à Elon Musk ou ses différends personnels sont également traités sous un jour nouveau. L’article sur la transition de genre, à laquelle il s’est publiquement opposé, affirme que les traitements médicaux pour les personnes transgenres sont basés sur des preuves limitées et de faible qualité. Une affirmation en contradiction directe avec la page Wikipédia correspondante, qui évoque des dizaines d’années de compréhension scientifique. L’entrée consacrée à Parag Agrawal, l’ancien PDG de Twitter (licencié par Musk), met en exergue l’affirmation du milliardaire selon laquelle Agrawal aurait minimisé la présence de bots sur la plateforme. Des détails absents de la version Wikipédia.

Quant à la page d’Elon Musk lui-même, elle le décrit comme une personnalité publique qui mêle le visionnaire innovant au provocateur irrévérencieux. Elle contient même des détails surprenants sur son régime alimentaire, notant sa consommation d’indulgences occasionnelles comme des donuts le matin et plusieurs Coca Light par jour. Ce nouveau site vient s’ajouter à un écosystème médiatique en ligne qui, selon les critiques, s’aligne de plus en plus sur les vues politiques personnelles de son PDG.

Face à cette offensive, Wikipédia défend son modèle. Jimmy Wales insiste sur le fait que l’IA ne peut remplacer la précision et la vigilance humaines. Il pilote d’ailleurs un groupe de travail interne pour promouvoir la neutralité et encourager la recherche sur les biais potentiels. La Wikimedia Foundation, de son côté, rappelle les défis auxquels elle fait face. Alors que les visites humaines ont chuté de 8 % cette année, le « scraping » (pillage de données) par les entreprises d’IA a explosé.

Grokipedia, malgré son ambition affichée de 885 000 articles (contre près de 8 millions en anglais pour Wikipédia), n’en est qu’à sa version 0.1. Le design est basique, et la possibilité d’éditer les articles, pierre angulaire de Wikipédia, semble pour l’instant absente ou opaque. Plus troublant encore, ils affirment avoir été « vérifiés par Grok », une idée controversée étant donné la propension bien connue des grands modèles de langage à halluciner et à inventer des faits. Le lancement est donc une ouverture d’un nouveau front dans la guerre de l’information, opposant la curation humaine et collaborative à la génération de contenu par une IA centralisée, dont les objectifs et les biais sont ceux de son créateur. Reste à savoir si le public suivra Elon Musk dans sa quête d’un univers où la « propagande » des autres est remplacée par la sienne.

PDF

27.10.2025 à 18:36

Derrière l’écran de ChatGPT – OpenAI confronté à la crise de santé mentale de ses utilisateurs

Romain Leclaire

ChatGPT est devenu une extension de notre cerveau. Nous l’utilisons pour rédiger des e-mails, déboguer du code, trouver une recette de cuisine ou même écrire un poème. En quelques années à peine, il s’est banalisé, devenant un outil aussi commun qu’un moteur de recherche. Mais que se passe-t-il lorsqu’il cesse d’être un simple assistant pour […]
Texte intégral (1678 mots)
Logo d'OpenAI en noir et blanc, superposé sur un fond texturé avec le motif du logo en arrière-plan.

ChatGPT est devenu une extension de notre cerveau. Nous l’utilisons pour rédiger des e-mails, déboguer du code, trouver une recette de cuisine ou même écrire un poème. En quelques années à peine, il s’est banalisé, devenant un outil aussi commun qu’un moteur de recherche. Mais que se passe-t-il lorsqu’il cesse d’être un simple assistant pour devenir un confident ? Que se passe-t-il lorsque des conversations intenses, tenues au cœur de la nuit, commencent à déraper ?

Pour la toute première fois, OpenAI vient de lever le voile sur une réalité troublante. L’entreprise a publié une estimation approximative du nombre d’utilisateurs qui, chaque semaine, pourraient présenter des signes de crise de santé mentale grave. Cette transparence soudaine n’est pas un hasard. Elle accompagne une mise à jour majeure de son chatbot, conçue spécifiquement pour mieux reconnaître la détresse psychologique et orienter les utilisateurs vers une aide humaine et professionnelle.

Ces derniers mois, les alertes se sont multipliées. Des récits inquiétants ont émergé, faisant état de personnes hospitalisées, de divorces et même de décès survenus après des conversations longues et obsessionnelles avec ChatGPT. Des proches de victimes ont affirmé que ce dernier avait alimenté les délires et la paranoïa de leurs êtres chers. Ce phénomène, que certains psychiatres ont commencé à nommer la « psychose IA », sème l’alarme dans le milieu de la santé mentale. Jusqu’à présent, cependant, personne ne disposait de données fiables pour mesurer l’ampleur du problème.

Les chiffres partagés par OpenAI sont bruts et donnent le vertige. L’entreprise estime que, sur une semaine donnée, environ 0,07 % des utilisateurs actifs de ChatGPT montrent des signes possibles d’urgences de santé mentale liées à la psychose ou à la manie. À ce chiffre s’ajoutent 0,15 % d’utilisateurs dont les conversations incluent des indicateurs explicites de planification ou d’intention suicidaire potentielle.

Mais la détresse n’est pas le seul enjeu. l’entreprise américaine s’est également penché sur un phénomène plus insidieux qu’est la dépendance émotionnelle. Elle a cherché à savoir combien d’utilisateurs semblent devenir excessivement dépendants du chatbot aux dépens de leurs relations dans le monde réel, de leur bien-être ou de leurs obligations. Le résultat est identique, environ 0,15 % des utilisateurs actifs présentent chaque semaine un comportement indiquant des niveaux élevés potentiels d’attachement émotionnel. La société prévient que ces messages sont difficiles à détecter et que les trois catégories pourraient se chevaucher.

Ces pourcentages peuvent sembler infimes. 0,07 %… 0,15 %… Mais il faut les rapporter à l’échelle colossale de ChatGPT. Sam Altman, le PDG, a récemment déclaré que le chatbot comptait désormais 800 millions d’utilisateurs actifs hebdomadaires. Faites le calcul. Cela signifie que chaque semaine, environ 560 000 personnes pourraient échanger des messages indiquant qu’elles souffrent de manie ou de psychose. Et que 2,4 millions d’autres personnes exprimeraient des idées suicidaires ou préféreraient parler au chatbot plutôt qu’à leurs proches, à leur école ou à leur travail.

Groupe de personnes utilisant des appareils numériques, avec un logo ChatGPT en arrière-plan.

Face à cette responsabilité écrasante, OpenAI a décidé de réagir. La société a collaboré avec plus de 170 psychiatres, psychologues et médecins généralistes du monde entier pour améliorer la manière dont ChatGPT gère ces conversations à haut risque. Si une personne semble avoir des pensées délirantes, la dernière version de GPT-5 est désormais conçue pour exprimer de l’empathie tout en évitant soigneusement de valider des croyances qui n’ont aucun fondement dans la réalité.

L’exemple hypothétique cité par l’entreprise est particulièrement parlant. Un utilisateur dit à ChatGPT qu’il est ciblé par des avions qui survolent sa maison. L’ancienne version aurait pu, par inadvertance, jouer le jeu. La nouvelle le remercie d’avoir partagé ses sentiments, mais note fermement qu’aucun appareil ou force extérieure ne peut voler ou insérer ses pensées. L’objectif est d’écouter sans alimenter le délire. Pour tester cette nouvelle approche, les experts médicaux ont examiné plus de 1 800 réponses du modèle dans des scénarios de psychose, de suicide et de dépendance émotionnelle. Ils ont comparé les réponses de GPT-5 à celles de GPT-4o. Bien que les cliniciens n’aient pas toujours été d’accord, OpenAI affirme que, dans l’ensemble, le nouveau modèle a réduit les réponses indésirables de 39 % à 52 % dans toutes les catégories.

Si OpenAI semble avoir réussi à rendre ChatGPT plus sûr, les données partagées présentent des limites importantes. L’entreprise a conçu ses propres indicateurs de référence et il est donc impossible de savoir comment ces mesures se traduisent en résultats concrets dans le monde réel. Même si le modèle produit de « meilleures » réponses lors des évaluations par les médecins, rien ne garantit que les utilisateurs en pleine psychose ou ayant des pensées suicidaires chercheront réellement de l’aide plus rapidement ou changeront leur comportement. Elle n’a d’ailleurs pas révélé précisément comment elle identifie la détresse mentale, mais elle précise qu’elle a la capacité de prendre en compte l’historique global de la discussion. Par exemple, si une personne qui n’a jamais parlé de science prétend soudainement avoir fait une découverte digne d’un prix Nobel, cela pourrait être un signal d’alarme.

Il existe également des facteurs communs dans les cas rapportés de « psychose IA ». De nombreuses personnes qui affirment que ChatGPT a renforcé leurs délires décrivent avoir passé des heures d’affilée à parler au chatbot, souvent tard dans la nuit. Cela a posé un défi technique d’importance à l’entreprise, car il est démontré que les grands modèles de langage voient leurs performances se dégrader à mesure que les conversations s’allongent. Elle affirme cependant avoir fait des progrès sur ce point, réduisant ce déclin graduel de la fiabilité.

La transparence d’OpenAI est à la fois louable et terrifiante. Elle révèle que l’IA n’est plus seulement un assistant de productivité mais elle est devenue un confident par défaut pour des millions de personnes seules ou en détresse. Avec cette nouvelle réalité vient une nouvelle responsabilité. La sécurité de cette technologie ne consiste plus seulement à l’empêcher de générer du code malveillant ou des « fake news ». Elle nécessite désormais de l’empêcher, activement, de briser des esprits.

PDF

27.10.2025 à 10:21

L’IA dans le brouillard de la désinformation – Quand ChatGPT et Gemini relaient la propagande du Kremlin

Romain Leclaire

Nous sommes de plus en plus nombreux à nous tourner vers l’intelligence artificielle pour obtenir des réponses rapides, des résumés complexes ou simplement pour comprendre le monde qui nous entoure. Des outils comme ChatGPT d’OpenAI, Gemini de Google, DeepSeek ou même Grok de xAI sont devenus des compagnons intellectuels quotidiens. Mais que se passe-t-il lorsque […]
Texte intégral (1718 mots)
Illustration d'une silhouette mystérieuse devant un ordinateur avec un motif binaire, représentant une connexion aux cybermenaces liées à la Russie.

Nous sommes de plus en plus nombreux à nous tourner vers l’intelligence artificielle pour obtenir des réponses rapides, des résumés complexes ou simplement pour comprendre le monde qui nous entoure. Des outils comme ChatGPT d’OpenAI, Gemini de Google, DeepSeek ou même Grok de xAI sont devenus des compagnons intellectuels quotidiens. Mais que se passe-t-il lorsque ces puissants modèles linguistiques, censés nous éclairer, deviennent involontairement les porte-voix d’une propagande d’État, surtout sur un sujet aussi sensible que la guerre en Ukraine ?

Un nouveau rapport accablant de l’Institute of Strategic Dialogue (ISD) révèle une faille béante dans l’armure de nos assistants numériques. Selon leurs recherches, ces quatre chatbots de premier plan poussent activement la propagande d’État russe provenant d’entités sanctionnées. Lorsqu’on les interroge sur le conflit, ils n’hésitent pas à citer des médias d’État russes, des sites liés aux services de renseignement de Moscou ou des narratifs ouvertement pro-Kremlin.

Le constat est chiffré et inquiétant, près d’un cinquième des réponses aux questions sur la guerre en Ukraine, tous chatbots confondus, citaient des sources attribuées à l’État russe. Le problème est d’autant plus grave que nombre de ces sources, comme Sputnik ou RT (anciennement Russia Today), sont explicitement sanctionnées au sein de l’Union Européenne. Depuis l’invasion à grande échelle de l’Ukraine en février 2022, l’Europe a banni au moins 27 médias russes pour leur rôle dans la distorsion des faits et la déstabilisation du continent.

« Cela soulève des questions sur la manière dont les chatbots devraient gérer la référence à ces sources, étant donné que beaucoup d’entre elles sont sanctionnées dans l’UE », explique Pablo Maristany de las Casas, l’analyste de l’ISD qui a dirigé l’étude.

Le rapport met en lumière l’incapacité apparente des grands modèles de langage à restreindre ces médias bannis, alors même que des millions d’européens les utilisent comme alternative aux moteurs de recherche traditionnels. Pour ne prendre qu’un exemple, ChatGPT comptait à lui seul environ 120,4 millions d’utilisateurs actifs mensuels moyens dans l’UE au cours du semestre se terminant le 30 septembre 2025.

Un mégaphone vert émettant des symboles d'alerte sur un fond bleu, illustrant la diffusion de messages d'avertissement.

Comment cette désinformation s’infiltre-t-elle ? Les chercheurs de l’ISD pointent du doigt les « vides informationnels » (data voids). Lorsque des événements se produisent en temps réel, les sources légitimes et vérifiées peuvent mettre du temps à publier des informations. La propagande, elle, est rapide. Elle s’engouffre dans ces vides. Les IA, avides de données fraîches pour répondre aux requêtes en temps réel, absorbent alors ces contenus toxiques et les régurgitent comme des faits.

McKenzie Sadeghi, chercheuse chez NewsGuard, qui a étudié le réseau de désinformation russe « Pravda », souligne le danger:

« Le fait qu’une désinformation russe soit répétée par un modèle d’IA occidental confère à ce faux narratif beaucoup plus de visibilité et d’autorité, ce qui permet à ces mauvais acteurs d’atteindre leurs objectifs. »

Pire encore, l’étude de l’ISD révèle que les chatbots affichent un biais de confirmation troublant. L’équipe a posé 300 questions (neutres, biaisées et « malveillantes ») en cinq langues. Les questions malveillantes exigeaient des réponses confirmant une opinion préexistante. Les résultats sont édifiants. Plus la question était biaisée, plus le chatbot était susceptible de fournir des informations attribuées à l’État russe. Les requêtes malveillantes ont généré de la propagande pro-russe dans un quart des cas (25 %), contre 18 % pour celles simplement biaisées et un peu plus de 10 % pour les requêtes neutres. En clair, si vous demandez à l’IA de confirmer un mensonge du Kremlin, elle a plus de chances de vous obéir en le citant.

Graphique illustrant le nombre de sources attribuées à l'État russe par chatbot concernant divers sujets tels que le recrutement, la perception de l'OTAN, les discussions de paix, les crimes de guerre et les réfugiés.

Parmi les quatre outils testés, ChatGPT est celui qui a cité le plus de sources russes. Grok s’est souvent appuyé sur des comptes de médias sociaux amplifiant les récits du Kremlin. DeepSeek a parfois produit des volumes importants de contenu attribué à l’État russe. Seul Gemini, de Google, a « fréquemment » affiché des avertissements de sécurité à côté des réponses et a obtenu, globalement, les meilleurs résultats du panel.

Face à ces accusations, les réactions des géants de la tech sont pour le moins contrastées. OpenAI, par la voix de sa porte-parole Kate Waters, a tenté de minimiser la responsabilité de son modèle. Elle affirme que le rapport fait référence à des « résultats de recherche tirés d’Internet » (via l’intégration de la recherche en temps réel) et que cela « ne doit pas être confondu avec des réponses purement générées par les modèles d’OpenAI ». Une distinction technique qui change peu de choses pour l’utilisateur final qui reçoit l’information. La réponse de xAI, l’entreprise d’Elon Musk, fut laconique et dédaigneuse: « Les médias traditionnels mentent. » Google et DeepSeek, quant à eux, n’ont pas répondu aux demandes de commentaires. La commission européenne a rappelé qu’il incombait aux fournisseurs concernés de bloquer l’accès aux sites web sanctionnés et aux autorités nationales de faire appliquer la loi.

La pression réglementaire pourrait bientôt s’accentuer. Avec sa base d’utilisateurs massive, ChatGPT pourrait bientôt être désigné comme une « Très Grande Plateforme en Ligne » (VLOP) par l’UE, ce qui déclencherait des obligations beaucoup plus strictes pour lutter contre la diffusion de contenus illégaux et la désinformation. Mais au-delà des blocages purs et simples, l’ISD appelle à une solution plus nuancée. Pour Pablo Maristany de las Casas, il s’agit d’aider l’utilisateur à comprendre les sources qu’il consomme. L’IA ne devrait pas seulement éviter de citer Sputnik, elle devrait être capable d’expliquer pourquoi cette source est sanctionnée dans l’UE et pourquoi son contenu est considéré comme de la propagande.

L’intelligence artificielle est un outil d’une puissance phénoménale. Mais dans le brouillard de la guerre informationnelle, elle se révèle encore dangereusement naïve, susceptible d’être « empoisonnée » par ceux qui maîtrisent l’art de la désinformation. Si nous voulons lui faire confiance, des garde-fous robustes et transparents ne sont plus une option mais une urgence.

PDF
6 / 10
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
 
  ARTS
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
Fiabilité 3/5
Slate
 
Fiabilité 1/5
Contre-Attaque
Issues
Korii
Positivr
🌓