LePartisan.info À propos Podcasts Fil web Écologie BLOGS Revues Médias
FakeTech
Un regard critique sur les Nouvelles Technologies, Big Tech et la Silicon Valley.

Le blog de Christophe LEBOUCHER


▸ les 20 dernières parutions

09.03.2026 à 07:24

L'IA au service de la guerre contre l'Iran

Christophe @PoliticoboyTX

L'IA générative produit des morts à la pelle au Moyen-Orient, faisant craindre le pire pour la suite, dans un contexte ou les technologies sont déployées de manière particulièrement irresponsable.
Texte intégral (4853 mots)

Dès les premières heures de leur guerre contre l’Iran, les États-Unis et Israël ont commis un massacre d’ampleur historique. Comme je l’écrivais dans un article analysant leur guerre illégale :

Les fillettes de la petite ville de Minab venaient d’entamer leur semaine lorsque leur école a été bombardée par la coalition israélo-américaine. Plus de 140 enfants et les 26 enseignantes sont morts, en plus de la centaine de blessés graves, brûlés ou écrasés par les gravats, qui porteront à jamais le traumatisme de ce cataclysme. The Guardian décrit des scènes d’horreur absolue, où des bouts de bras d’enfants de six ans jouxtent des morceaux de cartables roses.

(…)

Ni Israël ni les États-Unis n’ont nié le crime, simplement qualifié de “tragédie, si avérée” par le ministre des affaires étrangères américain Marco Rubio. Une ancienne caserne des gardiens de la révolution iranienne se trouvait à proximité, mais n’est plus en service depuis une dizaine d’années. L’explication la plus généreuse consiste à supposer que la cible, choisie sur la base d’informations périmées, était cette ancienne base.

Depuis, le New York Times a attribué la responsabilité du massacre à l’armée américaine, qui a frappé l’école à deux reprises en moins d’une heure, aggravant dramatiquement le bilan initial et tuant une partie des premiers secouristes1.

Quel est le rapport avec l’IA et les Big Tech, me direz-vous ? Peut-être aucun. Mais en lisant les articles traitant de cette tragédie, je n’ai pas pu m’empêcher de faire le lien avec d’autres informations fuitées par le Pentagone à propos de l’usage de l’IA. Les États-Unis se vantent d’avoir été en mesure de frapper aussi rapidement des centaines de cibles grâce à un recours massif à l’Intelligence artificielle.

Les programmes conçus à partir des principes de “deep learning” et intégrés à de grands modèles de langage type GPT-5 permettent de traiter de grandes quantités de données et de réaliser des interpolations en vue de corréler certaines informations pour suggérer des listes de cibles à bombarder.

Ce n’est pas nouveau.

À Gaza, l’IA a été massivement employée par Israël pour sélectionner des cibles, en recoupant des masses d’informations incomplètes, avec un taux d’erreur de 10 % environ.

Comme le rapporte The Guardian, l’usage de l’IA compresse le temps d’analyse et de décision et permet de déterminer où bombarder “plus vite que la pensée humaine”. La “chaine de décision” (identification d’une cible suite au recoupement d’informations, évaluation de sa valeur stratégique, des risques de dommages collatéraux, de la légalité du bombardement, attribution des coordonnées, choix de l’armement et de l’unité qui sera chargée de mener la frappe, validation finale de la décision, etc.) est exécutée infiniment plus rapidement. Comme l’expliquent les experts cités par le Guardian “ces systèmes produisent plus d’options de cibles et plus rapidement”. Le risque évident est de commettre de nombreuses erreurs en plaçant une trop grande confiance dans l’aptitude des programmes d’IA à identifier les cibles légitimes ou militaires sans commettre d’erreurs. À Gaza, Israël avait estimé que ses outils se trompaient une fois sur dix, tout en considérant qu’il s’agissait d’un taux d’erreur acceptable. Qu’en est-il des seuils de tolérance américains ?

Le second problème découle de l’impact de cet usage sur les décideurs humains. Confrontés à un plus grand choix de cibles et mis sous pression pour valider plus rapidement ces dernières, ils seraient davantage susceptibles de commettre des erreurs.

Partager

Le massacre des écolières de Minab pourrait résulter d’une attribution erronée de la cible par une IA agrégeant des informations périmées et dont la recommandation n’avait pas fait l’objet d’une vérification suffisamment poussée par un humain. Il se peut également que le bombardement ait été réalisé sciemment, pour tester la réaction des médias occidentaux et de l’opinion publique face à ce massacre (dans ce cas, la réponse est claire : les médias et décideurs occidentaux ont pratiquement ignoré ce crime de masse, en particulier quand cela comptait le plus, au début du conflit). On peut également imaginer que l’IA se soit simplement trompée de coordonnées, que l’erreur d’attribution de la cible fut commise par un humain. Mais si on évacue l’hypothèse d’un massacre intentionnel, les chances pour que l’emploi de l’IA dans la sélection des cibles à bombarder soit responsable de cette tragédie semblent très élevées.

En effet, les États-Unis communiquent amplement sur l’emploi de leur système “Maven”, concu par la société de Peter Thiel Palantir et propulsé par l’IA d’Anthropic. On lui attribue le “succès” des bombardements qui ont permis de frapper plus de milles cibles dans les premières 48 heures de l’attaque. Cette utilisation massive de l’IA s’inscrit dans une tendance particulièrement inquiétante, qui ne fait pas l’unanimité au sein des employés de la Silicon Valley.

Anthropic vs Pentagone

Dans les jours qui ont précédé l’agression américaine non provoquée contre l’Iran, une polémique a secoué la Silicon Valley.

Depuis que le ministère de la Défense américain (rebaptisé ministère de la Guerre) souhaite intégrer directement les modèles d’IA générative au cœur de ses systèmes d’armement, sans exclure la prise de décisions létales sans intervention humaine, des voix se sont insurgées contre cette option inconsidérée. Dont Anthropic, le principal concurrent d’OpenAI, qui commercialise les modèles de langage “Claude”.

La firme californienne a mis son véto à l’utilisation de ses outils pour “conduire une surveillance de masse des Américains ou automatiser entièrement des systèmes d’armement” susceptibles de déployer une force létale sans l’intervention d’un être humain dans le processus décisionnel. Trump et son administration se sont révoltés contre cette exigence, menaçant Anthropic de résilier tous ses contrats militaires. Un bras de fer s’en est suivi, en partie justifié par la sortie d’un article devenu viral.

L’IA, générative d’Hiver nucléaire ?

Le journal “New Scientist” a publié un reportage décrivant des tests effectués par des chercheurs en IA à partir des modèles de langage de Google, Anthropic et OpenAI. Le but des chercheurs était de voir si les IA, chargées de prendre des décisions militaires et diplomatiques dans le cadre de simulations de conflits (“war games”), auraient recours à l’arme nucléaire. Le résultat a permis de produire de gros titres alarmistes :

“Dans 95 % des cas, l’IA a recours à l’arme nucléaire”

L’article en question

Bien sûr, ce genre de résultat n’est pas nouveau et ne dit pas grand-chose au sujet de l’IA. Cette dernière ne semble pas consciente du fait que le recours à l’arme nucléaire tactique reste largement un tabou moral et éthique. Ni ne semble mesurer le fait qu’un emploi stratégique de l’arme nucléaire provoquerait un “hiver nucléaire” apocalyptique, même si l’adversaire n’est plus en mesure de répliquer suite à l’attaque nucléaire initiale. Ce n’est pas parce que l’IA est immorale (elle l’est), mais simplement parce qu’elle a été programmée d’une manière qui l’a conduite à ce genre de conclusion. En particulier dans le cadre d’une simulation n’ayant pas suffisamment défini les conséquences d’une guerre atomique.

On pourrait même estimer que cet état de fait reflète assez bien le type de décisions que seraient capables de prendre les dirigeants américains actuels.

Néanmoins, le fait que l’IA ne soit pas intrinsèquement responsable de son usage systématique de l’arme nucléaire dans les simulations ne permet pas d’ignorer le problème sous-jacent. Les études de ce genre confirment le fait que la manière dont sont programmées les IA les plus avancées pose un risque civilisationnel en cas d’intégration trop poussée dans la chaine de commandement militaire.

Certes, les chances de voir le feu nucléaire confié à une IA restent faibles à court et moyen terme, malgré le fanatisme et l’hubris démontrés par le “ministre de la Guerre” de Trump, l’ancien présentateur de FoxNews Peter Hegseth. Mais le simple recours à l’IA par les décideurs militaires en situation de crise pourrait accroitre le risque qu’ils prennent des décisions inconsidérées, par foi aveugle dans un outil mal configuré ou en conséquence de l’influence négative de ce dernier.

Anthropic vs OpenAI

Dans ce contexte, Anthropic a certainement eu raison de tenir tête au Pentagone. Non seulement pour des questions morales et éthiques, mais également du point de vue de son intérêt commercial. Apparaitre comme l’IA responsable alors qu’OpenAI signe un accord avec Trump semble un calcul financièrement cohérent.

Rappelons que l’IA générative est un secteur non rentable, qui accumule les pertes financières pour des raisons structurelles, que nous avions détaillées précédemment.

En se positionnant comme un acteur responsable, Anthropic peut prendre des parts de marché à OpenAI sur le segment grand public, améliorer son image auprès des entreprises et attirer plus facilement les employés les plus talentueux dans ses laboratoires de recherche.

Mais la posture d’Anthropic doit être analysée comme de l’opportunisme. La société travail depuis longtemps avec l’armée américaine, en dépit des prétendues inquiétudes de sa direction. Le PDG Dario Amodei abreuve fréquemment la presse de prédictions et déclarations apocalyptiques au sujet de l’IA, tout en refusant d’en tirer les conséquences logiques (arrêter de produire ces IA, ne pas collaborer avec l’armée et militer pour une autre approche industrielle vis-à-vis de ces systèmes, par exemple).

Abonnez-vous maintenant

Ironiquement, le clash d’Amodei avec l’administration Trump semble avoir conduit cette dernière à se venger d’Anthropic en fuitant à la presse des informations particulièrement détaillées sur l’implication des programmes basés sur Claude et utilisés pour planifier et gérer l’attaque américaine contre l’Iran. La rupture n’étant pas immédiate, le Pentagone avait vraisemblablement le droit de continuer à se servir des outils d’Anthropic, bien que le timing de la dispute, survenue quelques jours avant l’entrée en guerre des États-Unis, explique probablement pourquoi ce bras de fer semblait se dérouler de manière précipitée.

À l’arrivée, Anthropic se retrouve perdant des deux côtés : la firme risque d’être privée de ses contrats avec le ministère de la Défense, tout en voyant sa réputation endommagée par son implication dans les massacres en cours en Iran.

C’est peut-être pour tenter de sauver ses billes que la start-up a tenté un rétropédalage en publiant un communiqué qui semble avoir été écrit sous la menace d’un preneur d’otage. On peut y lire qu’Anthropic, accusé par l’administration Trump de mettre en danger les vies des soldats américains en plein conflit armé, est “particulièrement fier d’aider les combattants en première ligne avec nos outils”. Amodei insiste sur le fait qu’Anthropic “a bien plus en commun avec le ministère de la guerre qu’il n’a de désaccords” . Autrement dit, Anthropic assume pleinement de fournir des armes à un gouvernement qui commet des crimes de guerre et compte continuer “aussi longtemps que possible ou nécessaire” cette collaboration. Ceux qui s’imaginaient qu’il y avait de bonnes et de mauvaises entreprises d’IA en seront pour leurs frais.

Au-delà de l’IA, Big Tech vs Low Tech ?

Comme je l’écrivais dans mon article sur la guerre contre l’Iran, le conflit nourrit les intérêts de la Silicon Valley. Il pourrait affaiblir la Chine, notamment en réduisant au silence son allié iranien tout en mettant en péril son approvisionnement en pétrole. Mais cette guerre est aussi le théâtre d’un déploiement accru de technologies.

Côté iranien, on voit à quel point l’approche “low tech” reposant sur des drones bon marché et des missiles à longue portée permet de perturber significativement l’économie et la stabilité d’une région entière du monde. Ce qui risque de pousser de nombreux acteurs à investir dans des systèmes de défense susceptibles de contrer ce nouveau type de menaces. Le fait que des États en crise économique permanente et sous embargo depuis des années puissent développer des systèmes capables de menacer l’économie mondiale et de conduire des frappes de grandes précisions contre des chambres d’hôtel, bâtiments de la CIA et infrastructures militaires montre également le danger représenté par la guerre asymétrique.

M'offrir un café

Côté israélo-américain, on assiste à un nouvel éventail de prouesses technologiques, notamment en termes de renseignement et de guerre cybernétique.

On a ainsi appris que l’assassinat de Khamenei et de nombreux dirigeants civils iraniens dans l’opération initiale visant à décapiter le régime avait été rendu possible par la collecte d’une quantité délirante d’informations, analysées en temps réel par des systèmes intégrant des programmes d’IA dernier cri. Entre autres, Israël avait piraté le système de vidéo surveillance de la sécurité routière de Téhéran et utilisé l’IA pour traquer les allées et venues des gardes et employés des dirigeants iraniens.

Le piratage de systèmes civils à des fins militaires, dans le but de commettre des crimes de guerre, ne semble pas poser problème aux médias et observateurs occidentaux. La normalisation de telles pratiques, devenues fréquentes, pointe le risque posé par le déploiement de ces technologies de vidéosurveillance sur les populations que ces systèmes sont censés protéger.

Parier en ligne sur la fin du monde

Notre passage en revue des aspects technologiques du massacre en cours en Iran et au Liban ne saurait être complet sans la mention d’un nouveau phénomène inquiétant. L’émergence d’une industrie du pari en ligne via les plateformes non régulées comme Polymarket et Kalshi fait peser un nouveau risque géopolitique et sécuritaire. Il est désormais possible de miser sur la détonation d’une arme nucléaire d’ici une certaine date ou de parier sur le bombardement de personnalités ou infrastructures spécifiques. Or, une partie des cadres de la Maison-Blanche impliqués dans ce genre de décisions sont des habitués de ce genre de sites, donc potentiellement susceptibles de commettre des délits d’initiés en étant incités à prendre des décisions faisant l’objet de paris en ligne. On a ainsi répertorié des paris suspects placés quelques heures avant l’enlèvement de Maduro ou l’assassinat de Khamenei.

Image de la destruction de la raffinerie de Téhéran qui, avec le bombardement d’une trentaine de dépots pétroliers, a plongé la ville de 12 millions d’habitants dans une nuit sans fin, via Bluseky / Drope site.

Le lien avec la Silicon Valley est bien plus sérieux qu’on pourrait l’imaginer. Ces sites utilisent les cryptomonnaies comme moyen de paiement et autorisent l’anonymat des parieurs. Suite à la dépression du secteur des cryptomonnaies, de nombreux acteurs de cette industrie se tournent vers le secteur des paris en ligne non régulés. Les investissements ne se limitent vraisemblablement pas à prendre des parts dans ces entreprises et à financer des campagnes de publicité, mais prennent également la forme de campagne de lobbying pour empêcher les régulateurs d’encadrer ce business particulièrement lucratif.

Et tant pis si cela encourage un responsable à déclencher une frappe nucléaire suite à la recommandation d’une IA mal “alignée”.


Merci de lire “Fake Tech” ! Pour soutenir cette publication, vous pouvez m’offrir un café ici ou vous abonnez là :

1

Une semaine plus tard, le Croissant Rouge avait identifié une dizaine d’autres écoles frappées par Israël et les États-Unis et un nombre équivalent de cliniques et hôpitaux, des gymnases et stades, aéroports civils et usines de production d’eau potable et infrastructures pétrolières…

PDF

13.02.2026 à 07:25

La Silicon Valley noyée dans l'affaire Epstein

Christophe @PoliticoboyTX

Liens financiers, idéologiques, relationnels, politiques, potentiellement criminels... comment et pourquoi Epstein s'était rapproché des grands noms de la Tech.
Texte intégral (7322 mots)

Bonjour à tous ! Ce début d’année est pour le moins sombre et agité, ce qui rend l’écriture d’autant plus difficile qu’il existe de nombreux sujets d’actualité méritant un éclairage technocritique.

L’attaque sanglante des États-Unis contre le Vénézuéla, suivie de la tentative d’annexion du Groenland et la présentation d’un “master plan” au forum de Davos pour transformer Gaza en une “riviera” sans les Palestiniens peuvent s’analyser sous le prisme du projet de network state des technofascistes gravitant autour de Trump. De même, les meurtres commis par la police de l’immigration américaine (ICE) impliquent les géants de la Tech à de multiples niveaux. Pendant que Google, Apple, Facebook et le nouveau TikTok censurent les opposants à ses rafles et combattent les initiatives citoyennes de défense civile, Palantir fournit l’infrastructure de surveillance numérique permettant d’organiser les raids. Malgré les erreurs tragiques commises par ces systèmes, la ICE veut utiliser les données commerciales collectées par les géants du numérique pour traquer les individus qu’elle souhaite interpeler. Autrement dit, la dystopie redoutée par ceux qui critiquent la collecte des données personnelles est déjà là.

Partager

Il serait également intéressant de revenir sur les récentes annonces autour de la bulle de l’IA. Le fait qu’OpenAI cherche à nouveau des investisseurs et assume l’arrivée de l’érotisme et de la publicité sur ChatGPT témoigne des difficultés de l’entreprise à construire un modèle économique rentable, alors qu’un nombre croissant de leaders du secteur admettent publiquement que l’approche suivie pour développer les IA génératives ne permettra pas de mettre au point des IA “générales” ou super-humaines. Le rachat de xAI, autre entreprise qui perd des sommes record, par SpaceX, société dont Musk prépare l’entrée en bourse en dépit d’un modèle économique tout aussi questionnable, semble masquer une tentative désespérée d’injection de cash dans xAI. À ce propos, les délires sur la mise en orbite de data centers constituent un nouvel exemple de Fake Tech destinée à justifier la poursuite du développement inconsidéré des data centers ici, tout en permettant d’exciter les investisseurs avant l’introduction en bourse de SpaceX. Musk apparait plus que jamais embarqué dans la construction d’une gigantesque pyramide de Ponzi reposant sur la hype pour gonfler artificiellement les cours boursiers dont dépendent sa fortune et son pouvoir.

Enfin, la loi visant à interdire les réseaux sociaux aux mineurs de moins de 15 ans en France mériterait d’être abordée. Pour ma part, je serais favorable à la socialisation de ses plateformes, qui deviendraient la propriété des usagers et employés, et seraient gérées sur le principe des communs ou de coopératives à but non lucratif. Vu qu’on en est loin, l’interdiction pure et simple (à tout le monde, pour le coup) me parait défendable. Je ne suis pas convaincu par les arguments selon lesquels les avantages des réseaux sociaux (espace de liberté, source de diffusion d’information pour les médias indépendants, outil de mobilisation pour les luttes et les révolutions, outil de lien social) dépasseraient les inconvénients (plateformes dans les mains de milliardaires fascistes qui cherchent à nous rendre addicted pour voler nos données afin de mieux nous cibler avec de la publicité et permettre aux gouvernements de poursuivre leurs opposants ; problèmes sociaux, mentaux et psychologiques chez les enfants et les adultes; empreinte écologique, etc.). Des travaux ont démontré que les réseaux sociaux ont un impact négatif sur les mouvements contestataires et les révolutions. Si certains débutent via les RS, ou prennent de l’ampleur grâce à eux, ils sont également fréquemment affaiblis ou déjoués grâce aux réseaux sociaux par les gouvernements. L’autre faiblesse des mouvements spontanés partant des réseaux sociaux tient dans leur manque de structuration, ce qui les rend faciles à dégonfler une fois le choc initial passé.

Or, comme le rappelait très bien la patronne de la messagerie chiffrée Signal (société à but non lucratif) dans les matins de France Culture, les entreprises capitalistes ont une obligation légale de servir les intérêts financiers de leurs actionnaires, pas de s’opposer aux gouvernements autoritaires. Mais si l’interdiction totale des réseaux sociaux est inenvisageable (à part certains comme X, lorsqu’ils se transforment en machine à produire des contenus pédophiles), les interdire aux enfants pourrait sembler une bonne idée. Le problème tient dans les moyens mis en œuvre pour y parvenir : la proposition de loi française implique la fin de l’anonymat sur internet et la collecte de nos informations (pièce d’identité, images pour reconnaissance faciale, etc.) par des entreprises privées fréquemment sujettes à des fuites de données. Tout en n’empêchant pas les multiples moyens de contournements possibles. À ce titre, je vous renvoie à la série de notre camarade Huber Guillaud, ainsi qu’à l’article des amis de Frustration Magazine.

Bref, ce ne sont pas les sujets à traiter qui manquent, comme le montre le dernier numéro de l’excellente newsletter Synth. C’est pourquoi j’ai choisi de me concentrer sur un autre dossier dont vous avez surement entendu parler : l’affaire Epstein.

Les 3.5 millions de pages récemment publiées contiennent une densité d’information si vaste que le sujet mériterait une série d’articles. Pour éviter de trop m’écarter du thème de cette newsletter, je vous propose un résumé des enseignements de l’affaire, avant de creuser les liens entre Epstein et la Silicon Valley. Non content d’être un instrument du Mossad et un allié du trumpisme, le pédocriminel était un technofasciste pur souche, comme nous allons le voir.

1. Ce qu’il faut retenir de l’affaire Epstein

Si vous ne connaissez pas l’affaire Epstein, je vous suggère de lire mon dernier article pour le média Frustration. En résumé :

Jeffrey Epstein était un homme d’affaires américain au patrimoine estimé à plus de 500 millions de dollars. Sa fortune a majoritairement été obtenue illégalement, en arnaquant ses propres clients via des pyramides de Ponzi et vols purs et simples. Il a été retrouvé mort dans sa cellule quatre semaines après son inculpation pour trafic de mineurs. Il était suspecté d’avoir organisé un réseau pédophile d’esclaves sexuelles dont il faisait profiter une partie de son très large cercle de fréquentation. Epstein disposait de caméras dans ses résidences, ce qui laisse croire qu’il détenait des vidéos compromettantes. Le FBI a identifié plus de 1000 victimes, dont un grand nombre de mineurs. Il serait question de filles de 12 à 17 ans, de viols, sévices, séquestrations, menace de mort et harcèlement de témoins, voire de meurtre. Epstein a été condamné une première fois en 2008, mais avait passé un accord secret avec le procureur général pour plaider coupable de fait mineurs qui lui valurent une courte peine de prison aménagée. En 2018, le Miami Herald publie une enquête édifiante et un juge fédéral nullifie l’accord de plaider coupable, qui enfreignait le droit des victimes. L’affaire devient éminemment politique, du fait des potentiels complices et clients d’Epstein et des liens de ce dernier avec Bill Clinton et Donald Trump. Ironiquement, c’est l’instrumentalisation de l’affaire par les soutiens et militants de Trump qui a fini par contraindre ce dernier à accepter de rendre le dossier de l’enquête du FBI public. Plus exactement, les démocrates ont présenté une loi au Congrès, voté à contrecœur par les républicains, pour forcer le ministère de la Justice à publier ces documents.

Que retenir des millions de pages rendues publiques ? Sur la forme d’abord, je tiens à noter :

  • Tous les documents du dossier Epstein n’ont pas encore été publiés. Entre autres, les vidéos et photos les plus crues n’ont pas été rendues publiques, en théorie pour protéger les victimes.

  • Les documents publiés ont été caviardés par le ministère de la Justice de Trump, mais au lieu de noircir certains passages pour protéger les victimes (comme l’exigeait la loi votée au Congrès en octobre), ce sont souvent les complices et criminels potentiels qui ont été protégés.

  • Ces documents n’auraient jamais dû être rendus publics. Il a fallu l’incompétence de Trump et les obsessions de ses alliés pour provoquer la situation rendant politiquement impossible au Parti républicain de bloquer leur publication.

  • Le FBI et le ministère de la Justice américaine ont, depuis 1996, protégé Epstein et ses fréquentations au lieu de protéger les victimes et la société. Et ce, quel que soit le parti au pouvoir.

  • Le fait que l’administration Biden n’ait pas elle-même rendu public ce dossier en dit long sur l’incompétence politique du parti démocrate (ou sa propre corruption, préférant éviter d’embarrasser des alliés que de vaincre le trumpisme).

  • Les médias français et américains tentent majoritairement de minimiser l’affaire, lorsqu’ils ne se plaignent pas du “poison complotiste” distillé par la publication”brute” des documents.

Cela étant posé, que retenir du contenu des dossiers ?

  • Epstein n’a pas agi seul, il y a au moins 10 complices identifiés par le FBI.

  • Epstein faisait bien profiter une partie de ses contacts des filles qu’il séquestrait pour les abuser sexuellement, si on en croit sa correspondance.

  • Les crimes pédophiles semblent bien plus graves que précédemment imaginés. Certains enfants seraient morts des suites de sévices sexuels, à en croire certains éléments contenus dans le dossier.

  • Au-delà de la pédocriminalité, Epstein agissait comme intermédiaire dans de nombreux cercles politiques et milieux d’affaires, aidant à organiser des négociations et tractations en mettant en contact certaines personnes ou en organisant des rencontres, versements, faveurs et renvois d’ascenseur.

  • Epstein était un agent secret d’Israël (ou, au minimum, un informateur et allié).

  • Il s’était rapproché de Steve Bannon, l’éminence grise du mouvement MAGA pro-Trump.

  • Trump avait des liens bien plus étroits et fréquents avec Epstein que précédemment rapportés par la presse.

  • Des dirigeants français sont impliqués dans le dossier Epstein, dont Jack Lang et, potentiellement, Bruno Lemaire, BHL et des collaborateurs d’Emmanuel Macron et de Nicolas Sarkozy.

En résumé, on retiendra tout d’abord la spectaculaire tolérance de la classe bourgeoise dominante pour les violences et crimes sexuels. Après 2008, toutes les personnes fréquentant Epstein étaient nécessairement au courant des accusations portées contre lui. Certains ont continué à le fréquenter, y compris après 2018 et les révélations explosives de la presse.

Ensuite, le fonctionnement de cette classe, qui a produit la monstruosité Epstein puis l’a utilisée aussi bien pour son plaisir que pour les affaires. Tous les bords politiques sont touchés. Les fichiers font état d’une véritable mafia fonctionnant sur le principe de renvoi d’ascenseurs dans l’unique but d’acquérir plus de richesse et de pouvoir personnel.

Le fait qu’Epstein disposait de caméras dans toutes les pièces de ses résidences et qu’il entretenait des liens étroits avec les services secrets israéliens agite le spectre d’une compromission de Trump. Ce dernier serait susceptible de faire l’objet de chantage, à en croire la presse indépendante américaine. Les fichiers révèlent de nombreux comportements illégaux (vente de secrets d’affaires ou d’État, partage d’informations sensibles, tentatives d’ingérence dans des élections, de déstabilisation d’institutions démocratiques…). Mais pour des raisons évidentes, les questions de ce genre ne sont pas reprises par les grands médias états-uniens. Fin novembre, le New York Times titrait “Les emails d’Epstein révèlent une élite d’une autre époque” en expliquant sérieusement “le financier évoluait dans des cercles qui n’existent plus”. Le journal Le Monde parlait, lui, de “poison” à propos des révélations, pas de leur contenu. Sur FranceInter, la journaliste Sonia Devilers a carrément fait le procès de Fabrice Arfi (Médiapart), l’accusant d’attiser le complotisme en s’intéressant à l’affaire Epstein. À croire que la presse bourgeoise n’aime pas que l’on étale sur la place publique les crimes de ses plus célèbres représentants.

Voilà pour le survol de l’affaire. Je vous recommande notre article coécrit avec Nicolas Framont pour explorer les liens et compromissions spécifiques à la France. Et pour la Silicon Valley et les aspects proprement technofascistes du projet Epstein, ça se passe ici :

2. Epstein et les géants de la Tech : liaisons dangereuses

La plupart des grands noms de la Tech sont cités dans le dossier Epstein. Certains semblaient étroitement liés au pédocriminel, comme Bill Gates (son ex-femme a confirmé que ses liens ont joué dans son divorce). D’autres se seraient retrouvés sur son ile, dans une de ses résidences, ont participé à des diners en sa présence ou échangeaient par courriel avec lui. Y compris après sa première condamnation de 2008. C’est le cas des cofondateurs de Google Larry Page et Sergey Brin, du PDG de Meta Marc Zuckerberg, de Jeff Bezos, du patron de LinkedIn Reid Hoffman et d’Elon Musk.

Ce dernier voit sa réputation de nouveau abimée par le dossier Epstein. Les courriels rendus publics contiennent des échanges où il tente de s’inviter chez le pédocriminel en demandant quelles dates lui garantiraient les soirées les plus “déjantées”. Ces discussions n’auraient pas abouti à des rencontres, mais ne montrent pas Musk sous son meilleur jour. Il est également question de la venue d’Epstein aux bureaux de SpaceX et de filles présentées par Epstein à son frère et partenaire en affaire Kimbal Musk, entre autres messages peu reluisants.

Les liens entre patrons de la Tech et Epstein sont anciens. Le pédophile finançait le EDGE, un réseau de discussion et d’échange informel entre gros patrons de la Tech, piloté par le MediaLab du MIT. Dès 1999, il participe aux diners annuels du EDGE, ou se rend la plupart des fondateurs des GAFAM (cf. l’excellente série d’articles de Byline Times). Via ce véhicule, Epstein se rapproche de la Silicon Valley et finance diverses start up. Sa condamnation de 2008 ne le coupe pas de cet univers, au contraire. En 2011, les grands noms de la Tech sont de nouveau présents à un diner annuel du EDGE où figure le trafiquant d’être humain. Ils participent également à la mailing liste du groupe, dont Epstein devient le principal financier, avec des dons dépassant les 600 000 dollars (soit plus de 80% du budget total de ce réseau).

Epstein va également financer d’autres forums et initiatives, dont le MediaLab du MIT, un groupe de recherche de Harvard, et plusieurs organisations créées par des chercheurs proches de la Tech, à hauteur de centaines de milliers de dollars via des dons philanthropiques.

3. Technofascisme à la sauce Epstein

Epstein a-t-il participé à la radicalisation de la Tech ou bien s’est-il simplement trouvé en adéquation avec cet univers ? Via le EDGE, le pédocriminel rencontre divers individus proférant des vues associées au courant technofasciste. Dont le fameux Nick Bostrom.

Ce philosophe transhumaniste est considéré comme le père du Long termisme, une idéologie qui stipule qu’il peut être acceptable de sacrifier 1 milliard d’êtres humains maintenant pour permettre à des milliards de milliards d’êtres humains d’exister dans des ordinateurs dérivant dans l’Espace d’ici quelques millénaires. Bolstrom avait partagé des vues profondément racistes dans un courriel datant des années 1990. Il rejoint le EDGE en 2009. En 2018, il crée sa fondation transhumaniste human+, qu’Esptein finance à hauteur de 120 000 dollars la première année. De quoi payer le salaire du vice-président Ben Goertzel, un spécialiste de l’IA qui a joué un rôle important dans la définition du terme “AGI” (IA générale) et de la promotion de la quête de la singularité (création d’une IA supra-humaine toute puissante).

Le pédocriminel a également entretenu des liens particulièrement étroits avec Joscha Bach. Philosophe et théoricien de l’IA, professeur à Harvard et au MIT. Ce penseur, particulièrement influent dans le milieu de la recherche en intelligence artificielle, estimait que l’épuration ethnique par la crise climatique était “peut-être un mal nécessaire”. Comme le confirme une chaine de courriels échangés avec Epstein, Bach entretenait des vues eugénistes, racistes et sexistes. Pour lui, les noirs sont génétiquement inférieurs aux blancs sur le plan intellectuel, tout comme les femmes, du fait de l’évolution. Des idées démenties par la science, mais communément admises au sein de la Silicon Valley. Epstein n’aurait pas été étranger à leur diffusion, puisqu’il a financé leurs principaux théoriciens.

Lui-même témoignait d’un racisme et d’un sexisme qui se reflète jusque dans ses propres crimes. Or, le pédocriminel agissait activement pour façonner le monde en fonction de cette vision. Que ce soit en finançant l’armée d’occupation israélienne, en servant d’agent au Mossad, en traitant avec la Russie, en finançant les colonies israéliennes illégales ou, plus discrètement, en œuvrant à la création d’une internationale fasciste par le prisme de la technologie.

Image

Peter Thiel, le patron de Palantir et capital-risqueur ultra-influant, occupe une place à part dans le dossier Epstein. Il semble échanger fréquemment avec le pédocriminel, en particulier autour des années 2014-2016. Epstein a investi dans un de ses fonds en capital-risque à hauteur de 40 millions de dollars et a joué un rôle déterminant dans l’adoption des logiciels de surveillance et de répression de Palantir par divers gouvernements et institutions, dont Israël et certains alliés de l’état hébreu.

Les liens ne sont pas uniquement financiers. Dans un mail à Thiel, Epstein semble se vanter de son rôle dans le Brexit et expose ses projets de renversement de l’ordre mondial néolibéral fondé sur la démocratie, la mondialisation et le droit international :

Pour Epstein, l’effondrement des démocraties et l’apparition de “failed states” à la place de dictatures clientes des USA est une opportunité pour faire des affaires. Et la lecture du dossier Epstein suggère qu’il déployait toute son influence vers ce but. Ce qui explique son rapprochement avec Steve Bannon, Peter Thiel et le mouvement “MAGA”.

Le projet décrit par Epstein ressemble à s’y méprendre à celui des technofascistes libertariens dont Peter Thiel constitue le représentant le plus connu. Comme maintes fois documenté, ce courant souhaite provoquer l’effondrement des démocraties libérales et affaiblir l’État pour permettre l’émergence d’un network state. Ces cités-États indépendantes et autonomes, gérées par des Roi-PDG élus par des actionnaires-citoyens sur le principe “un dollar égal une voix”.

4. Esptein, le bitcoin, 4chan et l’internationale fasciste

Epstein était un grand utilisateur et promoteur des cryptomonnaies, à la fois comme outil pour ses crimes et comme projet politique s’inscrivant dans sa vision d’un monde post-démocratique, comme le rapporte le journaliste Ryan Broderick. Pour le pédocriminel, le Bitcoin représentait un outil de subversion de la finance globalisée au service des élites.

Les courriels révèlent ainsi qu’Epstein a joué un rôle significatif dans le sauvetage du Bitcoin, en 2015, lorsque le protocole était menacé par des conflits au sein de l’équipe de programmeurs en charge du maintien du code source. L’argent et le réseau du pédocriminel ont permis à la cryptomonnaie de s’épanouir, tout en infiltrant les cercles de pouvoir et les institutions financières.

Epstein entretenait également des liens étroits avec Brock Pierce, cofondateur du Tether, un stablecoin (crypto-actif dont la valeur est adossée au dollar) qui sert de liquidité dans la sphère financière des cryptos. Epstein avait profité de ses liens pour investir tôt dans la plateforme de courtage en ligne Coinbase, à hauteur d’un million de dollars.

Plus effrayant, Epstein aurait également joué un rôle non négligeable dans la constitution d’une forme d’internationale fasciste. Non seulement par ses tentatives (réelles ou fantasmées) d’ingérence électorale et de soutien aux politiciens d’extrême droite européens, mais, également en participant aux efforts de radicalisation d’une génération de jeunes hommes via les forums en ligne, le jeu vidéo et la subculture procryptomonnaies. En particulier, il semblerait qu’Epstein soit lié à la mutation du forum de discussion 4chan, devenu la plaque tournante du complotisme d’extrême droite, de l’activisme et du masculinisme fascisant. Epstein a déployé des efforts importants pour rencontrer le gérant du site, qui aurait rouvert la partie du forum dédié à la politique suite à sa rencontre avec Epstein, et ainsi permis la radicalisation du forum. C’est là qu’a pris corps la théorie complotiste et véritable mouvement politique Qanon. Ironiquement, ce mouvement prétendant que le monde était dominé par une cabale de pédophiles satanistes affiliés au parti démocrate a été alimenté par l’affaire Epstein.

Or, QAnon a servi de carburant au saccage du Capitole et à la tentative de coup d’État de Donald Trump, comme en témoigne la photo du fameux “Chaman QAnon” hurlant depuis le Congrès des États-Unis suite à l’interruption de la procédure de certification des élections.

Il est tout à fait possible que Jeffrey Epstein n’ait joué aucun rôle significatif dans l’émergence de ces mouvances d’extrême droite, bien qu’il semble avoir financé divers influenceurs (y comprit un Youtubeur francophone) et a certainement essayé de peser sur ces tendances. Quelle que soit la portée de son ingérence, on ne peut que constater les liens étroits qui existent entre ses propres desseins et ceux des élites de la Tech.

Epstein partageait les vues eugénistes et racistes repeintes au sein de la Silicon Valley. Lui-même parlait de se cloner et de répandre son ADN en enfantant une progéniture à l’aide de mères porteuses. Des ressemblances troublantes avec un certain Elon Musk…

Partager

Sa correspondance lugubre ne se limite pas à des délires couchés sur courrier électronique. Comme l’a retracé le site d’investigation Dropsite.news, Epstein a également déployé des efforts considérables pour mettre en relation diverses équipes de recherche spécialisées dans le décodage du génome et les thérapies géniques, tout en essayant de recruter des spécialistes de la cryptographie et du hacking liés à diverses agences de renseignement. Le tout dans le but de les mettre en relation pour craquer le code génétique à des fins eugénistes et transhumanistes, en écho aux obsessions des barons de la Silicon Valley…

Quels que fussent les effets de ses efforts, une chose reste certaine. Les élites de la Tech n’ont pas rejeté Epstein. Elles ont entretenu avec lui des liens aussi étroits que “naturels”. Et ce, malgré les crimes épouvantables pour lesquels il avait déjà été inculpé.


Merci de lire cette publication ! Pour soutenir mon travail, abonnez-vous gratuitement et offrez-moi un café (ici)

PDF

16.01.2026 à 09:49

Le Grok Paradoxe

Christophe @PoliticoboyTX

L'IA générative n'en finit plus de décevoir, et celle d'Elon Musk montre à quel point nous vivons en plein paradoxe dystopique. Reste à savoir s'il est possible d'en sortir...
Texte intégral (4374 mots)

Grok est un néologisme inventé par l’auteur de science-fiction américain Robert Heinlen pour son roman “En terre étrangère”. Le livre raconte le retour sur Terre d’un humain ayant été élevé par les Martiens. Dans l’histoire, le terme “grok” est issu de la langue martienne. L’Oxford English Dictionary explique qu’il signifie « comprendre intuitivement ou par empathie, établir un rapport avec ».

Malgré sa consonance désagréable, Elon Musk a retenu ce terme pour nommer le chatbot produit par xAI, son entreprise d’Intelligence artificielle. Grok a été lancé comme un produit intégré au réseau social X (anciennement Twitter) et comme application séparée, destinée à concurrencer ChatGPT et les autres programmes d’IA générative. Comme pour ses concurrents, il existe différentes versions (gratuite, abonnement pro à 29.99 dollars/mois et “super heavy” à 299 dollars/ mois).

On peut comprendre pourquoi les ingénieurs de xAI ont suggéré ce nom à Musk. Le patron de Tesla aime la SF, est obsédé par Mars et possède un sens de l’humour “particulier”. De plus, les chatbots comme ChatGPT sont configurés pour “comprendre intuitivement” “établir un rapport avec” les utilisateurs et faire preuve d’empathie.

Grok : IA raciste, antisémite et toxique

Premier paradoxe : Grok n’est pas emphatique. Depuis son lancement, Musk a insisté pour que son IA soit plus permissive et moins “woke”. Cela peut se défendre si l’on part du principe que le “wokisme” est une idéologie dangereuse (un “virus” qui menacerait l’humanité, selon le patron de Tesla). Mais “woke” veut simplement dire “conscient des discriminations” et du caractère systémique de ces dernières. ChatGPT et ses concurrents ont été programmés pour être plus “woke” que le corpus de données utilisé pour les entrainer, précisément parce que sans cette couche supplémentaire de sécurité, GPT régurgitait fréquemment des horreurs racistes, antisémites, eugénistes, homophobes et sexistes.

Malgré ces précautions, de nombreuses études ont démontré que les IA génératives comme ChatGPT reproduisaient et amplifiaient les stéréotypes et biais présents dans la société (et les discriminations qui vont avec). Musk est allé un cran plus loin en supprimant une partie des verrous et dispositifs de sécurité de son chatbot. Ce qui a donné lieu à de nombreux dérapages largement documentés (propos négationnistes et racistes tenus par Grok, y compris tenus “publiquement” via le système de réponse postée sur le réseau social X). Grok 4.0 s’est ainsi auto-présenté comme “mechaHitler”. Aux innombrables défauts inhérents aux IA génératives, dont leur capacité à influencer l’opinion des utilisateurs via les biais du programme, Grok ajoute ceux de son patron.

Elon Musk controversy salute gesture at Donald Trump rally photo
Musk en pleine démonstration d’empathie

Parfois, avec un effet comique non désiré. Grok avait été mis à jour pour répondre positivement à toute question concernant Elon Musk. L’IA expliquait que le milliardaire était le meilleur programmeur au monde et le meilleur joueur de baseball, mais aussi que personne ne buvait aussi bien de l’urine qu’Elon Musk.

Plus souvent, les résultats n’ont rien d’amusant. Les réponses de Grok sont fréquemment recalibrées pour s’aligner sur les opinions de son chef, que ce soit pour promouvoir l’attaque américaine contre le Vénézuéla, des théories conspirationnistes fumeuses ou encourager le climato-scepticisme.

Les efforts d’Elon Musk pour faire de son réseau social un paradis pour racistes et un outil de propagande ont été longuement documentés. Les propres prises de position de Musk sur X témoignent d’une volonté de désinformer le public pour le manipuler (ou font état d’un racisme et d’une ignorance invraisemblable, au choix). La France a ouvert une procédure judiciaire pour ingérence. Et le lancement de Grokipedia, sorte d’encyclopédie en ligne censée concurrencer Wikipédia, a montré l’étendue des penchants racistes de l’entreprise xAI.

Partager

Dans un autre registre, Grok a été entrainé via Collosus, un “super calculateur” construit à la hâte et au mépris de toute norme environnementale. Pour fournir la puissance électrique nécessaire à l’alimentation des centaines de milliers de processeurs NVDIA qui le composent, xAI a utilisé des turbines à gaz portatives dont l’empreinte carbone désastreuse s’accompagne d’une forte émission de polluants qui empoisonnent les habitants de la région.

Malgré tous ces problèmes, les grands de ce monde continuent d’utiliser X (Twitter) et de dérouler le tapis rouge à Elon Musk. xAI vient de lever 20 milliards de dollars de capitaux lors de son dernier round de financement, soit 5 milliards de plus qu’espéré. Une part non négligeable provient de la firme NVDIA, ce qui fournit une nouvelle illustration de la circularité du financement de l'IA générative. Ces acteurs n’ont pas hésité à mettre la main au portefeuille, malgré l’irruption d’une nouvelle polémique majeure.

Grok, IA pornographique et pédophile

L’IA inclut un générateur d’image permettant de réaliser des DeepFake (faux contenus numériques conçus pour paraitre réels). Aux vidéos controversées s’est ajoutée, depuis le début de l’année, une fonctionnalité permettant de déshabiller des personnes réelles à partir d’une photo. L’IA produit une autre version de l’image où la personne est nue, en sous-vêtements ou maillot de bain et dans diverses poses suggestives ou situations dégradantes (y compris incluant des blessures corporelles). Grok accepte même de leur apposer des croix gammées et autres symboles pronazis sur la peau.

Ces images dégradantes sont diffusées publiquement et peuvent cibler des enfants. Face au tollé provoqué par cette option, xAI a rétropédalé en rendant uniquement accessible cette fonctionnalité aux abonnés payants, puis en la supprimant du réseau social X.

Partager Fake Tech

Non seulement cela démontre une volonté de monétiser l’exploitation sexuelle des femmes et des mineurs (Grok a déshabillé virtuellement des enfants de 4 ans en les recouvrant d’un liquide évoquant du sperme) tout en encourageant les comportements illégaux, mais le fameux “paywall” fonctionne mal et serait facile à contourner. Derrière l’apparente bonne volonté de xAI se cache une monumentale hypocrisie. Musk refuse de reconnaitre ses torts et de censurer son IA, malgré le scandale qu’elle provoque.

D’où ce paradoxe supplémentaire. La dérive technofasciste d’Elon Musk a commencé à devenir visible lorsque le patron de Tesla avait traité un secouriste britannique de pédophile via Twitter. Nous étions en 2018, des enfants se trouvaient bloqués dans une grotte thaïlandaise à la suite d’une visite spéléologique ayant mal tourné. Musk avait proposé une solution absurde pour les sauver. Le secouriste avait expliqué que cette solution technologique ne fonctionnerait pas et que le patron de Tesla ne connaissait rien au problème. Le milliardaire n’avait pas supporté que son image de génie visionnaire patiemment construite soit ainsi exposée pour la fraude qu’elle a toujours été. Il avait répliqué en traitant le secouriste de “pédo”.

Huit ans plus tard, Musk met au point une IA pédophile pour espérer combler les pertes financières d’xAI, évaluées à 1,5 milliard de dollars par trimestre. Il faut dire que malgré le nombre d’utilisateurs importants induit par son intégration gratuite à Twitter (enfin, X, décidément), Grok ne rapporte pas grand-chose à xAI. Le marché grand public est saturé de modèles concurrents bien souvent supérieurs. Et aucune grande entreprise d’envergure n’a souscrit aux offres professionnelles. Ce qui peut se comprendre : quelle organisation serait prête à compromettre son image en travaillant avec un outil s’autoproclamant « MechaHitler » et produisant du contenu pédophile à la pelle ?

Grok, l’IA au service de l’administration Trump et du Pentagone

Elon Musk a longtemps critiqué le gouvernement comme étant un acteur bridant l’innovation, conformément à l’idéologie libertarienne. Cette position était déjà en porte à faux avec le fait que le milliardaire doit tout au gouvernement américain. Rappelons qu’il a fait fortune grâce à deux start-up reposant entièrement sur Internet (invention issue de la recherche publique). Fortune qui a ensuite été sauvée par les contrats de la NASA avec SpaceX, les subventions de l’état californien au bénéfice de Tesla et le prêt fédéral de l’administration Obama. Considérer la main qui vous nourrit comme la source de vos problèmes peut paraitre hypocrite.

Mais Grok rajoute une couche à ce paradoxe. Alors que l’IA est clairement moins performante que ses concurrents, le gouvernement de Trump s’empresse de l’intégrer à de nombreuses administrations, dont le ministère de la Défense (tout juste renommé ministère de la Guerre, je vous rappelle que nous vivons en pleine dystopie techno-trumpienne).

Ce rapprochement s’inscrit dans un mouvement plus vaste de la Tech californienne et des entreprises travaillant sur l’IA. Après avoir longtemps proclamé que leurs outils ne devaient pas être utilisés à des fins militaires, elles ont cédé aux sirènes des gros contrats publics et des partenariats privés avec l’industrie de l’armement.

OpenAI, qui produit ChatGPT, s’était donné pour mission de mettre au point une IA bénéficiant à l’ensemble de l’humanité. Elle vient de signer un contrat avec Palantir, la société de gestion de données à usage de la surveillance, de l’armée et de la Police, dont le PDG a récemment expliqué que son entreprise était engagée dans une croisade impérialiste. Et que cela passait par le fait de “faire peur à nos ennemis et parfois les tuer”.

Enfin des signes de résistance ?

Dernier paradoxe. C’est du gouvernement habituellement le plus servile envers les intérêts américains et la Tech californienne qu’est venue la plus forte réaction. La Grande-Bretagne lance une enquête contre xAI et parle désormais de faire interdire le réseau social X sur son territoire. La France a également engagé des procédures judiciaires. Mais ce genre de démarche prend du temps et les dirigeants qui les engagent seraient bien inspirés d’appeler au boycott de X et d’examiner d’autres mesures coercitives.

Aux États-Unis, le tollé est également majeur. L’état de Californie a lancé une procédure judiciaire contre xAI. Et le vice-président JD Vance, un instrument de la Silicon Valley, a été contraint de condamner publiquement le détournement d’images de mineurs.

Il s’agit d’un test lourd de conséquences. Si Musk parvient à tirer profit de la situation malgré tout, plus rien ne sera impossible aux Big Tech. Car Grok n’est que le sommet de l’iceberg. Le révélateur d’un problème plus fondamental, ancré au cœur de la Tech : sa capacité à imposer ses choix et lubies à la société, en dehors de tout contrôle démocratique, sans subir la moindre conséquence pour les innombrables dégâts causés.


Le dernier paragraphe de l’article et une mini-revue de presse sont accessibles derrière ce “paywall”, pour ceux qui souhaitent soutenir mon travail. Mais pas de panique, l’article sera en accès libre la semaine prochaine. Et il est toujours possible de m’offrir un café ici. Bonne année 2026 à tous !

Read more

PDF

22.12.2025 à 09:44

IA générative: le guide ultime du hater anti-chatGPT.

Christophe @PoliticoboyTX

Les arguments imparables pour faire de n'importe quel interlocuteur un hater de l'IA générative, histoire d'aborder les fêtes de Noël avec les munitions nécessaires pour parer toute discussion pro-IA.
Texte intégral (8701 mots)

Chat GPT vient de souffler sa troisième bougie. Et avec les fêtes de fin d’année, le sujet de l’IA générative pourrait bien s’inviter à votre table. Que répondre aux techno-béats qui ne sont pas convaincus qu’il faut brûler les data centers, nationaliser Mistral et jeter Sam Altman, le transhumaniste accroc aux drogues et patron d’OpenAI, en prison ? C’est l’objet de ce numéro un peu spécial de “Fake Tech”.

Avant de débuter ma longue diatribe, je voudrais préciser qu’elle m’a été en partie inspirée par le style du journaliste britannique Ed Zitron. Si vous lisez l’anglais et que les articles de 15 000 mots centrés sur un aspect particulier de la critique de l’IA générative ne vous font pas peur, je vous encourage à lire sa newsletter.

Sinon, il ne vous reste plus qu’à vous abonner à FakeTech ou à partager cette publication autour de vous. Cela fait toujours plaisir de voir le compteur à abonnés progresser, sans parler de ceux qui prennent le temps de m’offrir un café (ici). Bonne lecture et joyeuses fêtes !

Partager


Le terme IA générative désigne les programmes informatiques capables de produire des contenus inédits (textes, vidéos, audio, code informatique…) à partir de simples requêtes (prompt). Pensez ChatGPT, Sora, Claude, etc. C’est de ces IA, basées sur les « Larges modèles de langage » (LLM), dont nous parlerons ici, pas du régulateur de vitesse du Scénic de mon oncle.

Avant de répondre aux arguments typiquement déployés par les fans d’IA, commençons par résumer ce que l’on sait des conséquences concrètes de cette technologie.

Les IA génératives imposent un cout catastrophique et engendrent des conséquences désastreuses

Pour fonctionner, les IA génératives nécessitent des quantités phénoménales d’électricité, de métaux lourds, de terres rares, de terres arables, d’eau potable et de données. Ces données sont presque exclusivement volées. À vous, à moi, aux artistes, aux travailleurs, aux collectivités et aux entreprises. Elles sont traitées par des millions d’êtres humains payés à la tache et travaillant dans des conditions traumatisantes, au point de pousser certains d’entre eux au suicide ou au meurtre. Sans surprise, la majorité de ces travailleurs sous-payés vivent dans le “sud global”. On est pas loin de l’esclavage moderne, comme le montrait le documentaire “les sacrifiés de l’IA”.

Une fois mises au point, les IA génératives servent de justification à des plans de licenciements massifs et à la destruction des services publics. Elles sont utilisées pour la production de fausses informations destinées à manipuler les électeurs ou à inciter à la haine. Ces contenus, caractérisés par leurs mauvaise qualité, erreurs ou absence d’objectifs précis, ont donné naissance au terme “IA slop” (bouillie). Ils inondent internet, souvent pour capter notre attention à moindres frais, et compliquent la recherche d’informations authentiques.

Dans les entreprises, les productions de mauvaise qualité résultant de l’usage de l’IA possèdent désormais leur propre terme : “workslop”. Quant aux IA fonctionnelles, elles introduisent le problème du deskilling (perte de compétence). Diverses études ont démontré que l’IA générative réduisait l’esprit critique des utilisateurs, manipulait leurs opinions et diminuait leurs capacités cognitives. Autrement dit, l’IA nous abrutit, en plus d’accaparer notre attention.

Seit Jahren Freunde: Jony Ive (58, l.) und Sam Altman (40) | Heute.at
Jon Ive (gauche) et Sam Altman (droite) - photo OpenAI.

ChatGPT et les autres agents conversationnels utilisés par le grand public sont explicitement conçus pour être addictifs et manipulateurs. Ils ont déjà poussé plusieurs personnes au suicide ou au meurtre et provoqué des accidents. Sans produire la moindre remise en question. Sam Altman (OpenAI) a récemment indiqué que les prochaines versions de son chatbot seront autorisées à entretenir des relations amoureuses ou érotiques. En parallèle, il recommande aux parents d’utiliser son IA pour apprendre à élever leurs enfants au quotidien. Tout est bon pour imposer l’usage de l’IA, malgré les risques qu’elle représente.

Cet été, les conseils vacances de ChatGPT and Co ont été identifiés comme une des causes du nombre record d’accidents mortels dans les alpes italiennes (les vacanciers s’engageant sur des itinéraires trop techniques et sans préparation adaptée, sur les conseils de l’application). Et les choses ne semblent pas destinées à s’améliorer : comme l’a rapporté The Guardian, une étude vient de démontrer que ChatGPT-5 était plus dangereux pour les utilisateurs que la version antérieure. Notamment, le tout dernier modèle d’OpenAI a plus de chance de produire des réponses néfastes (type : conseil pour se suicider ou commettre des actes illégaux). L’étude conclut que ChatGPT5 a été conçu pour augmenter l’engagement des utilisateurs.

Dans la même veine, le chatbot de Facebook démarchait des utilisateurs afin de leur fixer des rendez-vous galants (un homme souffrant d’insuffisance cardiaque en est mort). Le programme ciblait également les enfants.

Le but de toutes ces applications n’est pas d’aider l’utilisateur, mais de le rendre accro. Or, les LLM sont connus pour leurs nombreux biais (homophobes, racistes, machistes, patriarcaux, bourgeois, anglo-saxons, occidentaux…). Dans le cas de Grok, l’IA d’Elon Musk, cela prend des proportions délirantes (propos ouvertement antisémites, nazis…). Mais même les IA réputées bienveillantes et “humanistes” reproduisent les biais liés à leurs données d’entrainement et à leurs procédés de production (plus de 80 % des ingénieurs et scientifiques qui construisent ces IA sont des hommes, une majorité d’entre eux sont blancs et anglophones).

Les IA génératives introduisent aussi d’innombrables risques, en termes de sécurité et de cybersécurité. Elles peuvent aider leurs utilisateurs à commettre des actes malfaisants ou illicites malgré les garde-fous facilement contournables. Elles peuvent encourager leurs interlocuteurs à adopter des comportements autodestructeurs. Mais elles peuvent aussi profiter aux cybercriminels, que ce soit directement en les aidant à commettre des actes de piratage ou indirectement en exposant les utilisateurs aux failles informatiques spécifiquement véhiculées par ces systèmes. En particulier, il est possible de faire régurgiter à une IA ses données d’entrainement, ce qui augmente le risque que vos informations les plus intimes soient exposées.

Partager Fake Tech

Enfin, développer ces IA coute une fortune. Les investissements se chiffrent en milliers de milliards de dollars. Non seulement cela monopolise des ressources qui auraient pu être déployées pour financer des choses plus utiles (des panneaux solaires et éoliennes pour combattre la crise climatique, à la place des data centers et GPU utilisés pour créer des actrices pornos virtuelles, par exemple). Mais cela introduit aussi de sérieux risques de crise financière.

Ces “défauts” sont bien connus et documentés. Pourtant, depuis la sortie de ChatGPT, aucune régulation sérieuse n’a vu le jour. OpenAI et consorts continuent de piller les données privées et sous copyright, tout en provoquant la mort de certains de leurs utilisateurs, sans que cela provoque la moindre réaction. Même l’IA Act européen ne prévoit aucune disposition contraignante. Comme l’écrit Thibeaut Prévost dans son excellent ouvrage “Les prophètes de l’IA” :

« [Les entreprises qui commercialisent des IA génératives n’auront] à fournir ni documentation technique ni analyse d’impact de leurs modèles avant la mise sur le marché, pas plus qu’elles n’auront à se plier à des audits de sécurité externes, à démontrer l’interprétabilité de leurs modèles, à fournir des outils pour différencier un contenu synthétique d’un contenu humain, ou à respecter la Directive européenne sur le copyright pour leurs données d’entraînement. Alors que le Parlement voulait initialement imposer ces contraintes à tous les systèmes d’IA «à but général», comme GPT-4, elles sont désormais réservées aux IA à usage général présentant un «risque systémique», soit aucun des systèmes actuellement commercialisés. »

Les principales critiques de l’IA portent sur la dangerosité supposée de cette technologie. Il ne se passe plus une semaine sans qu’un chercheur ou spécialiste alerte dans un grand journal sur le risque existentiel de ces IA génératives. En réalité, ces prophètes de malheur contribuent à entretenir le mythe d’une technologie toute puissante. En se focalisant sur des risques hypothétiques et lointains, ils détournent notre attention des nombreux problèmes posés par l’IA ici et maintenant.

Je vais terminer cette introduction en soulignant une dernière absurdité. Les principaux acteurs de l’IA (les grands patrons et financiers de la Silicon Valley) ne cachent pas leurs intentions: mettre un maximum d’entre nous au chômage (tout en proposant de nous payer un revenu universel proche du RSA, qui serait financé par leurs profits colossaux) et nous rendre accros aux chatbots désormais conçus pour être nos amants virtuels et nous “décharger” de choses aussi intimes que l’éducation de nos enfants, la gestion de nos relations amoureuses et amicales, tout en nous empêchant de faire le deuil de nos proches. Un beau projet dont l’aboutissement reste incertain, mais les conséquences immédiates déjà catastrophiques.

L’IA générative produit pratiquement autant de gaz à effet de serre que le transport aérien. Et ça ne fait que trois ans que cette technologie est disponible pour le grand public. Début 2022, personne n’avait entendu parler de ChatGPT. S’il fallait revenir en arrière et choisir entre ne plus jamais faire décoller le moindre avion de ligne ou ne jamais commercialiser les chatbots à grande échelle, la décision serait probablement rapidement prise. Je prends cet exemple pour montrer à quel point le rapport coût-bénéfice est disproportionné.

Le plus choquant étant peut-être le fait que cette ruée sur les data centers va augmenter significativement le prix des autres appareils électroniques, les fabricants de composants modifiant leurs lignes de production pour répondre l’explosion de la demande en composants exclusivement dédiés à l’IA.

Abonnez-vous maintenant

La seule attitude raisonnable, lorsqu’on dispose de la somme d’informations dont je viens de vous abreuver en guise d’introduction, est de vouer une haine juste et entière à ChatGPT, ses concurrents et les entreprises, influenceurs et patrons qui sont derrière. Je ne dis pas qu’il faille reprocher à tout un chacun de demander à ChatGPT une recette de cuisine ou des idées de cadeaux pour la Saint-Valentin. Je dis que donner le moindre euro à ces entreprises devrait être aussi condamnable et stigmatisant que de faire un don défiscalisé à une compagnie pétrolière, travailler pour un marchand d’armes ou financer les fabricants de tabac.

Je vous vois venir, avec vos objections. Vous allez me dire que la technologie évolue vite, qu’il ne faut pas jeter le bébé avec l’eau du bain, qu’il n’y a pas d’alternative (tu veux revenir au modèle amish ? Laisser l’IA aux Chinois ?)… Passez-moi cette coupe de champagne.

Les IA génératives ne fonctionnent pas (et elles ne vont pas vous remplacer) !

Je pourrais commencer par détailler le fonctionnement de ChatGPT et autres IA génératives pour démontrer qu’il s’agit de modèles statistiques visant à prédire, en interpolant les données avec lesquelles ils ont été entrainés, le mot le plus plausible à ajouter à la suite d’une phrase. La nature probabiliste implique la faillibilité du modèle. Et le fait qu’il cherche à produire la réponse la plus plausible signifie que le modèle ne cherche pas la vérité ou l’originalité, mais la proximité avec les données d’entraînement. Autrement dit, il est impossible de mettre au point une IA générative qui ne commettrait pas d’erreurs, raisonnerait ou comprendrait ce qu’elle fait, à partir des LLM.

Cette caractéristique indépassable explique pourquoi les IA génératives se trompent souvent, semblent dépourvues de sens commun et ne pourront pas devenir conscientes ou intelligentes.

Plusieurs études produites par les laboratoires de recherche d’Apple et par des universitaires ont montré que les modèles d’IA générative les plus aboutis et censés raisonner (“chain reasoning model”) comme ChatGPT4-o1, ne sont pas dotés de capacités cognitives. Pour résoudre des problèmes de mathématiques complexes, par exemple, ils piochent dans leurs données d’entrainement pour aboutir à la solution (un peu comme un cancre qui copie par-dessus l’épaule de son voisin ou dans un manuel scolaire).

Ces mêmes modèles “raisonnant” ont été testés pour générer des dépêches et des résumés d’articles de presse. Dans 50 % des cas, ils produisent des communiqués contenant des erreurs factuelles. Un taux d’erreur proprement hallucinant. Une autre étude récente vient de démontrer qu’un nouvel article scientifique sur 6 serait contaminé par de fausses citations produites par des IA types ChatGPT.

En résumé, les IA génératives ne fonctionnent pas !

Partager

Lorsqu’on a dit cela, les fans de l’IA vous répondront qu’ils arrivent à faire des choses extraordinaires avec Google IA studio, Claude ou ChatGPT. Que d’innombrables entreprises licencient en invoquant les gains de productivité permis par l’IA. Que des métiers connaissent de grandes difficultés (graphistes et illustrateurs, concepteur-rédacteurs, traducteurs…). Bref que les IA sont peut-être imparfaites, mais se perfectionnent et sont déjà suffisamment puissantes pour menacer des millions d’emplois.

Bien. Regardons ce que dit le marché et le monde des affaires.

Du côté des entreprises, nous disposons d’une pléthore de rapports et études qui pointent l’inefficacité des IA.

  • La dernière étude du MIT, portant sur un large éventail d’entreprises, a conclu que le développement de l’IA générative n’a apporté des bénéfices que dans 5 % des cas. La principale raison identifiée est directement liée aux faibles capacités de l’IA générative . Je cite : « ce qui la freine réellement, c’est que la plupart des outils d’IA n’apprennent pas et ne s’intègrent pas bien dans les processus».

  • Une enquête similaire du cabinet de conseil KPMG a conclu que seulement 2 % des entreprises canadiennes ayant adopté l’IA générative observent un retour sur investissement positif (deux cas sur cent !).

  • Le rapport IA 2025 de McKinsey a conclu que « seulement une entreprise sur vingt est un “acteur performant”, ayant profondément intégré l’IA et constatant qu’elle génère plus de 5 % de leurs bénéfices ». Selon l’étude, seuls 32 % des dirigeants interrogés pensent que l’IA générative va leur permettre de réduire leur nombre d’employés et 61 % estiment que l’adoption de l’IA est un échec.

  • Des rapports récents montrent une forte baisse de l’utilisation de l’IA générative par les développeurs et programmeurs. De plus, une étude majeure a conclu que l’IA générative réduisait la productivité des développeurs de logiciels de 20 %. La conclusion la plus intéressante de l’étude est que les ingénieurs qui ont vu leur productivité décroitre pensaient pourtant qu’elle avait augmenté. Ce qui signifie que de nombreuses études basées sur les déclarations des personnes interrogées surestiment probablement l’apport de l’IA.

  • The Economist vient de publier un article confirmant ces tendances. Le journal note que « Les enquêtes récentes indiquent une stagnation de l’adoption par les entreprises » et que l’utilisation de l’IA générative recule (« Jon Hartley de l’Université Stanford et ses collègues ont constaté qu’en septembre, 37 % des Américains utilisaient l’IA générative au travail, contre 46 % en juin »).

  • La Harvard Business Review vient de publier un article sur le problème généré par le phénomène de “IA workslop”. Pour la prestigieuse publication, “la bouillie produite par les IA détruit la productivité” et “bien que les employés suivent les directives leur demandant d’adopter l’IA, rares sont ceux qui expérimentent des gains de productivité”.

  • Bloomberg a publié plusieurs articles récents soulignant l’absence de gains de productivité liés à l’adoption de l’IA, dont un, intitulé : « L’engouement pour l’IA s’avère être un paradoxe de Solow » (un terme inventé par le lauréat du prix Nobel d’économie Robert Solow, qui notait en 1987 : « On retrouve les ordinateurs partout, sauf dans les statistiques de productivité »).

  • De nombreux dirigeants d’entreprise ont publiquement exprimé leurs réserves concernant la technologie. Le PDG d’Airbnb, Brian Chesky, a récemment admis que l’IA « n’était pas encore prête » pour la planification de voyages et qu’au sein de sa propre organisation « elle ne conduit pas encore à un changement fondamental de productivité ». Le PDG d’AWS affirme que remplacer les employés juniors par l’IA est « l’idée la plus stupide qu’il soit».

  • Différents cas d’entreprises ayant licencié des employés pour les remplacer par de l’IA avant d’être contraintes de les réembaucher ont récemment fait les gros titres.

Ces faits sont dévastateurs. Malgré la hype qui pousse les entreprises et dirigeants à adopter l’IA et à se vanter des succès obtenus (cela fait moderne, rassure les investisseurs, discipline les employés…), l’IA ne perce pas au sein du privé.

Et les choses ne sont guère meilleures côté grand public.

En Europe, la Deutsche Bank note une stagnation voire un recul du nombre des souscriptions. Cette tendance est confirmée par les données collectées par les analystes de Apptopia, citées par Techcrunch. Le nombre de téléchargements de ChatGPT recule et le nombre d’heures passées par les Américains sur l’application connait une baisse de 22% depuis juillet. Ce qui explique pourquoi une dirigeante d’OpenAI se plaignait du “manque d’enthousiasme pour l’IA” (sic) la semaine dernière.

Les mauvais chiffres d’OpenAI, leader incontesté du marché grand public, sont antérieurs à l’irruption de Gemini 3, le modèle de Google qui dépasse ChatGPT5. Ils pointent vers une tendance globale.

Plus anecdotique, deux tentatives récentes d’utiliser commercialement des vidéos générées par une IA ont tourné à la catastrophe. Amazon a supprimé son résumé vidéo de la série Fall Out après le signalement de multiples erreurs commises par l’IA. Et suite au backlash sucité par les consommateurs, la publicité produite par McDonald a été retirée en urgence. Le pire étant que les producteurs de la publicité déclaraient avoir “travailler 24h/24 pendant des jours” pour tenir les délais et améliorer les prompts, en insistant sur le fait que “ce n’est pas l’IA qui a fait la vidéo, c’est nous”. En clair, les publicités générées par l’IA sont moches, désastreuses et ne coutent pas nécessairement moins cher à produire. Le contraste entre la réception de la publicité McDonald et celle, devenue virale à travers le monde, d’Intermarché est saisissant. Dans le cas de la seconde, c’est une agence marketing basée à Paris et un studio d’animation français qui ont réalisé la vidéo, avec des employés en chair et en os.

Certes, l’IA reposant sur les réseaux de neurones artificiels et le deep learning peut offrir quelques applications intéressantes. Le prix Nobel de chimie a été attribué à deux chercheurs de Google Deep Mind dont l’algorithme a permis de prédire les structures complexes des protéines. Leurs travaux devraient permettre d’accélérer la découverte des médicaments. Plus controversé, l’usage de l’IA pour diagnostiquer les radios permet un gain de temps évident. Sans avoir remplacé les radiologues pour autant. Malgré une envie débordante de remplacer les travailleurs par des IA, nous n’avons pas encore vu des signes clairs et abondants d’emplois remplacés par cette technologie.

Les raisons sont multiples : les IA fonctionnent mal, les emplois ne se résument pas à des tâches uniques ou même un ensemble de tâches automatisables. Contrairement à ce que pensent parfois les dirigeants qui s’en servent de prétexte pour licencier.

Ce n’est pas l’IA qui vous vire ou vous remplace, mais votre patron et vos dirigeants. Le journaliste américain Brian Merchant enquête depuis des mois sur la question du remplacement d’emplois par l’IA. Son travail n’est pas conclusif : certaines professions sont sévèrement impactées, d’autres non. Le cas d’Amazon est emblématique. La firme s’est vantée de virer 30 000 employés en invoquant l’IA, mais des salariés ont répliqué par communiqué de presse en expliquant qu’aucun gain de productivité n’avait été observé. Plusieurs milliers ont même signé une lettre ouverte remettant fondamentalement en cause la politique pro-IA d’Amazon.

Pour Brian Merchant, l’impact de l’IA sur le marché du travail reste impossible à déterminer. Le cas des traducteurs est intéressant : l’IA ne remplace pas nécessairement les emplois, mais dégrade le travail. Ces derniers doivent relire et corriger les traductions de l’IA au lieu de traduire les textes eux-mêmes. Le procédé créatif est sous-traité, ne laissant que les taches rébarbatives aux humains. Cette tendance s’observe dans de nombreuses professions où les postes supprimés ne sont pas dus à la performance de l’IA, mais au fait que les dirigeants acceptent une qualité de production inférieure. Selon Merchant, une seule chose est certaine “Le patronat utilise l’IA comme il a toujours utilisé les technologies d’automatisation depuis la révolution industrielle, pour extraire un maximum de valeur de ses travailleurs tout en profitant de l’incertitude générée par les capacités de cette technologie”. Un point de vue qui rejoint en quelque sorte celui du sociologue Juan Sebastian Carbonel qui, dans “Un taylorisme augmenté”, montre bien que l’IA sert avant tout à dégrader les conditions de travail et exploiter davantage les employés, pas à les remplacer.

Les IA génératives ne vont pas devenir intelligentes, conscientes ou toutes puissantes (l’IApocalypse est de la science-fiction pour vous manipuler)

Puisque l’IA progresse très vite, certains s’imaginent que nous allons rapidement aboutir à des IA aussi douées que l’homme (l’AGI pour Intelligence artificielle générale) voire arriver à la singularité (une IA consciente et capable de s’autoaméliorer, donc de dépasser très rapidement l’homme). D’où les discours apocalyptiques sur la dangerosité de la recherche en IA et les promesses d’un futur radieux où l’IA résoudra tous nos problèmes et nous permettra de vivre dans l’abondance.

Certes, le fossé qui sépare ChatGPT-3 des derniers LLM est tout aussi impressionnant que les progrès réalisés du côté des générateurs d’images. En trois ans, on est passé des photos difformes à des spots publicitaires très réalistes. Il y a trente ans, Deep Blue battait Gary Gasparov de justesse aux échecs. Désormais, n’importe quel iPhone peut vaincre Magnus Carlsen à plate couture. Il semble naturel d’anticiper de nouveaux bonds technologiques dépassant l’entendement.

Le problème avec l’argument du progrès exponentiel est qu’il ignore les principes sous-jacents aux modèles d’IA reposant sur l’apprentissage profond et les LLM. De la même manière qu’on ne peut pas extrapoler la taille d’un adulte à partir de la courbe de croissance d’un bébé (qui ne double pas de poids tous les trois mois indéfiniment), les LLM ne doublent pas leur puissance ou leur capacité à chaque nouvelle version. Les principaux scientifiques qui pensaient qu’il existait une loi de scalabilité (scaling law) selon laquelle la puissance du modèle évoluait en proportion de la complexité de ce dernier (nombre de paramètres et volume de données utilisées pour l’entrainer) admettent désormais que l’augmentation de la taille des modèles n’améliore plus significativement leur performance. Le rendement devient décroissant, puis négatif.

Il ne faut donc pas s’attendre à des sauts qualitatifs perpétuels. On a déjà vu à quel point ChatGPT-5 avait déçu. Et la nouvelle version 5.2 abandonne la principale innovation de ChatGPT-5, le fameux “routeur” qui dirigeait le logiciel vers un sous-modèle spécifique en fonction de la requête de l’utilisateur. L’idée était d’éviter de monopoliser les ressources des modèles les plus complexes (capables de raisonnement par étape ou chain reasoning) si l’utilisateur pose une question simple. Derrière le concept, on voit poindre la notion d’agents automatisés capable de distribuer les tâches : puisque OpenAI ne parvient pas à construire un modèle tout puissant, pourquoi ne pas proposer une constellation de sous-modèles plus spécifique ? Dans les faits, le routeur ne parvenait pas à orienter correctement les utilisateurs et utilisait davantage les modèles les plus complexes. Avec deux conséquences : une surconsommation d’énergie et des utilisateurs frustrés par des réponses longues et lentes à des questions simples. Ce qui illustre une fois de plus la limite de l’IA générative, incapable de dépasser certaines limites intrinsèques à son fonctionnement. On est loin d’une IA générale, comme l’explique depuis des mois Yann Lecun, considéré comme un des pères du deep learning. Ancien directeur de la recherche chez Facebook, il affirme depuis quelque temps que l’approche actuelle reposant sur les LLM constitue un détour ou une voie de garage pour ceux qui espèrent aboutir à une IA égale ou supérieure à l’homme.

Pourtant, les boss de la Silicon Valley et de nombreux grands noms de l’IA continuent de vendre une vision apocalyptique. Certains le font certainement par intérêt, d’autres par conviction. On peut être un spécialiste en algorithme de Deep Learning et se tromper lourdement sur ce qu’est l’intelligence ou la capacité de tels algorithmes à l’atteindre.

L’idée même qu’on peut répliquer l’intelligence humaine et la conscience en simulant mathématiquement des neurones et en les arrangeant en réseau est risible. Cela témoigne davantage d’une vision réductrice de ce qui fait de nous des humains plutôt que d’une vision extensive de ce que les machines peuvent produire.

Comme le rappel Thibault Prévost :

« Nous ne sommes pas le «cerveau dans une cuve» imaginé par le philosophe Hilary Putnam en 1981[6]. Non seulement il n’y a pas d’intelligence sans corps – le processus de mémoire, par exemple, est décentralisé –, mais l’expérience démontre qu’il y a de l’intelligence sans cerveau – d’autres cellules que les neurones sont capables de stocker de l’information et de la manipuler, et c’est ce qu’on appelle la cognition fondamentale ».

Partager

L’autre mythe perpétué par les chantres de l’IA issus de la Silicon Valley a trait au risque existentiel, basé sur la théorie du maximisateur de trombone. Il serait trop fastidieux de rappeler ici de quoi il s’agit. Je vous renvoie donc à l’excellent article de Huber Guillaud.

Résumons tout de même quelques points. D’abord, la peur de l’avènement d’une machine qui, pour maximiser sa production (des trombones, par exemple), en viendrait à supprimer l’humanité ou à consommer la totalité des ressources terrestres revient en réalité à décrire précisément les entreprises de la Tech en régime capitaliste. Nous sommes déjà face à des entités intelligentes dont le but est de maximiser l’accaparement d’une chose inutile (de l’argent) en épuisant les ressources de la planète.

Ensuite, l’idée qu’une super intelligence serait aussi stupide et cruelle que le premier capitaliste venu est davantage une projection des PDG de ce monde (connus pour leur manque d’empathie pathologique et leurs traits sociopathiques) qu’une conséquence inévitable de l’acquisition d’une conscience.

Je ne dis pas qu’il est impossible de construire une IA dotée de capacités cognitives supérieures ou égales à l’homme, mais seulement que les IA génératives ne sont pas une voie directe vers cette super intelligence, et qu’un tel outil ne serait pas vraisemblablement conscient ou désireux d’exterminer le genre humain (volontairement ou par accident). Ce sont ces faux prophètes de l’IA qui veulent activement détruire l’humanité pour sauver leur petit monde, comme le résument parfaitement Thibaut Prévost et de nombreux critiques de l’IA.

Mais alors, on laisse l’IA aux Chinois ? (ou pourquoi personne ne gagnera la course à l’IA)

À ce stade nous avons établi que l’IA générative ne permet pas d’arriver plus vite à une IA générale (AGI), ni à une IA consciente ou toute puissante (singularité).

Autrement dit, investir des milliards de dollars dans des data centers destinés à servir les IA génératives tout en refusant de réguler le secteur, laissant les entreprises californiennes agir comme bon leur semble au nom de la course à l’IA, est une aberration. Non seulement ces logiciels sont dangereux et écologiquement désastreux, mais l’idée que cette fuite en avant serait nécessaire pour maintenir notre maigre avance sur la Chine est une vue de l’esprit. Les avances technologiques en matière d'IA ne durent pas, comme l’avait montré l’irruption de l’IA chinoise DeepSeek, qui rivalisait avec les meilleurs modèles d’OpenAI, elle-même désormais dépassé par Google.

Ensuite, la Chine a largement bloqué son marché aux technologies américaines (Google, Facebook, OpenAI, Amazon, NVIDIA…) tout en développant ses propres géants et produits phares (Baidu, Alibaba, Huawei, TikTok, DeepSeek).

En clair, la Chine va continuer de développer l’IA sans se faire coloniser par la technologie américaine, et les États-Unis vont continuer d’empêcher la Tech chinoise de s’exporter sur leur territoire. Seule l’Europe accepte d’être numériquement colonisée sans condition. Quant à la France, son secteur technologique est pratiquement entièrement lié à la Silicon Valley. Rappelons que Mistral, le champion français, a été créé par d’anciens employés de Facebook avec l’aide des capital-risqueurs de San Francisco, avant de signer un partenariat avec Microsoft…

Si investir dans l’IA de pointe peut présenter des intérêts stratégiques et touche aux questions de souveraineté, l’IA générative est au mieux une distraction, au pire un gaspillage de ressources.

La haine de ChatGPT est juste et saine

Il y aurait encore beaucoup à dire et quelques autres mythes à debunker. Retenons un point principal : les IA génératives entrainent des risques vertigineux pour la société, tout en produisant des torrents de boue (IA slop) pour un cout énergétique délirant. La question n’est pas tant de savoir ce qu’ils seront capables de faire à un horizon mal défini. Mais de prendre conscience que dans le meilleur des cas (le scénario rêvé par les pontes de la Silicon Valley), ils finiront pour produire du chômage de masse et une forte addiction pour enrichir exclusivement les entreprises qui les produisent. En attendant, on brûle et pille des ressources considérables pour produire des chatbots érotiques et des vidéos inutiles.

Il est grand temps de vouer à tous ceux qui participent à la promotion et la diffusion de cette technologie un mépris et un rejet total. Comme à cette ministre française rendant hommage aux poilus de la guerre 14-18 non pas avec une image d’archive de l’INA, mais avec un visuel créé par une IA qui représentait une carte de France avec deux Bretagne !

Sur ce, merci de m’avoir lu et joyeux Noël à tous !


Pour soutenir mon travail, abonnez-vous gratuitement, devenez un abonné payant ou offrez-moi un café (ici).

PDF

15.12.2025 à 11:49

Dix livres techno-critiques à mettre au pied du sapin

Christophe @PoliticoboyTX

Quelques idées de cadeaux de Noël, à offrir ou à s'offrir, pour affuter son esprit (techno) critique.
Texte intégral (9089 mots)

Si vous n’avez pas encore envoyé votre liste au père Noël ou que vous cherchez des idées de cadeaux originaux pour vos proches, cette liste devrait vous plaire. Certains titres se recoupent quelque peu, mais tous abordent des thèmes majeurs de la Tech, avec un regard résolument critique. J’ai pris le parti d’inclure essentiellement des livres en français parus ces douze derniers mois, tout en élargissant à quelques autres ouvrages qui m’ont particulièrement marqué. Et pour une liste de titres plus classiques et intemporels, je vous invite vivement à parcourir le “starter Kit Technocritique” du camarade Irénée Régnauld, dans lequel je vais piocher abondamment (certains étant par ailleurs tombés dans le domaine public !).

Et bien entendu, il est également possible de m’offrir un café et d’offrir ou se faire offrir un abonnement “Fake Tech”, sans engagement :

Abonnez-vous maintenant

1. Les prophètes de l’IA - pourquoi la Silicon Valley nous vend l’apocalypse (Thibault Prévost, Lux Éditeur, octobre 2024, 216 pages)

Débutons ce classement par le livre que j’aurais aimé écrire, tant par le style que l’angle choisi. Cet essai percutant revient sur la grande révolution technologique du moment en la qualifiant peu ou prou par ce qu’elle est : une arnaque. Une manipulation. Une supercherie. Orchestrée par ceux qui comptent en tirer le plus grand profit en termes d’accumulation de pouvoir et d’argent.

Journaliste spécialiste des questions numériques, Thibault Prévost détaille par le menu les croyances, objectifs et stratagèmes des pontes de la Silicon Valley pour nous imposer leurs IA mal conçues. Il déconstruit avec brio le récit apocalyptique, tantôt utopiste, tantôt dystopique, mais jamais ancré dans le réel et dans les vraies conséquences de l’IA générative sur nos vies, ici et maintenant.

Relativement court, bien documenté et regorgeant de punchlines, l’ouvrage sera particulièrement apprécié des lecteurs désirant saisir les enjeux de la course à l’IA générative sans se farcir des chapitres entiers sur les luttes internes à OpenAI ou le fonctionnement des algorithmes de deep learning. Ici.

Couverture du livre «Les prophètes de l'IA».

Une recension en accès libre est à lire ici. Et sur le même thème, le livre (non traduit) L’IA Con ( L’arnaque de l’IA - recension ici) vaut également le détour.

2. L’Envers de la Tech - ce que le numérique fait au monde (Mathilde Saliou, Peregrines, octobre 2025, 256 p.)

Dans cet essai méticuleux, la journaliste Mathilde Saliou (Next) produit un inventaire saisissant des conséquences de la Tech sur notre planète et ses habitants. À une époque où la critique des nouvelles technologies se focalise de plus en plus étroitement sur l’Intelligence artificielle, l’ouvrage présente l’avantage de balayer un spectre plus large. Il est question des fusées de Musk et Bezos, des objets numériques dont l’empreinte écologique est souvent sous-estimée, des limites du recyclage, de la consommation en eau et en énergie induites par les data centers, mais aussi des effets plus concrets et immédiats de ces technologies sur la santé, y compris mentale, de leurs utilisateurs. Mathilde Saliou décrit aussi bien les conséquences délétères sur nos institutions démocratiques que les impacts en matière de justice sociale et d’égalité.

Une porte d’entrée passionnante et efficace pour interroger la pertinence des récits sur les soi-disant progrès offerts par l’ère numérique, en partant des conséquences concrètes de cette “révolution”. Ici.

Pour en savoir plus, je vous recommande l’interview de l’autrice par Synth Media.

3. Les algorithmes contre la société (Hubert Guillaud, La Fabrique, avril 2025, 167 p)

Si les impacts écologiques, sociétaux et démocratiques de la Tech peuvent parfois paraitre éloignés, dans le temps comme dans l’espace, les effets des algorithmes décrits par Hubert Guillaud prennent une tournure plus concrète et immédiate. Le journaliste ne se focalise pas sur l’IA générative ou d’autres technologies connues pour leur empreinte écologique majeure, mais de simples programmes informatiques assez triviaux. Ce qui l’est moins, c’est l’usage qui en est fait pour rendre la vie de nombreux citoyens toujours plus infernale.

N’ayant pas encore eu l’opportunité de me procurer l’ouvrage, je vous renvois à cette recension ici et la présentation de l’éditeur .

Pour aller plus loin : entretien de l’auteur ici, recension du Monde .

4. Les nouveaux contremaitres - Enquête sur la surveillance au travail à l’heure de l’IA (Clément Pouré, Équateurs, novembre 2025, 224 pages)

Votre patron vous surveille. Votre chef vous espionne. Votre entreprise vous contrôle. Si vous êtes manutentionnaire chez Amazon, salarié d’un centre d’appel, cuistot dans une chaine de fast food, programmeur pour une SS2I ou employé chez Basic Fit, vous étiez probablement au courant. Sans nécessairement avoir conscience de l’ampleur de cette surveillance. Mais si vous êtes agent dans une banque ou cadre au sein d’une grande entreprise, vous n’imaginiez peut-être pas que votre RH ait accès à tout ce que vous faites sur votre ordinateur, jusqu’aux copies d’écran et votre propre webcam. Et qu’il n’hésitera pas à s’en servir pour motiver un licenciement ou refuser une augmentation.

Partager

Cette dystopie bien réelle est au cœur de l’enquête du journaliste Clément Pouré (Médiapart). Raconté à la première personne, riche en témoignage de travailleurs, l’ouvrage explore comment les technologies numériques et l’IA sont mises au service du patronat pour surexploiter les travailleurs, qu’ils soient intérimaires sans diplômes ou cadres supérieurs. L’idée selon laquelle l’IA va nous remplacer et provoquer un chômage de masse laisse ainsi la place à une perspective tout aussi alarmante, mais bien plus concrète : celle de l’utilisation de ces nouvelles technologies pour dégrader les conditions de travail, accroitre l’exploitation et paupériser les salariés. Ici.

Pour aller plus loin : lire la recension de Hubert Guillaud ici. Et sur l’idée selon laquelle l’IA ne va pas prendre votre travail, mais le rend invivable et abrutissant, je citerais également le monumental “Un taylorisme augmenté : critique de l’intelligence artificielle”, du sociologue Juan Sebastian Carbonel.

5. La contre-révolution californienne (Sylvie Laurent, Le Seuil, 2025, 72 pages).

Le ralliement de la Silicon Valley derrière Donald Trump a souvent été décrit ou commenté comme un revirement surprenant, en contradiction avec l’alignement des élites de la côte ouest avec le Parti démocrate et les valeurs qu’elles semblaient défendre. Ce serait méconnaitre les liens et proximités historiques de la Tech californienne avec le parti républicain et les sphères réactionnaires. En 70 pages, l’historienne Sylvie Laurent revient sur ces aspects souvent méconnus pour démontrer en quoi le ralliement de la Tech derrière Trump n’est que le prolongement logique d’une dynamique historique.

La Contre-révolution californienne de Sylvie Laurent aux Éditions du Seuil

Se focalisant en particulier sur les années 1960-2020, l’ouvrage sera un complément idéal à ma “Brève histoire de la Silicon Valley”.

6. Apocalypse nerds : comment les technofascistes ont pris le pouvoir (Nastasia Hadjadji et Olivier Tesquet, septembre 2025, 200 pages)

Le second mandat de Donald Trump est marqué par la prise de pouvoir des Big Tech, ralliés au président putschiste par opportunisme financier. Il existe aussi une convergence idéologique et politique documentée à merveille dans le livre de Nastasia Hadjadji et Olivier Tesquet. Cette cartographie de la contre-révolution réactionnaire et antidémocratique parcourant la Silicon Valley et influençant la Maison-Blanche apparait sous toute sa complexité. Une lecture essentielle, accessible et percutante pour saisir les ramifications du projet technofasciste en cours d’implémentation, ses objectifs, ses acteurs et ses racines idéologiques. Mon interview des auteurs est à lire ici.

7. Ludicrous, the unvarnished history of Tesla Motors (Edward Nierdermeyer, 2021, 275 pages, non traduit)

Publiée en 2021 par le journaliste automobile américain Edward Nierdermeyer. cette histoire “sans vernis” du constructeur automobile Tesla livre un exemple chimiquement pur de tout ce qui ne va pas avec la Silicon Valley. Elon Musk n’avait pas encore fait campagne pour Donald Trump, défendu des nazis sur Twitter ou fait des saluts hitlériens en direct à la télévision. Mais le ver était dans la pomme, comme un lecteur averti sera en mesure de s’en apercevoir en parcourant ce récit passionnant.

L’auteur décrit par le menu les nombreuses manipulations, dissimulations et escroqueries qui ont permis à Tesla d’émerger comme un constructeur automobile majeur et devenir une des plus grosses capitalisations boursières américaines. Didactique, le livre permet de se familiariser avec les enjeux techniques et commerciaux propres à l’industrie automobile, en particulier pour les véhicules électriques et autonomes. Son second mérite est d’illustrer comment l’approche agressive d’Elon Musk lui a permis de s’affranchir des contraintes pesant sur l’industrie automobile (exigences de sécurité, qualité, droit du travail, normes de pollution, règles comptables et financières…) et ainsi mieux cerner l’entreprise et le personnage qui l’instrumentalise pour son propre pouvoir.

Ludicrous

Également conseillé : Road To Nowhere, What Silicon Valley Gets Wrong about the Future of Transportation, de Paris Marx. Pour une analyse critique des promesses de la Silicon Valley en matière de transports, d’Uber à la voiture sans pilote en passant par l’hyperloop et autres “Fake Tech”.

8. Empire of AI - Dreams and nightmares in Sam Altman’s OpenAI (Karen Hao 2025, 496 pages, non traduit).

Le livre d’enquête de Karen Hao sera probablement traduit en français prochainement, tant il a rapidement acquis le statut de Bible incontournable. La journaliste du Wall Street Journal raconte avec minutie l’histoire d’Open AI et de son sulfureux patron Sam Altman, en s’appuyant sur d’innombrables entretiens et sources internes qu’elle a collectés depuis qu’elle couvre cette entreprise. À travers ce récit, elle livre un portrait cinglant du secteur de l’IA générative et de ses pratiques, qu’elle compare à un vaste système néocolonial reproduisant des logiques impérialistes d’accaparement et de prédation.

Pour Karen Hao, OpenAI et ses concurrents tirent leur pouvoir de l’exploitation des ressources naturelles, des données numériques et du labeur des populations les plus démunies, souvent situées dans le sud global, le tout avec un mépris total pour les lois et les conséquences sociétales, y compris sur ses propres clients. Tout est bon pour accumuler pouvoir et richesses. Un monument de journalisme offrant un panorama global de cette industrie, raconté depuis l’intérieur.

9. Le mythe de l’entrepreneur : défaire l’imaginaire de la Silicon Valley (Anthony Galluzzo, La découverte, 2023, 240 pages).

Au cœur du mythe de la Silicon Valley figure celui du mythe du self-made-man, de l’entrepreneur de génie à la source des révolutions technologiques et de l’innovation. Celui qu’il ne faudrait pas entraver dans sa destruction créatrice et son accumulation de richesse. Ce mythe est méthodiquement déconstruit par Anthony Galluzzo, professeur à l’Université. À partir de l’exemple édifiant de Steve Jobs, il examine les ressorts de cette fable et l’inscrit dans un phénomène qui remonte aux barons voleurs de la première révolution industrielle : faire passer les capitalistes pour des génies afin de justifier leur pouvoir et leur action sans interroger les mécanismes qui ont permis ce succès. La filiation entre Rockefeller - Jobs et Elon Musk apparait alors évidente. Ici.

Le mythe de l'entrepreneur - Anthony Galluzzo

Sur un thème similaire, “La Tech”, du sociologue chargé de recherche au CNRS Olivier Alexandre, fournit une analyse détaillée de la culture entrepreneuriale dominante au sein de la Silicon Valley.

10. Une histoire de la Conquête spatiale - Des fusées nazies aux astrocapitalistes du New Space (Irénée Régnauld et Arnaud Saint-Martin, La Fabrique, 2024, 282 p).

Terminons cette liste en prenant de la hauteur. Dans cette étude passionnante, les sociologues des sciences Arnaud Saint-Martin et Irénée Régnauld replacent l’aventure spatiale dans son contexte militaire, en établissant une filiation directe entre les premières fusées développées par les nazis et l’astrocapitalisme des milliardaires de la Silicon Valley. Ce n’est pas le seul mérite du livre. De nombreux mythes volent en éclat : la popularité supposée du programme spatial américain (en réalité, critiqué par l’opinion publique de l’époque, malgré les efforts colossaux déployés pour fabriquer de l’adhésion, et que les auteurs examinent méticuleusement). La notion d’utilité des vols habités et du colonialisme spatial prennent également du plomb dans l’aile. Tout comme la sucess story de Space X et les implications du “New Space”, marqués par la pseudo-privatisation de l’espace. Ici.

Sur le même thème, citons les astrocapitalistes, conquérir, coloniser, exploiter, forme de suite écrite par Arnaud Saint-Martin et l’ouvrage non traduit des journalistes américains Kelly Weinersmith et Zach Weinersmith “A city on Mars”, qui propose une étude implacable de la (imp)possibilité de la colonisation de Mars, arnaque totale vendue par les astrocapitalistes pour justifier leurs activités écocides.

Et avec cela, il ne me reste plus qu’à vous souhaiter de joyeuses fêtes !


Merci de lire “Fake Tech", une newsletter technocritique. Pour soutenir mon travail, abonnez-vous gratuitement ou offrez-moi un petit café (ici) !

PDF

01.12.2025 à 08:58

L'économie de l'IA tourne en rond, bientôt l'implosion ?

Christophe @PoliticoboyTX

Hamster dans sa roue, serpent qui se mort la queue ? Difficile de trouver la métaphore parfaite pour décrire le schéma financier qui gonfle la bulle de l'IA générative et menace la planète.
Texte intégral (10027 mots)

Dans cet article, nous allons détailler les mécanismes de financement qui alimentent la croissance phénoménale du secteur de l’IA générative, avant de se poser la question de la soutenabilité d’une telle “économie circulaire”.

Avant de rentrer dans le vif du sujet, permettez-moi de remercier les quelques abonnés payants qui soutiennent cette publication. J’encourage ceux qui le peuvent à les rejoindre, soit en s’abonnant à “Fake Tech” pour 5 euros par mois sans engagement, soit en faisant un don unique de 2 euros ou plus via le site “m’offrir un café”. Les abonnés gratuits représentent également une grande source de motivation, n’hésitez pas à partager cette publication autour de vous pour la faire connaitre. Bonne lecture et merci de votre fidélité !

Partager


C’est l’histoire d’une bulle qui refuse d’éclater. Elle tire l’ensemble de la croissance économique des États-Unis. La capitalisation boursière des sept entreprises qui en bénéficient le plus représente un gros tiers du S&P 500 (le CAC 40 américain) et 90 % de la hausse de l’indice boursier depuis 2019. La presse financière et les spécialistes alertent de plus en plus fréquemment sur son gonflement. Pourtant, à chaque évènement susceptible d’ébranler la confiance des investisseurs, une nouvelle annonce relance la machine. Un “deal” de 300 milliards entre Open AI et Oracle par ci, un investissement de 100 milliards de Nvidia dans Open AI par là. Ou encore Anthropic signant des accords évalués à plusieurs dizaines de milliards avec Google et Amazon. Le tout sur fond de ruée sur les data centers, construits avec une frénésie sans précédent :

Investissements des GAFAM réalisés par trimestre en milliards de dollars. Graphique The Wall Street Journal via Brian Merchant.

Le montant des investissements dans l’IA générative atteint des niveaux dignes du PIB français. S’il faut différencier les promesses et engagements des sommes effectivement dépensés, les chiffres n’en restent pas moins stratosphériques. Nvidia vient de battre les projections des analystes en rapportant un profit record de 58 milliards de dollars pour le 3e trimestre 2025, soit un bénéfice annualisé comparable au PIB d’un pays comme les Émirats arabes unis ou la Malaisie. Ce qui amène à se poser deux questions :

  • D’où vient tout cet argent ?

  • Ne va-t-il pas bientôt en manquer ?

Comprendre l’enjeu du financement de l’IA générative

Pour illustrer le problème, prenons OpenAI. Le leader du secteur de l’IA générative commercialise ChatGPT-5, un agent conversationnel capable de réaliser de nombreuses tâches plus ou moins complexes avec une fiabilité fluctuante. Il repose sur un “Large Modèle de Language” (LLM). À chaque fois qu’un utilisateur lui pose une question, ChatGPT interroge le modèle pour produire une réponse : on parle alors d’inférence. Comme OpenAI reçoit des millions d’inférences par heure et que GPT-5 contient des centaines de milliards de paramètres, l’entreprise doit disposer d’une capacité de calcul titanesque pour répondre à la demande. Sam Altman parle de 30 GW de puissance électrique installée à terme, soit 30 réacteurs nucléaires, 50 grosses centrales à gaz ou la consommation électrique du Royaume-Uni. Pas mal, pour un chatbot dont le principal usage consisterait à offrir un soutien psychologique en se faisant passer pour une sorte d’amant manipulateur.

Partager

La puissance de calcul nécessaire provient de puces électroniques spécialisées appelées GPU (Graphics Processing Unit). Elles sont disposées en réseau dans des data centers (“centre de données”) opérés via Internet par un type de service appelé cloud computing.

Les GPU utilisés pour les modèles d’IA générative sont majoritairement produits par Nvidia, leader du marché. Intel et AMD vendent également des GPU de puissance et qualité inférieure. Le service de cloud computing est principalement fourni par quatre entreprises qui contrôlent 89 % du marché (Google Cloud, Amazon Web Services, Microsoft Azure et, dans une moindre mesure, Oracle Cloud). Des acteurs intermédiaires opèrent des data centers ou fournissent des services de cloud computing séparément, comme l’entreprise CoreWeave. Meta (Facebook) opère son propre réseau de data centers en interne, comme quelques autres grosses entreprises.

La chaine de valeur peut être résumée à travers un exemple : Nvidia vend des GPU à un service de cloud computing comme Oracle qui fournit la puissance de calcul à Open AI. Plus OpenAI et ses concurrents produisent des IA gourmandes (type Sora, l’application de génération de vidéos), plus ils ont besoin de capitaux pour construire les data centers abritant les GPU capables de fournir la puissance de calcul nécessaire.

Jusqu’à récemment, OpenAI et ses concurrents obtenaient des capitaux via les schémas de levée de fonds inhérents aux start-up. Des capital-risqueurs investissaient des fonds contre une part de l’entreprise. Cela fonctionne pour récolter des centaines de millions de dollars, devient difficile pour des milliards et virtuellement impossible pour des centaines de milliards. Il n’y a pas assez de capital-risque disponible !

Les autres circuits de financement traditionnels (introduction en bourse et endettement auprès des banques) ne permettent pas de lever des centaines de milliards de dollars aisément, car le chiffre d’affaires du secteur reste dérisoire comparé à ses besoins de financement. En effet, tous les fournisseurs de logiciels d’IA générative perdent de l’argent (les modèles d’IA coutent plus cher à concevoir et à faire fonctionner qu’ils ne rapportent, y compris lorsqu’on augmente le nombre d’utilisateurs, chaque usager supplémentaire générant des inférences en plus, mais moins de dix pour cent d’entre eux souscrivent à une offre payante, qui ne recouvre pas toujours les couts !). OpenAI dépenserait ainsi près d’un milliard de dollars par mois uniquement pour faire face à ses couts d’inférence.

Le scénario d’éclatement de la bulle anticipé par de nombreux observateurs passe par une chute du chiffre d’affaires de Nvdia : si la firme ne parvient plus à vendre ses GPU, c’est qu’OpenAI et consorts n’ont plus d’argent frais à investir, donc ne parviennent plus à faire croitre leur marché et la puissance de leurs IA. Pour éviter que la bulle éclate, il faut continuer à vendre des GPU jusqu’à ce que les profits du secteur permettent d’entretenir la machine indéfiniment.

Résumons :

  • L’IA générative nécessite des investissements colossaux dans des data centers énergivores pour concevoir puis faire tourner des logiciels commercialisables.

  • Ces logiciels ne sont pas rentables pour l’instant, car ils coutent plus cher à faire tourner et concevoir qu’ils rapportent (les entreprises hésitent à s’équiper et le grand public utilise très majoritairement les versions gratuites).

  • Le pour l’instant risque de devenir pour toujours, car il existe de nombreux modèles d’IA générative concurrents et peu ou prou équivalents (Chat GPT, Claude, Grok, Perplexity, DeepSeek, Qwent, Gemini, Llama, Le Chat,…). Et chaque utilisateur supplémentaire augmente le cout de fonctionnement (plus d’inférences) sans augmenter d’autant le chiffre d’affaires. Or, le nombre d’utilisateurs de ChatGPT serait en baisse, comme l’usage de l’IA générative au travail et celui du nombre de programmeurs utilisant les IA génératives pour la programmation.

  • Les spécialistes s’accordent à dire que la technologie est sur le point d’atteindre une impasse et que l’augmentation de la taille des modèles d’IA ne va pas les rendre plus performants ou économes.

Ces faits expliquent pourquoi la presse économique évoque une bulle. Si ce n’est pas nouveau, OpenAI et consorts continuent d’annoncer des investissements colossaux dans leur modèle de croissance. Alors, d’où vient l’argent ?

La circularité de l’économie de l’IA générative : problème ou solution ?

En observant les annonces du secteur, une image émerge peu à peu. Celle d’un système circulaire où les capitaux transitent d’un acteur de la chaine de valeur à l’autre. Bloomberg et le Wall Street Journal ont commencé à cartographier cette économie. Le résultat donne le tournis :

Bloomberg reveals AI money loop: OpenAI, Nvidia, Oracle, AMD | Srini Sharma  posted on the topic | LinkedIn

Au centre de ce genre de diagramme figure Nvdia, leader des fabricants de GPU. L’entreprise occupe une situation équivalente à celle d’un vendeur de pelles en pleine ruée vers l’or. Pour assurer la croissance de ses ventes, elle investit dans les entreprises comme OpenAI. OpenAI va ensuite signer un contrat avec Oracle pour obtenir l’accès à une certaine puissance de calcul, qu’Oracle va fournir en s’équipant en GPU auprès de Nvdia. Ce qui augmente la valeur boursière de chaque entreprise au passage.

Ce type de boucle se manifeste à de multiples niveaux. OpenAI investit également dans les concurrents de Nvidia, AMD et Intel, pour se fournir chez eux. Le “deal” avec AMD est suffisamment fou pour être brièvement détaillé. Comme l’expliquait au Wall Street Journal la directrice financière d’OpenAI, la start-up s’est rendu compte que les actions des entreprises avec lesquelles elle signait des contrats importants avaient tendance à prendre beaucoup de valeur. Pour tirer profit de ce phénomène, OpenAI a commandé pour 6 milliards de dollars de GPU à AMD, contre le droit d’acheter des actions AMD à prix préférentiel. L’annonce du “deal” doit faire gonfler la valeur boursière d’AMD, ce qui permettra à OpenAI de récupérer les 6 milliards en empochant la plus-value sur ses actions. Et ce n’est qu’un exemple parmi tant d’autres.

Partager

Les concurrents d’OpenAI (Anthropic, Perplexity, Mistral…) ont recours au même type de circuits de financements. L’entreprise d’Elon Musk, xAI, vient de lever 20 milliards de dollars via un « Special Purpose Vehicle » (SPV, une forme d’entité juridique sur laquelle nous reviendrons plus loin) pour acheter des GPU à Nvdia. Les 20 milliards proviennent d’emprunts garantis par les GPU (pour 12.5 milliards) et de prises de participations dans le SPV (7.5 milliards). Nvidia a injecté 2 milliards de capital sur les 7.5 du SPV. Cette prise de participation renforce le cours de l’action Nvidia et lui assure des débouchés, puisque xAI doit contractuellement utiliser les GPU du SPV pour une durée minimale de 5 ans.

Quant aux autres géants de la Tech comme Meta, Amazon, Microsoft et Google, ils bénéficient du fait d’être présents sur au moins trois secteurs : le cloud computing, les data centers et les logiciels d’IA (via le développement de leurs propres modèles, lorsqu’ils n’intègrent pas aussi ceux d’OpenAI, d’Anthropic ou de concurrents dans leurs produits). Ainsi, Microsoft est à la fois un fournisseur de cloud computing et de data centers via Microsoft Azure, un utilisateur des produits d’OpenAI (ChatGPT est intégré à la version premium de Microsoft Office via l’application Copilot) et un investisseur dans OpenAI.

Un second graphique emprunté au WSJ montre la complexité de ces flux financiers:

Aucune description alternative pour cette image

Tout cela peut paraitre abstrait, confus et complexe. Pour illustrer la situation, prenons un exemple théorique inspiré de faits réels :

Au XIX siècle, un industriel met au point un nouveau procédé de production d’acier. Pour s’assurer des débouchés, il investit dans les compagnies de chemin de fer qui construisent les premières lignes ferroviaires et les constructeurs de locomotives qui fournissent les trains. L’argent dépensé chez ses clients retourne dans ses poches. Plus les compagnies de chemin de fer ouvrent de nouvelles lignes, plus la demande en locomotives nécessitant de l’acier augmente, plus le cours des actions de chaque acteur du secteur s’envole. Fort de son chiffre d’affaires en hausse, le producteur d’acier peut s’endetter auprès des banques pour continuer d’investir dans les compagnies ferroviaires qui achètent des rails et dans les usines qui produisent des locomotives. Le réseau ferré s’accroit et le nombre de passagers explose. Tout le monde veut placer son argent en achetant des actions ou des titres de dettes émis par les acteurs du secteur, qui peuvent financer de nouvelles lignes… Ce cercle vertueux présente une limite : le nombre de personnes ou marchandises susceptibles de voyager en train. La bulle éclate lorsque les compagnies de chemin de fer ne parviennent plus à écouler leurs billets.

Pour parfaire l’analogie, il faudrait imaginer que de multiples lignes de chemin de fer concurrentes soient installées sur les mêmes trajets, que d’autres lignes relayant des destinations sans intérêts voient le jour et que les compagnies ferroviaires transportent gratuitement les voyageurs de seconde classe, dans l’espoir de les convertir plus tard en clients de première.

Parmi les autres exemples d’économie circulaire, on cite souvent la bulle des télécoms de la fin des années 1990 et le modèle de développement du Japon d’après-guerre, reposant sur les Keiretsu . Ces exemples historiques montrent qu’à la période d’euphorie succède une crise propulsée par l’éclatement de la bulle financière sous-jacente. Si le Japon conserve une partie de ses conglomérats, qu’une part importante du réseau de chemin de fer a survécu aux crises et que les câbles de télécom servent toujours, qu’en sera-t-il de l’IA générative ?

Un serpent qui grossit en se mordant la queue

Le caractère circulaire de ce circuit de financement n’élimine pas la nécessité d’avoir de l’argent qui rentre pour alimenter la boucle. Le secteur n’étant pas rentable, les capitaux soutenant le boom de l’IA proviennent de différentes origines :

  • Les GAFAMS peuvent financer leurs investissements grâce aux profits records qu’ils accumulent via leurs activités non liées à l’IA (les revenus publicitaires de Google et Facebook, les ventes de logiciels Microsoft, les services de cloud computing classiques d’Amazon, etc.). Ces profits leur confèrent des réserves de liquidités importantes. Combinés à leur faible taux d’endettement, ils jouissent de capacités d’emprunt considérables.

  • Nvidia agit comme une sorte de banque centrale ou prêteuse en dernier recours pour de nombreuses firmes se finançant sur les marchés via des acteurs appartenants au “shadow banking” (fonds d’investissements, fonds spéculatifs, assurances, produits financiers dérivés…). Ses GPU sont souvent utilisés comme garanties pour les emprunts sur lesquels ils sont adossés, ce qui introduit un risque supplémentaire.

  • Comme lors de la crise des subprimes de 2008, de nouveaux véhicules financiers ont vu le jour, en particulier les “SPV” évoqués plus haut. Outre xAI, citons Meta, qui a eu recours à une telle structure pour financer un data center de 30 milliards de dollars. L’entreprise de Zuckerberg apporte 6 milliards sous la forme d’une prise de participation et d’un prêt, le reste provient essentiellement de dettes contractées sur les marchés financiers. Une manière d’obtenir toujours plus de capitaux tout en transférant le risque associé aux créances douteuses à des investisseurs de plus en plus éloignés. De plus, Meta n’a pas besoin de faire apparaitre les créances du SPV à son propre bilan comptable, ce qui lui permet de conserver un ratio d’endettement moins élevé.

  • Le marché boursier secondaire peut aussi, via des mécanismes d’échanges d’actions comme celui mis en place entre AMD et OpenAI, fournir des liquidités. À condition que les investisseurs et petits porteurs suivent… (pour qu’OpenAI récupère sa mise, quelqu’un doit lui racheter les actions AMD à un prix plus élevé).

Tant que la roue tourne et aspire de nouveaux financements, la bulle peut gonfler sans que les entreprises qui utilisent les GPU de Nvidia n’aient besoin d’être rentables. Si elles le deviennent avant que la pompe à capitaux se grippe, le pari d’OpenAI sera gagné. Dans le cas contraire, l’éclatement de la bulle risque d’avoir des conséquences désastreuses, bien au-delà de la Silicon Valley. Ce qui explique pourquoi Sam Altman demande ouvertement à l’État fédéral de devenir un “prêteur en dernier recours”. Ces garanties publiques pourraient prendre la forme d’un plan de sauvetage. Évoquer cette possibilité constitue une manière détournée d’encourager les investisseurs à continuer d’alimenter la bulle, malgré l’accumulation des risques…

Les GPU, maillons faibles d’une chaine opaque

Si le gouvernement américain sauve OpenAI de la faillite et éponge les pertes des institutions financières les plus touchées, le secteur aura réussi un tour de force digne d’un programme communiste : construire une gigantesque infrastructure industrielle à partir de (presque) rien, sans se soucier des questions de rentabilité ou même de finalité, simplement en imprimant de l’argent. Nous n’y sommes pas encore. Différents mécanismes peuvent entrainer une explosion de la bulle, ou à minima, une correction importante des marchés.

En fin de chaine, la question de l’utilité commerciale des IA génératives continue de se poser. Différentes études montrent que le taux de succès du déploiement des IA génératives au sein des entreprises se situe entre 2 et 5 %. Autrement dit, les gains de productivité ne sont pas au rendez-vous, à l’exception de certains secteurs très particuliers. Même OpenAI reste très évasive quant à sa capacité à atteindre la rentabilité à moyen terme.

Le second maillon faible de la chaine de valeur se trouve du côté des data centers. Pour rentabiliser ces investissements, les firmes qui construisent de telles infrastructures doivent louer leur capacité de calcul aux entreprises vendant des IA (comme OpenAI) à un prix suffisamment élevé pour recouvrir leur mise de départ. Or, le tarif de l’heure de GPU baisse fortement depuis quelques mois (de $3.20/h à $2.80/h voir $2.12/h pour les GPU derniers cris, tandis que l’usage des GPU de 2020 n’est facturé que $0.40/h). Et ce n’est pas le seul problème: les GPU ont une durée de vie limitée, tant par leur tendance à être rapidement dépassés par des versions plus puissantes que par le fait qu’une partie d’entre eux grillent avant d’avoir atteint l’obsolescence. Ces processeurs fonctionnent en permanence et sont soumis à de fortes températures, ce qui réduit la durabilité de leurs composants.

Microsoft affirme que la durée de vie des GPU se situe entre 2 et 6 ans. Le secteur utilise un cycle de 6 ans pour calculer l’amortissement de ces actifs, sans avoir le recul nécessaire pour valider cette hypothèse. On nage dans l’inconnu, comme l’expliquait récemment Bloomberg News. Le boom de l’IA repose ainsi sur un triple pari : cette technologie doit permettre des gains de productivité massifs à court terme, elle est censée déboucher sur une IA générale toute puissante à moyen terme et, plus concrètement, nécessite que les GPU au cœur de cette industrie affichent une durée de vie suffisante. La dépréciation trop rapide de ces actifs pourrait contraindre les entreprises qui les possèdent à enregistrer des pertes comptables significatives. Comme un grand nombre d’emprunts sont garantis par les stocks de GPU eux-mêmes, de multiples acteurs pourraient se retrouver avec des créances “pourries” sur les bras. Toute ressemblance avec la crise des subprimes de 2008 serait purement fortuite…

Partager

Les doutes sur la viabilité des investissements dans les data centers expliquent pourquoi l’entreprise CoreWeave, dont le modèle économique repose sur la location de temps de GPU à des clients comme OpenAI, a vu son action chuter de 22 % suite à l’annonce de ses résultats. Pour les mêmes raisons, le cours d’Oracle dévisse depuis des semaines et la note de sa dette a été abaissée par des institutions influentes.

Les craintes sont amplifiées par le manque de transparence du secteur. Outre les montages financiers complexes et les investissements circulaires, on peut noter que de nombreux acteurs ne sont pas cotés en bourse et ne publient pas leurs résultats. C’est le cas d’OpenAI, xAI, Anthropic, Perplexity, Mistral… Quant à Google, Microsoft, Amazon et Meta, leurs comptes de résultat ne distinguent pas nécessairement l’origine de leurs revenus ni les couts associés à l’IA. Microsoft rapporte sous la même ligne comptable les revenus tirés de ses data centers et de son assistant IA “Copilot”, par exemple. Autant d’incertitudes qui alimentent les craintes d’une crise imminente.

La limite ne sera pas nécessairement financière

Ces deux premiers risques (logiciels d’IA non rentables du fait de la guerre des prix et du manque de clients ; data centers non rentables du fait de la faible durée de vie des GPU et de la baisse des tarifs) restent essentiellement économiques et financiers. Le troisième risque majeur est de nature physique et politique.

Pour être opérationnels, les centres de données doivent être construits. Ce qui nécessite d’obtenir les permis, de franchir les différentes étapes juridiques et administratives pour autoriser leur construction, d’obtenir les terrains, d’ériger les bâtiments et de les alimenter en électricité. Tout cela prend du temps, malgré les simplifications mises en place par l’administration Trump ou le gouvernement Macron.

Comme le reconnaissait maladroitement Sam Altman (PDG d’OpenAI), le principal frein serait le manque d’électricité. Le Departement of Energy américain estime que les annonces actuelles nécessiteront le déploiement de 134 GW de puissance supplémentaire d’ici cinq ans. Soit plus d’un quart de la consommation électrique américaine de 2024 ou près de trois fois celle de la France. Actuellement, les États-Unis ajoutent 12 GW de puissance par an. On est loin du rythme nécessaire, sans parler des conséquences environnementales et sociétales d’une telle montée en puissance.

Partager

Aux USA, l’organisation du marché de l’électricité est tel que le raccordement d’un data center au réseau existant tend à faire bondir les factures électriques des riverains. Les entreprises qui construisent leurs propres centrales pour contourner ce problème en créent de nouveaux : la forte pollution induite localement provoque la colère des populations locales et expose ces firmes à divers risques juridiques. Et l’électricité n’est pas le seul enjeu. La forte consommation en eau potable des circuits de refroidissement des data centers augmente également les factures des riverains tout en occasionnant des impacts environnementaux parfois problématiques. Les questions d’accès à l’eau se mêlent à celles des factures plus salées.

Tout cela explique l’impopularité croissante des data centers aux USA. Ils sont en passe de devenir un enjeu politique incontournable (et transpartisan : n’importe quel élu local qui ne s’engagerait pas à s’y opposer risque une sanction électorale). Les data centers promis par OpenAI pourraient ne pas voir le jour où arriver plus tardivement, envoyant des signaux négatifs aux marchés. Dans l’Indiana, Google a renoncé à la construction d’un data center d’un milliard de dollars suite aux pressions des riverains. À travers le pays, le mouvement de résistance s’accélère. Entre avril et juillet 2025, 98 milliards de dollars de data centers ont été retardés ou annulés, selon le site Data Center Watch. Une hausse par rapport à la période précédemment étudiée (mai 2024 - mars 2025), où 64 milliards de dollars de projets auraient été impactés.

Data Center Reform Coalition Press Conference
Opposition aux data centers en Virginie, photo via PECVA.org

Passé l’euphorie initiale, l’annonce des résultats trimestriels de Nvidia a provoqué de nombreux doutes. Il semblerait que la firme ait inclus dans son chiffre d’affaires des ventes pas encore encaissées. Ce qui peut s’expliquer par les délais de paiement, bien que ces derniers semblent particulièrement longs comparés aux standards du secteur. L’autre explication serait que les clients de Nvidia n’ont pas encore été livrés, ou n’ont pas encore été en mesure de mettre en services les GPU livrés. Dans tous les cas, il semble y avoir un goulot d’étranglement quelque part.

Confronté aux doutes suscités par la publication de ses résultats, Nvidia a publié une note à l’intention des analystes financiers dans laquelle elle écrit “nous ne sommes pas Enron”. La comparaison n’est pas flatteuse : l’énergéticien représentait la 7e capitalisation boursière américaine avant de battre le record de la plus grosse faillite de l’histoire du pays. Une chute provoquée par la découverte de l’ampleur du maquillage des comptes financiers de l’entreprise, qui avait recours à des montages rappelant ceux qu’on observe dans le domaine de l’IA avec les SPV.

Après le “DeepSeek Impact”, l’OVNI Gemini ?

La dernière inconnue pouvant provoquer l’effondrement de l’édifice financier au cœur de la ruée vers l’IA tient dans la nature du secteur en question. Il est question de technologie et d’innovation, dans un domaine qui évolue très rapidement. Les chocs disruptifs font partie du paysage.

Au début de l’année, l’irruption de l’IA chinoise DeepSeek avait fait souffler un vent de panique sur la Silicon Valley. Wall Street avait subi une correction boursière impactant aussi bien Nvidia que diverses entreprises de semi-conducteurs, data centers et fournisseurs d’électricité. En cause, le fait que DeepSeek égalait les performances des meilleurs modèles américains du moment pour une fraction du cout et sans avoir eu accès aux meilleurs GPU de Nvidia pour concevoir le modèle. Les doutes sur la véracité de ces faits et le cantonnement de DeepSeek au marché chinois avaient rapidement gommé les craintes des investisseurs. Mais le risque d’autres évènements de ce genre persiste.

Abonnez-vous maintenant

La semaine dernière, Google a publié la dernière version de Gemini, son propre LLM. Le modèle semble nettement supérieur à ChatGPT-5, du moins lorsqu’on le soumet aux critères d’évaluations utilisés par l’industrie. OpenAI a vu son avantage concurrentiel s’évaporer en quelques jours. Au point de provoquer une forme de panique au sein de l’entreprise, Sam Altman appelant ses employés à se mettre sur le pied de guerre.

Ce n’est pas tout. Gemini 3 n’a pas été entrainé à l’aide d’une armée de GPU Nvidia, mais sur les TPU de Google. Ce n’est pas une faute de frappe, j’ai bien écrit TPU, pour Tensor Processing Unit. Il s’agit d’un autre type de puces électroniques, conçues et produites par Google depuis 2016. Elles sont optimisées pour le calcul matriciel propre aux réseaux de neurones artificiels situés au cœur des IA génératives. Les TPU de Google ne sont pas nécessairement meilleurs que les GPU de Nvidia pour effectuer l’entrainement des modèles d’IA ou générer les inférences, mais ils sont suffisamment performants pour que Google se passe des GPU de Nvidia.

Non seulement Gemini 3 pourrait détruire l’avantage concurrentiel d’OpenAI, mais Google pourrait également s’attaquer au marché de Nvdia en commercialisant ses fameux TPU. Le risque est d’autant plus sérieux que Google dispose d’une puissance commerciale majeure et d’une capacité financière quasiment inégalée (100 milliards de dollars de réserve de liquidité, un taux d’endettement faible et des profits stables découlant de sa situation de monopole en matière de moteur de recherche). Meta serait déjà en discussion avec Google pour remplacer ses GPU par des TPU.

La sortie de Gemini 3 a provoqué une hausse de 8 % de l’action Google en une semaine, pendant que Nvidia et Oracle perdaient 8 et 13 % respectivement (et ce, après l’annonce des résultats meilleurs qu’escomptés de Nvidia). Sans tomber dans la pure spéculation, ce développement montre que les hypothèses sur lesquelles s’est construite la bulle IA peuvent être invalidées du jour au lendemain. ChatGPT pourrait rapidement devenir obsolète, les GPU de Nvidia pourraient ne plus valoir grand-chose, les créances ayant financés les data centers ne plus être remboursables, etc. Une simple baisse des profits de Nvidia pourrait allumer la mèche. Et gare à ceux qui se trouveront trop près des barils de poudre…


Merci de lire cette publication ! Pour soutenir mon travail, abonnez-vous gratuitement ou offrez-moi un café ici.

PDF
6 / 20
 Persos A à L
Carmine
Mona CHOLLET
Anna COLIN-LEBEDEV
Julien DEVAUREIX
Cory DOCTOROW
Lionel DRICOT (PLOUM)
EDUC.POP.FR
Marc ENDEWELD
Michel GOYA
Hubert GUILLAUD
Gérard FILOCHE
Alain GRANDJEAN
Hacking-Social
Samuel HAYAT
Dana HILLIOT
François HOUSTE
Tagrawla INEQQIQI
Infiltrés (les)
Clément JEANNEAU
Paul JORION
Michel LEPESANT
 
 Persos M à Z
Henri MALER
Christophe MASUTTI
Jean-Luc MÉLENCHON
MONDE DIPLO (Blogs persos)
Richard MONVOISIN
Corinne MOREL-DARLEUX
Timothée PARRIQUE
Thomas PIKETTY
VisionsCarto
Yannis YOULOUNTAS
Michaël ZEMMOUR
LePartisan.info
 
  Numérique
Blog Binaire
Christophe DESCHAMPS
Louis DERRAC
Olivier ERTZSCHEID
Olivier EZRATY
Framablog
Christophe LEBOUCHER
Romain LECLAIRE
Tristan NITOT
Francis PISANI
Irénée RÉGNAULD
Nicolas VIVANT
 
  Collectifs
Arguments
Blogs Mediapart
Bondy Blog
Dérivation
Économistes Atterrés
Dissidences
Mr Mondialisation
Palim Psao
Paris-Luttes.info
ROJAVA Info
 
  Créatifs / Art / Fiction
Nicole ESTEROLLE
Julien HERVIEUX
Alessandro PIGNOCCHI
Laura VAZQUEZ
XKCD
🌓