29.03.2026 à 19:30
Tristan Nitot
L’IA, quatrième “blessure narcissique“ de l’humanité ? Alain Damasio en est convaincu. On rappellera que les blessures narcissiques (au sens collectif par l’histoire des sciences, pas psychanalytique) concernent des découvertes qui s’opposent à l’anthropocentrisme
10.03.2026 à 19:19
Tristan Nitot

Vous vous souvenez de ce qu’est un Centaure ? Dans la mythologie grecque, c’est un monstre constitué d’un corps de cheval et d’un torse d’homme. Mais là, je vous parle de numérique.
Voici une citation traduite par mes soins de Cory Doctorow (l’auteur de SF) :
En théorie de l’automatisation, un centaure est une personne assistée par une machine. Le fait de conduire une voiture fait de vous un centaure, tout comme utiliser de l’autocomplétion (un logiciel qui finit vos phrases).
Un centaure inversé est une tête de machine sur un corps humain, une personne qui sert de corps de chair et de sang à une machine qui le pilote.
Pourquoi je vous parle de ça ? Parce que Burger King commence à utiliser l’IA pour donner des ordres aux employés (comme d’aller nettoyer les toilettes) et surveiller en permanence s’ils sont suffisamment polis avec les clients (en comptant le nombre de “bonjour”, “merci”, “je vous en prie”, “bonne journée”, etc.).
Burger King veut faire moderne avec l’IA, mais là, ils transforment le salariat (précaire) en esclavage numérique.
Il y a 45 ans, on imaginait le numérique comme émancipateur, quelque chose qui allait libérer l’humain. Steve Jobs parlait même souvent de l’ordinateur comme d’une “bicyclette pour l’esprit”, qui lui permettait d’aller plus vite, plus loin, d’être plus créatif. Pas de recevoir l’ordre d’aller nettoyer des toilettes.
C’est à quel moment qu’on a commencé à confondre “émancipation” avec “oppression” ?
28.02.2026 à 19:12
Tristan Nitot
26.02.2026 à 16:48
Tristan Nitot
Quand on m’a dit “Et si on utilisait l’IA pour optimiser une application et réduire son empreinte environnementale ?”, j’avoue que j’ai grincé des dents : a priori, utiliser l’IA (très gourmande) pour optimiser un truc moins gourmand, ça ne me paraissait pas très intelligent.
Sauf que l’IA générative a fait beaucoup de progrès, et qu’on sait de mieux en mieux s’en servir pour faire des choses étonnantes.
Il se trouve aussi que deux de mes brillants collègues (chez OCTO) se sont vu confier une mission par un grand client : moderniser une application développée par des stagiaires au fil des années.
Dans une certaine mesure, c’est le pire cauchemar des informaticiens : une application écrite par des débutants qui sont remplacés tous les ans et ont “oublié” de documenter leur travail (parce qu’on avait oublié de leur demander de le faire).
Et effectivement, avec près de 100 000 lignes de code, c’était une horreur.
Un peu comme un plat de spaghetti, mais géant, préparé par des apprentis cuisiniers, avec des dizaines de types de pâtes et de sauces différents.
Je passe les détails de la mission, mais en substance, on a deux ingénieurs OCTO assistés par IA face à cette masse informe de code. Elle fonctionne, mais il faut la moderniser, et bien sûr personne ne comprend comment elle fonctionne. Les stagiaires successifs sont partis depuis bien longtemps.
Cette application, il faudrait aussi la connecter à une nouvelle base de données plus moderne (l’excellent logiciel libre PostgreSQL) et au SSO de l’entreprise. Et si ça pouvait tourner plus vite, ça serait pas mal, parce que la page la plus utilisée a un temps de réponse moyen de 7 secondes.
Je vous passe les détails, mais mes deux collègues s’attellent à la tâche et les résultats tombent :
Des outils comme SonarQube donnent des indicateurs très révélateurs :
Alors oui, des humains auraient pu faire le job sans IA. Mais cela aurait été une mission vraiment horrible. Et surtout, ça aurait été beaucoup trop cher. Alors on aurait laissé dans l’état, avec des problèmes de sécurité qui ne demandent qu’à nous exploser à la figure, avec des utilisateurs frustrés qui font face à un outil lent et buggé, des ressources informatiques (du temps, de l’énergie, du matériel coûteux) gaspillées.
Bref, mon opinion sur l’utilisation de l’IA pour moderniser une base de code legacy a été sérieusement ébranlée.
P.S. : je ne suis pas en train de devenir un techno-béat de l’IA, j’ai longuement travaillé à recenser et diffuser les différents problèmes posés par cette technologie, par exemple dans la présentation L’humanité a-t-elle les moyens de s’offrir l’IA ?. J’essaye juste de recenser quand un usage raisonné de l’IA pourrait réduire l’empreinte du numérique. Voir par exemple les travaux sur EROOM.
26.02.2026 à 16:36
Tristan Nitot
Sam Altman, patron d’OpenAI, dans une interview, commet une erreur énorme quand il dit “Les gens parlent de l’énergie nécessaire à entraîner un modèle d’IA, mais cela consomme aussi beaucoup d’énergie pour entraîner un humain ! Cela prend genre 20 ans d’une vie et toute la nourriture nécessaire pendant ce temps-là pour devenir intelligent”.
C’est à la fois vrai… et complètement faux (et scandaleux) de mettre sur un pied d’égalité la machine et l’humain (voire la machine et le vivant dans son ensemble).
Avoir un monde rempli de machines mais sans humains et sans vivant n’a aucun intérêt.
Alors qu’un monde avec des êtres vivants et sans machines est non seulement envisageable, mais il a même été la règle depuis l’apparition de la vie il y a presque 4 milliards d’années. Rappelons que Homo Sapiens a 300 000 ans et que l’ancêtre de l’ordinateur, imaginé par Charles Babbage, l’a été en 1834, il y a moins de 200 ans. Le premier microprocesseur commercial, l’Intel 4004, a été lancé en 1971, il y a 55 ans.
Bref, le moment où les microprocesseurs ont existé représente 0,01833% du temps d’existence d’Homo Sapiens.
Enfin, devant l’ineptie énoncée par Sam Altman, il convient de rappeler que la première mission d’un individu vivant est la survie de l’espèce. Pas de prévoir sa disparition au nom d’un éventuel règne sans partage des machines.
(Post créé à 100 % SANS IA. Évidemment.)
14.02.2026 à 10:53
Tristan Nitot
Si ChatGPT devient le nouveau Google, cela implique que l’IA est en train de tuer le Web. Je m’explique :
Le Web, au départ, c’est que des humains écrivent des documents avec des hyperliens entre eux, ces documents comprenant du texte, une mise en page, des images, du son, des vidéos si nécessaire.

Et de l’autre côté de l’écran, des humains lisent les textes et naviguent entre ces documents en suivant les liens. Pour cela, ils utilisent un navigateur (un “user-agent” dans le jargon), un logiciel qui va chercher le document, le présente en interprétant le contenu, tout en préservant l’utilisateur des personnes mal-intentionnées qui peuvent se trouver sur le Web (lequel n’est pas peuplé que de bisounours).
Il arrive souvent que les utilisateurs trouvent le contenu initial via un moteur de recherche, qui est donc devenu indispensable dans l’expérience utilisateur. Accessoirement, le moteur de recherche affiche de la pub dans ses résultats et ça finance les éditeurs de navigateurs (Google, Apple, Mozilla & co).
Mais ça, c’était avant.

Maintenant, l’humain utilise son ChatBot IA, lui pose une question, l’IA lui donne une réponse (pas toujours juste mais qui sonne bien). Cette réponse a probablement été synthétisée en piochant dans le Web plus ou moins récemment, mais ça, l’utilisateur n’en sait rien. Il ne visite plus le Web, il n’a pas vu de pub, il n’a pas financé le site Web ni le moteur de recherche. Peut-être même utilise-t-il son ChatBot depuis une application mobile, donc sans passer par un navigateur.
Le Web n’a pas complètement disparu de l’équation, mais il est complètement invisibilisé.
Deuxième effet Kiss Cool : avec l’IA, l’information n’est plus produite par des humains mais par des machines. Donc le Web est inondé de contenus synthétiques d”intérêts variables (qui viendront à leur tour nourrir l’IA, ce qui est une idée… peu ragoutante).
La mer d’information qu’était le Web et que les humains “naviguaient” (comme on disait dans les années 1990) est devenu un océan pollué d’informations de qualité décroissante. Et les humains ne naviguent plus dessus, ils consomment un contenu synthétique qui en est issu.
On a remplacé un outil qui permettait aux humains de publier et d’accéder aux contenus proposés par d’autres humains (donc de communiquer et de se comprendre) par des outils où du contenu est généré par des machines qui est résumé par des machines. L’humain a quasiment disparu de l’équation.
Bref le Web est (bientôt) mort, tué par l’IA.
Peut-on alors inventer un nouveau Web, vraiment humain, sans IA, avec des barrières bloquant les IA ?
Si oui, à ce moment-là, on pourra alors crier “Le Web est mort, vive le Web”…