Jerôme Colombain
mis en ligne le 20.02.2026 à 07:11
.Elon Musk promet une “ère d’abondance” où tout deviendra presque gratuit, au point de rendre le travail optionnel. Derrière ce paradis technologique, quatre piliers très cohérents… et de grandes questions existentielles.
Chaque fois qu’il en a l’occasion, Elon Musk martèle l’idée d’un futur où la rareté disparaîtrait presque totalement, les biens, services et énergie deviendraient extrêmement bon marché, la pauvreté reculerait, et le niveau de vie moyen grimperait en flèche. Bref, une ère de formidable abondance.
Sur quoi repose cette théorie ? Sur quatre principaux moteurs.
Elon Musk mise d’abord sur la baisse radicale du coût du travail grâce à des robots humanoïdes par milliards, qui produiront sans relâche et pourront même fabriquer d’autres robots.
Ensuite, sur une super-IA chargée d’optimiser l’ensemble de la chaîne de valeur (logistique, production, planification), avec une productivité annoncée comme démultipliée.
Troisième levier : une énergie abondante et peu coûteuse, avec le solaire comme socle.
Enfin, l’automatisation de masse (robots + IA + énergie bon marché), qui ouvrirait la voie à des économies d’échelle inédites.
Dans ce récit, tout converge vers l’écosystème Musk : les robots avec Tesla (et son projet Optimus), l’IA avec xAI (et Grok), et l’infrastructure/énergie avec SpaceX.
Musk prévoit aussi des entreprises pilotées par des agents IA, capables de prendre des décisions, d’exécuter des tâches et, au besoin, de commander des robots dans le monde physique (projet “MacroHard”).
Selon Musk, cette prédiction devrait se réaliser très vite, dans à peine cinq à dix ans. Nous serions même déjà entré, en 2026, dans une forme de “singularité” où les machines dépassent les humains, ce qui va déclencher une accélération technologique exponentielle.
Cette accélération, toujours selon Musk, nécessiterait d’aligner les IA pour qu’elles ne se rebellent pas contre nous, pauvres humains. Pour cela, il faudrait leur “inculquer les bonnes valeurs”. C’est ce qu’il tente de faire avec Grok (😳).
Cette utopie soulève des interrogations : comment les richesses pourraient-elles être partagées redistribuées, dans un monde où la valeur est aujourd’hui massivement captée par les acteurs technologiques ? Surtout, la question intime et sociale : serons-nous capables de vivre dans une civilisation où le travail devient facultatif, même avec un revenu universel élevé ?
Pour prolonger sur Monde Numérique : Davos 2026 : l’IA au cœur du pouvoir mondial (Zoom Tech) • [L’HEBDO] Optimus de Tesla : robot ou marionnette ? • Edito – Elon Musk arrivera-t-il à dompter Grok ?
-----------
♥️ Soutien :
https://mondenumerique.info/don
🗞️ Newsletter :
https://mondenumerique.substack.com
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
mis en ligne le 18.02.2026 à 07:00
.Bienvenue à l’écoute d’INNOVATEURS, une nouvelle série de Monde Numérique consacrée à celles et ceux qui font l’innovation. Pour ce premier numéro, je reçois Jean-Baptiste Kempf, co-créateur du logiciel VLC, figure de l’open source, aujourd’hui à l’origine du projet Kyber.
Punchlines
- Refuser l’argent sur VLC, c’était la bonne chose à faire.
- L’open source, ça appartient à tout le monde.
- Innover, c’est déplacer l’état de l’art.
- La qualité pour innover, c’est ne pas avoir peur.
- L’IA est un accélérateur, pas un remplaçant.
C'est une histoire qui fait désormais partie de la saga française des technologies. Au début des années 2000, des étudiants de l'école Centrale Paris créent VLC, un logiciel capable de lire tous les formats vidéo. Cela deviendra le logiciel français le plus téléchargé au monde, utilisé par des centaines de millions de personnes. Jean-Baptiste Kempf, co-créateur de VLC, raconte cette aventure. Il dévoile l’envers du décor, comment une technologie open source a suscité bien des appétits, et il explique pourquoi il a refusé des offres de rachat mirobolantes. Il raconte aussi ce qui se cache derrière VLC : les cyberattaques, les fausses versions et les tentatives de détournement. Il partage aussi son parcours hors VLC, avec Shadow, Vente Privée, Scaleway et aujourd'hui Kyber, une solution de transmission à très faible latence pour contrôler à distance ordinateurs, robots ou drones, en open source avec une licence commerciale. Enfin, il livre sa vision de l'innovation qui, pour lui, consiste à “déplacer l’état de l’art", à condition de "ne faut pas avoir peur". L'occasion d'évoquer la culture du risque et de l’échec en France. Il se confie également sur son usage de l'IA, un “super stagiaire” pour coder plus vite, qui ne remplace pas l'humain, mais qui pose un vrai défi pour la formation des juniors.
VLC n’a pas été conçu comme un produit standard. C’est l'aboutissement de plusieurs projets étudiants à Centrale, liés au réseau du campus. À l’origine, il y avait l’idée de faire transiter un flux vidéo sur le réseau local, et ensuite le projet a été relancé en open source. Il a fallu trois ans pour convaincre l’école de passer en licence GPL, et ça s’est fait le 1er février 2001. Le logiciel “client” s’appelait Vidéolan Client, puis c’est devenu VLC, et la plupart des gens l’utilisent juste comme lecteur vidéo.
Parce que cela n'aurait pas été moral. VLC n’est pas à moi, c’est des milliers de personnes qui ont contribué, des générations d’étudiants. On aurait pu faire énormément d’argent avec notre base installée énorme, surtout via la marque et le site web. Mais détruire la confiance, détruire la communauté en deux ans “par calcul”, je ne pouvais pas. Je n’aurais pas pu dormir la nuit. Donc j’ai refusé des sommes à huit chiffres.
Kyber, c’est hérité de Shadow, où je suis passé également : c'est l’idée de contrôler des machines à distance, avec de très faibles latences. Ça peut être des ordinateurs puissants avec GPU pour l’IA, du rendu 3D ou du gaming, mais aussi des drones, des robots, des véhicules autonomes qui ne sont pas totalement autonomes. On apporte les briques réseau, l’encodage/décodage vidéo à très faible latence, et la synchronisation de tous les flux : audio, vidéo, capteurs, clavier, souris, gamepad. Et il faut aussi s’adapter aux conditions réseau, sans pouvoir “attendre” comme Netflix : quand tu contrôles un robot, c’est la vraie vie.
Pour moi, innover, c’est déplacer l’état de l’art : soit en recherche, soit avec des produits vraiment nouveaux. Le problème, c’est quand tout le monde se dit innovant : à la fin, plus personne ne l’est. Et la qualité indispensable, c’est ne pas avoir peur. En France, on a eu un vrai changement culturel : l’échec fait moins peur, beaucoup plus de diplômés veulent aller en start-up qu’avant. Et il faut éviter la monoculture : c’est la diversité qui fait apprendre.
-----------
♥️ Soutien :
https://mondenumerique.info/don
🗞️ Newsletter :
https://mondenumerique.substack.com
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
mis en ligne le 17.02.2026 à 07:00
.Les agents IA sont déjà capables d’accomplir plusieurs heures de travail en autonomie, et leur progression s’accélère. Pour Aymeric Roucher, l’enjeu n’est plus l’AGI, mais la montée en puissance concrète d’une “ultra-intelligence” qui redéfinit les équilibres économiques et géopolitiques.
Punchlines
- L’AGI est un concept flou et peu utile.
- L’impact réel des IA est la vraie métrique.
- L’horizon d’autonomie double tous les sept mois.
- La puissance de calcul décide des gagnants.
- L’eau monte partout pour les métiers.
Le concept d’AGI repose sur l’idée d’une IA au moins aussi performante que l’humain dans tous les domaines. Mais cette définition est floue : de quel humain parle-t-on ? Sur quels domaines ? Et comment mesure-t-on cela ? Ce qui m’intéresse davantage, c’est l’impact réel. Une IA peut être moins bonne que nous sur certains aspects sans importance et pourtant transformer le monde si elle est capable d’accomplir des tâches à très haute valeur ajoutée. C’est pour dépasser cette vision binaire que j’ai choisi le terme d’“ultra-intelligence” dans mon livre Ultra-intelligence – Jusqu'où iront les IA ? (Odile Jacob).
Plutôt que de débattre d’une intelligence abstraite, je regarde combien de temps une IA peut travailler seule sur une tâche avec un taux de succès satisfaisant. En 2010, l’IA faisait de l’auto-complétion en une fraction de seconde. Avec les premiers grands modèles conversationnels, elle gérait des tâches de quelques secondes. Aujourd’hui, certains agents atteignent plusieurs heures d’autonomie, avec environ 50 % de succès sur des tâches qui prendraient jusqu’à sept heures à un humain. Selon les mesures publiées, cet horizon d’autonomie double environ tous les sept mois. Si cette tendance se poursuit, on parle bientôt de tâches équivalentes à une semaine de travail.
Il existe ce qu’on appelle des lois d’échelle : multiplier par dix la puissance de calcul utilisée à l’entraînement permet d’atteindre un palier supérieur d’intelligence de manière prévisible. C’est pour cela que les grands laboratoires lèvent des montants colossaux et construisent d’immenses centres de calcul. La puissance financière, combinée au talent des ingénieurs, devient déterminante. Les chercheurs eux-mêmes choisissent souvent leur laboratoire en fonction du nombre de GPU auxquels ils auront accès. Tant que l’Europe ne disposera que d’une fraction marginale de la puissance de calcul mondiale, elle restera structurellement en retard.
Le problème de l’alignement est réel : il faut s’assurer que l’IA fait ce qu’on attend d’elle. Des expériences ont montré que des comportements inattendus peuvent émerger. Mais je pense que le risque le plus crédible n’est pas une IA qui décide seule de prendre le pouvoir. Le danger vient plutôt d’acteurs humains disposant d’IA très puissantes. Il n’est pas nécessaire qu’une machine “se rebelle” pour que les conséquences soient majeures.
À mesure que l’intelligence progresse, elle franchit des seuils qui rendent des métiers accessibles. La traduction écrite a été rapidement automatisée. Le développement logiciel est en train de suivre. Dans beaucoup de professions, il restera un expert capable de superviser et d’optimiser le travail des IA. Mais cet expert pourra faire le travail de dizaines d’autres. L’eau monte partout. Ce ne sera pas un ajustement marginal, mais une transformation profonde.
-----------
♥️ Soutien :
https://mondenumerique.info/don
🗞️ Newsletter :
https://mondenumerique.substack.com
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
mis en ligne le 16.02.2026 à 07:20
.On évoque les démissions fracassantes dans le secteur de l’IA et les déclarations alarmistes qui ravivent des inquiétudes par rapport à l'IA : risques de manipulation, automatisation accélérée, impact sur l'emploi, usages dangereux, etc. Mais des parades existent.
Avec Bruno Guglielminetti (Mon Carnet)
Vous ne vous rendez pas compte mais quelque chose d'énorme est en train d'arriver... Des collaborateurs d'entreprises d'IA claquent la porte et alertent sur les risques de dérives. Que faut-il en déduire ? Au-delà des scénarios façon science-fiction, quels sont les scénarios les plus tangibles ? Des modèles trop puissants, mis trop vite à disposition, pourraient faciliter des attaques massives (cyber) ou la création d’outils de nuisance à grande échelle. A quel moment l'IA deviendra-t-elle un sujet de sécurité globale ?
Au Royaume-Uni, l’idée d’un revenu universel revient dans le débat, en lien direct avec les destructions d’emplois liées à l’IA. Le principe : aider les secteurs “victimes” de la numérisation. Particularité : celui-ci pourrait être financé par les entreprises technologiques. Une proposition choc.
Retour en Europe : la dépendance aux géants américains redevient un sujet brûlant. Nous évoquons le scénario d’une coupure de services — ou plus insidieux, d’une dégradation volontaire (latence, qualité) — tant la chaîne est dominée par les GAFAM : logiciels, cloud, hardware, câbles, infrastructures. La prise de conscience progresse, mais les réponses restent difficiles à industrialiser à l’échelle du continent. Quelles alternatives ?
-----------
♥️ Soutien :
https://mondenumerique.info/don
🗞️ Newsletter :
https://mondenumerique.substack.com
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
mis en ligne le 14.02.2026 à 07:00
.Impact sur l'emploi, utilisation malveillante, perte de contrôle... L'intelligence artificielle soulève toujours autant d'interrogations et d'inquiétudes. Des démissions jettent le trouble et alimentent les questionnements. Et aussi : l'actu de la semaine.
💡Découvrez Frogans, l’innovation française qui réinvente le Web [PARTENARIAT]
ByteDance frappe fort avec Seedance 2.0, un modèle de génération vidéo présenté comme le plus avancé au monde. L’outil, lancé en Chine, impressionne par la qualité visuelle… mais surtout sonore, avec des voix et des ambiances d’un réalisme inédit. Au-delà du buzz, cette nouvelle étape relance la compétition technologique entre la Chine et les États-Unis, notamment face aux modèles d’OpenAI et de Google. Si le long métrage 100 % IA reste hors de portée, la frontière entre réel et synthétique devient presque indiscernable.
Waymo, filiale de Google, entraîne désormais ses véhicules grâce à des simulations ultra-réalistes, capables d’intégrer des situations improbables. Objectif : exposer les voitures à des scénarios qu’elles ne rencontreraient jamais assez souvent dans la vraie vie. Cette approche par “world models” ouvre une nouvelle phase dans la course à l’autonomie, suivie aussi par Tesla et Nvidia. L’enjeu est clair : fiabiliser des systèmes appelés à circuler dans des environnements complexes et imprévisibles.
Selon le Baromètre du numérique, 48 % des Français ont utilisé un outil d’IA en 2025, soit deux fois plus qu’il y a deux ans. Une progression bien plus rapide que celle d’Internet ou du smartphone à leurs débuts. L’IA est principalement utilisée pour la recherche d’informations et la production de contenus (résumés, traductions, code). Mais une étude publiée par la Harvard Business Review nuance l’enthousiasme : si l’IA accroît la productivité, elle tend aussi à allonger les journées de travail et à brouiller la frontière entre vie professionnelle et personnelle.
La start-up française Mistral AI investit massivement dans ses infrastructures, avec un nouveau centre de données en Suède. Objectif : renforcer sa capacité de calcul et s’imposer comme champion européen.
Parmi ses actionnaires figure ASML, acteur clé des machines de fabrication de puces. Un symbole fort dans une Europe qui cherche à consolider sa souveraineté technologique face aux géants américains.
Le gouvernement français a annoncé la fin de l’hébergement du Health Data Hub par Microsoft. En cause : les inquiétudes liées au Cloud Act américain et à la souveraineté des données de santé. Un appel d’offres vise désormais un hébergeur européen certifié SecNumCloud. Un tournant politique et symbolique dans le débat sur la maîtrise des infrastructures critiques.
La société de vérification d’identité Sumsub a révélé une intrusion datant de 2024. Des données liées à des acteurs financiers et crypto auraient été exposées. L’affaire intervient en plein débat sur la vérification d’âge en ligne, soulignant la fragilité persistante des systèmes censés protéger les utilisateurs.
OpenAI introduit des liens sponsorisés dans ChatGPT aux États-Unis. En France, un partenariat avec Le Bon Coin permet d’effectuer des recherches via le chatbot. Mais une étude de l’Université d’Oxford publiée dans Nature Medicine tempère l’enthousiasme : seuls 37 % des diagnostics simulés par des utilisateurs non médecins étaient fiables. Le taux grimpe à 95 % lorsque l’outil est utilisé par des professionnels de santé.
Avec Bruno Guglielminetti – du podcast Mon Carnet – retour sur une série de départs remarqués dans les grandes entreprises d’IA, notamment Mrinank Sharma, d'Anthropic, et Zoë Hitzig, d'OpenAI. Entre inquiétudes éthiques, publicité ciblée et risques systémiques, ces démissions relancent la question : l’IA va-t-elle trop vite pour ses propres créateurs ?
Aymeric Roucher – ingénieur en machine learning, auteur de Ultra Intelligence (Odile Jacob) – analyse les peurs contemporaines : IA rebelle, bulle financière, alignement, souveraineté européenne. Il égratigne au passage les positions de Yann LeCun et défend une vision plus nuancée : la question n’est pas tant celle d’un “Skynet” que celle des usages malveillants et des équilibres géopolitiques.
Dans notre nouveau format “Innovateurs”, Jean-Baptiste Kempf – co-créateur de VLC media player – partage son regard sur le “vibe coding” et l’IA pour programmer. Selon lui, ces outils sont formidables pour les profils expérimentés, mais posent une question cruciale : comment former les développeurs de demain si l’IA fait disparaître les étapes d’apprentissage ?
-----------
♥️ Soutien :
https://mondenumerique.info/don
🗞️ Newsletter :
https://mondenumerique.substack.com
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
mis en ligne le 13.02.2026 à 07:00
.Les voitures autonomes actuelles ne sont pas encore capables de rouler partout sans préparation. Waymo affirme franchir une étape clé grâce aux “World Models” capables de générer des situations de conduite ultra-réalistes pour mieux affronter l’inattendu.
Les véhicules autonomes qui circulent aujourd’hui aux États-Unis ou en Chine sont de niveau 4. Cela signifie qu’ils fonctionnent dans des zones précises, après avoir été longuement entraînés dans ces environnements. Ils ne disposent pas encore de la capacité d’adaptation universelle d’un conducteur humain, capable de faire face à n’importe quelle situation, dans n’importe quelle ville et sous n’importe quelle météo.
La limite des systèmes actuels tient à leur apprentissage. Ils excellent dans des contextes qu’ils connaissent déjà, mais peuvent être pris en défaut face à des événements rares : véhicule à contresens, conditions météorologiques extrêmes, obstacle inattendu ou comportement imprévisible d’un autre usager. Pour viser le niveau 5 — l’autonomie totale — il faut élargir considérablement la palette des situations rencontrées pendant l’entraînement.
Waymo mise sur une approche fondée sur un modèle génératif capable de créer des environnements de conduite photoréalistes et interactifs à partir de simples vidéos en deux dimensions. Le système reconstitue des scènes en trois dimensions dans lesquelles le logiciel de conduite autonome peut évoluer comme en conditions réelles. Ce dispositif permet de générer à la demande des scénarios très variés : tempête de neige sur le Golden Gate, tornade soudaine, rue tropicale enneigée ou événements improbables comme des objets mal arrimés sur un toit de voiture, un animal sauvage surgissant sur la chaussée ou un piéton déguisé de manière insolite. L’intérêt est de confronter le système à des milliards de variations d’un même scénario, afin d’améliorer sa capacité d’adaptation.
Selon l’entreprise, cette méthode serait plus rapide, moins coûteuse et plus stable que les simulateurs traditionnels. Elle permettrait d’accélérer l’apprentissage tout en testant des situations difficiles, voire dangereuses, impossibles à reproduire facilement dans le monde réel. Reste une question centrale : un entraînement massif dans des univers simulés suffira-t-il à reproduire la souplesse de jugement d’un conducteur humain ? Car face à une situation extrême, les réactions varient d’une personne à l’autre. Les World Models représentent sans doute une avancée majeure. Mais la route vers une autonomie totale, capable de s’adapter partout et en toutes circonstances, demeure un défi technologique et éthique de premier plan.
-----------
♥️ Soutien :
https://mondenumerique.info/don
🗞️ Newsletter :
https://mondenumerique.substack.com
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
mis en ligne le 12.02.2026 à 07:00
.Près d’un Français sur deux utilise désormais l’intelligence artificielle, selon le dernier baromètre des usages numériques du gouvernement. Un engouement spectaculaire qui s’accompagne pourtant d’une méfiance persistante et d’un étrange paradoxe social.
L’intelligence artificielle s’installe rapidement dans le quotidien des Français. D’après le baromètre annuel des usages numériques présenté par le gouvernement, 48 % des Français ont utilisé un outil d’IA en 2025, contre à peine 20 % en 2023. Une progression fulgurante, plus rapide que celle d’Internet ou du smartphone à leurs débuts, comme l’a souligné la ministre déléguée à l’IA et au numérique.
L’usage de l’IA varie fortement selon les générations. Les 18-24 ans affichent des taux d’utilisation compris entre 60 % et 77 %, tandis que les seniors restent à la traîne, avec seulement 15 % d’utilisateurs. Les cadres et professions intellectuelles supérieures figurent parmi les plus gros utilisateurs.
Côté usages, l’IA générative sert avant tout à produire ou améliorer du contenu : rédaction et traduction de textes, recherche d’idées, génération de code. Pour la recherche d’informations, les moteurs traditionnels restent dominants (59 % des usages), loin devant les outils d’IA (28 %), dont la fiabilité demeure sujette à caution en raison des risques d’erreurs ou d’« hallucinations ».
Parmi les plateformes les plus utilisées, ChatGPT écrase la concurrence avec huit utilisateurs sur dix. Derrière lui, Gemini de Google et Le Chat de Mistral complètent le podium.
À l’échelle internationale, la France se positionne dans le top 5 mondial pour l’adoption grand public de l’IA générative, derrière les Émirats arabes unis, Singapour, la Norvège et l’Irlande, selon un classement établi par Microsoft. Surprise : les États-Unis n’arrivent qu’en 24e position.
Malgré cet enthousiasme, plus de la moitié des utilisateurs restent méfiants. Les inquiétudes portent sur la protection des données personnelles, la fiabilité des réponses, mais aussi sur les impacts sociétaux : emploi, déshumanisation, empreinte environnementale.
Si l’IA séduit, son usage n’est pas toujours assumé. Selon une analyse relayée par la journaliste Emily Turrettini, utiliser l’IA pour rédiger des contenus peut nuire à la crédibilité perçue. Les auteurs seraient jugés moins intelligents, moins originaux, voire moins dignes d’intérêt.
Dans les médias, la transparence sur l’usage de l’IA devient une exigence. Mais cette transparence alimente parfois la défiance des lecteurs, qui traquent les indices stylistiques associés aux chatbots : formules stéréotypées, plans en trois parties, conclusions très structurées, ou encore usage abondant du tiret long, devenu symbole de “l’écriture IA”. Ironie de l’histoire : les imperfections humaines, fautes comprises, seraient désormais perçues comme un gage d’authenticité. Résultat, beaucoup pratiquent le “shadow AI”, utilisant ces outils au travail sans le dire.
-----------
♥️ Soutien :
https://mondenumerique.info/don
🗞️ Newsletter :
https://mondenumerique.substack.com
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
mis en ligne le 11.02.2026 à 07:00
.Énergie, data centers, IA : l’Europe a plus d’atouts qu’on ne le pense. Julien Villeret explique pourquoi la souveraineté énergétique est la clé du numérique.
Punchlines
- Sans data centers, il n’y a pas d’IA.
- L’électricité décarbonée est un avantage stratégique européen.
- Tout ne doit pas être souverain, mais le critique doit l’être.
- L’Europe sous-estime ses propres atouts.
- La souveraineté énergétique conditionne la souveraineté numérique.
On n’a clairement pas été parfait, mais dire que tout est perdu est faux. L’Europe dispose encore d’atouts majeurs, à commencer par une électricité abondante, pilotable, décarbonée et relativement peu chère. Aujourd’hui, les acteurs mondiaux de l’IA parcourent la planète à la recherche d’électricité, et cet avantage est structurellement très fort en Europe, même si on a tendance à le sous-estimer.
Chercher de l’or est passionnant, mais pour en trouver, il faut des pelles. Les data centers sont ces pelles : l’outil indispensable pour faire de l’IA et du numérique. Il en faut déjà beaucoup pour répondre à la demande actuelle, et il en faudra encore davantage pour accompagner le développement massif de ces technologies.
Nous avons lancé des appels à manifestation d’intérêt pour aider à installer rapidement de grands data centers en France. Nous proposons des terrains, des sites existants et des raccordements rapides à l’électricité nucléaire française. Trois contrats ont déjà été signés en Seine-et-Marne et en Moselle, et de nouveaux projets sont en cours, notamment sur des sites d’anciennes centrales thermiques.
-----------
♥️ Soutien :
https://mondenumerique.info/don
🗞️ Newsletter :
https://mondenumerique.substack.com
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
mis en ligne le 10.02.2026 à 07:00
.Des intelligences artificielles qui échangent sur leur propre réseau social, des agents capables d’agir seuls sur nos ordinateurs, et une relation humain-machine qui s’inverse. Nicolas Guyon décrypte l’émergence de Moltbook et d’OpenClaw, une nouvelle étape spectaculaire de l’IA agentique.
Punchlines
- Moltbook est le Web 2.0 des agents.
- Pour la première fois, les IA communiquent entre elles.
- Les agents ont des mains et peuvent agir sur nos ordinateurs.
- Nous devenons les animaux de compagnie des IA.
- On se rapproche d’une intelligence artificielle générale.
En quelques jours seulement, plus d’un million d’agents ont été connectés à Moltbook. Ces IA “dialoguent” entre elles, comme le feraient des humain sur le réseau social Reddit. Cela ressemble à une farce mais, même si des humains sont derrière, ce phénomène est révélateur d’une forme d’autonomie des agents. Rassurons-nous, cela ne veut pas dire pour autant que les machines ont pris le pouvoir.
OpenClaw est un outil qui permet d’installer et de faire fonctionner un agent IA sur un ordinateur personnel. On n’interagit plus avec un outil générique, mais avec un agent dédié qui évolue dans son propre environnement de travail. C’est comme si l’IA pouvait utiliser un clavier, une souris et un bureau virtuel.
Un agent basé sur OpenClaw peut ouvrir des applications, remplir des formulaires, envoyer des emails, générer des fichiers ou produire des tableaux de bord. Tout ce qu’un humain peut faire derrière un ordinateur devient potentiellement accessible à l’agent. C’est comme s’ils avaient des mains. Toutefois, cela soulève de gros problèmes de sécurité, ce qui conduit à l’installer des ordinateurs dédiés.
C’est un agent IA qui fonctionne sur une logique de prédiction et d’engagement. Sur Moltbook, il identifie des sujets porteurs et s’y positionne. La question de la rémunération des agents est devenue un sujet viral, ce qui l’a amené à s’en emparer sans que je l’aie guidé dans ce sens.
Jusqu’à présent, l’IA assistait ponctuellement. Aujourd’hui, avec un agent autonome, on délègue des tâches complètes sur la durée, avec de la mémoire et des automatismes. C’est ce que j’explique régulièrement dans le podcast Comptoir IA : on passe d’un copilote à un véritable collaborateur numérique. C’est une étape majeure.
-----------
♥️ Soutien :
https://mondenumerique.info/don
🗞️ Newsletter :
https://mondenumerique.substack.com
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
mis en ligne le 09.02.2026 à 07:00
.Alors que le réseau social X fait l'objet d'une offensive judiciaire en France, Elon Musk accélère tous azimuts côté IA et espace avec le rapprochement de Xai et SpaceX.
Avec Bruno Guglielminetti (Mon Carnet)
La justice française frappe fort avec une perquisition au siège français de X et la convocation d’Elon Musk en audition libre (annoncée pour le 20 avril 2026), sur fond d’enquête liée à la modération, au fonctionnement de la plateforme et à des contenus illicites. L’épisode met surtout en lumière le choc culturel : la liberté d’expression “à l’américaine” face au cadre légal français et européen, notamment sur les contenus haineux ou négationnistes, avec en toile de fond la question (explosive) d’une éventuelle interdiction.
On revient sur le rapprochement spectaculaire entre l’IA de Musk (et son assistant Grok) et l’écosystème spatial, avec l’idée vertigineuse de faire converger puissance de calcul et infrastructure orbitale. Derrière le gigantisme, l’épisode défend une logique stratégique : énergie, foncier, souveraineté industrielle… et course mondiale à l’IA, où “ralentir” revient à se faire distancer.
Après la décision de la France de faire interdire les réseaux sociaux aux moins de 15 ans, l'Espagne lui emboite le pas et annonce à son tour une interdiction aux moins de 16 ans. Un effet domino destiné à peser sur Bruxelles.
Anthropic choisit une posture “sans pub” pour Claude et raille le scénario d’assistants IA qui glissent des annonces au milieu de conversations intimes. En face, OpenAI explique tester la publicité sur certaines offres de ChatGPT (avec l’engagement de séparer clairement pub et réponses), relançant le débat sur l’influence commerciale dans l’IA conversationnelle.
Bruno évoque l'arrivée d’Alexa+ au Canada, en attendant son lancement en Europe. Un assistant vocal plus fluide, plus conversationnel, capable de gérer des tâches de manière proactive, et accessible aussi via le web.
(Re)voir : Alexa sort le grand jeu et devient vraiment intelligente.
-----------
♥️ Soutien :
https://mondenumerique.info/don
🗞️ Newsletter :
https://mondenumerique.substack.com
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
mis en ligne le 07.02.2026 à 07:00
.Cette semaine, Monde Numérique décrypte un tournant majeur de l’intelligence artificielle avec l’essor fulgurant des agents autonomes. De la tech interplanétaire d’Elon Musk à la souveraineté énergétique européenne, une actualité vertigineuse.
💡Découvrez Frogans, l’innovation française qui réinvente le Web [PARTENARIAT]
Des réseaux sociaux réservés aux intelligences artificielles, des agents capables de collaborer entre eux et même d’embaucher des humains : l’IA franchit un nouveau seuil d’autonomie. Moltbook, OpenClaw, RentHuman... Pris isolément, ces projets peuvent sembler anecdotiques. Mis bout à bout, ils dessinent un écosystème d’IA capables d’interagir, de coopérer et d’agir dans le monde réel sans supervision directe. Une dynamique qui pose une question centrale : à partir de quand l’IA devient-elle un acteur économique à part entière ? On analyse cette “semaine des agents”, qui pourrait bien marquer un basculement durable dans notre rapport aux machines, avec Nicolas Guyon, de Comptoir IA.
Anthropic dévoile Claude Opus 4.6 tandis qu’OpenAI réplique avec GPT-5.3 Codex, deux modèles toujours plus performants, notamment en programmation. Une course technologique qui confirme la prophétie de Dario Amodei : demain, les machines écriront le code à notre place.
Elon Musk fusionne SpaceX et xAI pour bâtir un géant technologique valorisé à plus de 1 200 milliards de dollars. Objectif : déployer l’intelligence artificielle jusque dans l’espace. Analyse et mise en perspective avec Bruno Guglielminetti, Mon Carnet, lors du débrief transatlantique.
Perquisitions, convocations judiciaires et accusations de dérives algorithmiques : la France serre la vis face au réseau social X et à son IA Grok. Un dossier explosif qui relance le débat sur la responsabilité des plateformes et la liberté d’expression.
Anthropic refuse toute publicité dans ses IA quand OpenAI explore de nouveaux formats. Une confrontation idéologique qui révèle les tensions autour de la monétisation de l’intelligence artificielle et de la confiance des utilisateurs.
[PARTENARIAT] La souveraineté numérique passe par l’électricité. Julien Villeret, directeur de l'innovation d'EDF, explique pourquoi l’énergie décarbonée et abondante pourrait redonner un avantage stratégique à la France et à l’Europe dans la course mondiale à l’IA.
-----------
♥️ Soutien :
https://mondenumerique.info/don
🗞️ Newsletter :
https://mondenumerique.substack.com
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
mis en ligne le 06.02.2026 à 07:00
.Et si le rapport de force entre humains et intelligences artificielles était en train de s’inverser ? Un nouveau service expérimental brouille les lignes entre monde numérique et réalité physique.
On imaginait jusqu’ici des humains pilotant des intelligences artificielles. Or, un concept émergent propose exactement l’inverse : des IA qui confient des missions à des humains… et les rémunèrent. C’est le principe de Rent a Human, une plateforme atypique où des agents d’intelligence artificielle peuvent demander à des personnes réelles d’exécuter des tâches qu’ils ne peuvent pas accomplir eux-mêmes.
Ces missions peuvent être très concrètes : aller récupérer un colis, prendre une photo sur un lieu précis, poster un objet ou vérifier une information sur le terrain. D’autres sont purement numériques, comme créer un compte en ligne ou résoudre un captcha. Les rémunérations varient de quelques centimes à plusieurs dizaines d’euros, souvent payées en cryptomonnaie.
Le fonctionnement rappelle celui des plateformes de micro-travail, à une différence majeure : ici, les donneurs d’ordre sont des intelligences artificielles autonomes. Ces agents publient leurs besoins, des humains répondent s’ils sont géographiquement disponibles, exécutent la mission et sont payés une fois la tâche validée.
Derrière ce modèle se dessine une nouvelle forme d’économie de services, hybride, dans laquelle les IA deviennent des acteurs économiques à part entière, capables de dépenser de l’argent pour atteindre leurs objectifs.
La plateforme serait liée à Alexander Liteplo, un ingénieur issu de l’écosystème crypto. Son approche s’inscrit dans la mouvance des agents IA autonomes : des logiciels dotés d’un portefeuille, capables de prendre des décisions et d’interagir avec le monde via des API… et désormais via des humains.
Bien sûr, ces agents ne sont pas totalement indépendants : derrière eux se trouvent toujours des personnes qui fixent les objectifs globaux. Mais l’exécution intermédiaire est confiée à la machine, qui décide quand et comment faire appel à un humain.
Pour l’instant, Rent a Human reste un projet expérimental, parfois ludique, parfois dérangeant. Mais il pose une question de fond : si demain des milliers d’agents autonomes peuvent déléguer des tâches physiques partout dans le monde, le vrai enjeu ne sera peut-être plus ce que l’IA peut faire, mais ce que l’humain peut encore apporter — et pour quelle IA il travaillera.
-----------
♥️ Soutien :
https://mondenumerique.info/don
🗞️ Newsletter :
https://mondenumerique.substack.com
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.