Jerôme Colombain
mis en ligne le 17.02.2026 à 07:00
.Les agents IA sont déjà capables d’accomplir plusieurs heures de travail en autonomie, et leur progression s’accélère. Pour Aymeric Roucher, l’enjeu n’est plus l’AGI, mais la montée en puissance concrète d’une “ultra-intelligence” qui redéfinit les équilibres économiques et géopolitiques.
Punchlines
- L’AGI est un concept flou et peu utile.
- L’impact réel des IA est la vraie métrique.
- L’horizon d’autonomie double tous les sept mois.
- La puissance de calcul décide des gagnants.
- L’eau monte partout pour les métiers.
Le concept d’AGI repose sur l’idée d’une IA au moins aussi performante que l’humain dans tous les domaines. Mais cette définition est floue : de quel humain parle-t-on ? Sur quels domaines ? Et comment mesure-t-on cela ? Ce qui m’intéresse davantage, c’est l’impact réel. Une IA peut être moins bonne que nous sur certains aspects sans importance et pourtant transformer le monde si elle est capable d’accomplir des tâches à très haute valeur ajoutée. C’est pour dépasser cette vision binaire que j’ai choisi le terme d’“ultra-intelligence” dans mon livre Ultra-intelligence – Jusqu'où iront les IA ? (Odile Jacob).
Plutôt que de débattre d’une intelligence abstraite, je regarde combien de temps une IA peut travailler seule sur une tâche avec un taux de succès satisfaisant. En 2010, l’IA faisait de l’auto-complétion en une fraction de seconde. Avec les premiers grands modèles conversationnels, elle gérait des tâches de quelques secondes. Aujourd’hui, certains agents atteignent plusieurs heures d’autonomie, avec environ 50 % de succès sur des tâches qui prendraient jusqu’à sept heures à un humain. Selon les mesures publiées, cet horizon d’autonomie double environ tous les sept mois. Si cette tendance se poursuit, on parle bientôt de tâches équivalentes à une semaine de travail.
Il existe ce qu’on appelle des lois d’échelle : multiplier par dix la puissance de calcul utilisée à l’entraînement permet d’atteindre un palier supérieur d’intelligence de manière prévisible. C’est pour cela que les grands laboratoires lèvent des montants colossaux et construisent d’immenses centres de calcul. La puissance financière, combinée au talent des ingénieurs, devient déterminante. Les chercheurs eux-mêmes choisissent souvent leur laboratoire en fonction du nombre de GPU auxquels ils auront accès. Tant que l’Europe ne disposera que d’une fraction marginale de la puissance de calcul mondiale, elle restera structurellement en retard.
Le problème de l’alignement est réel : il faut s’assurer que l’IA fait ce qu’on attend d’elle. Des expériences ont montré que des comportements inattendus peuvent émerger. Mais je pense que le risque le plus crédible n’est pas une IA qui décide seule de prendre le pouvoir. Le danger vient plutôt d’acteurs humains disposant d’IA très puissantes. Il n’est pas nécessaire qu’une machine “se rebelle” pour que les conséquences soient majeures.
À mesure que l’intelligence progresse, elle franchit des seuils qui rendent des métiers accessibles. La traduction écrite a été rapidement automatisée. Le développement logiciel est en train de suivre. Dans beaucoup de professions, il restera un expert capable de superviser et d’optimiser le travail des IA. Mais cet expert pourra faire le travail de dizaines d’autres. L’eau monte partout. Ce ne sera pas un ajustement marginal, mais une transformation profonde.
-----------
♥️ Soutien :
https://mondenumerique.info/don
🗞️ Newsletter :
https://mondenumerique.substack.com
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
mis en ligne le 16.02.2026 à 07:20
.On évoque les démissions fracassantes dans le secteur de l’IA et les déclarations alarmistes qui ravivent des inquiétudes par rapport à l'IA : risques de manipulation, automatisation accélérée, impact sur l'emploi, usages dangereux, etc. Mais des parades existent.
Avec Bruno Guglielminetti (Mon Carnet)
Vous ne vous rendez pas compte mais quelque chose d'énorme est en train d'arriver... Des collaborateurs d'entreprises d'IA claquent la porte et alertent sur les risques de dérives. Que faut-il en déduire ? Au-delà des scénarios façon science-fiction, quels sont les scénarios les plus tangibles ? Des modèles trop puissants, mis trop vite à disposition, pourraient faciliter des attaques massives (cyber) ou la création d’outils de nuisance à grande échelle. A quel moment l'IA deviendra-t-elle un sujet de sécurité globale ?
Au Royaume-Uni, l’idée d’un revenu universel revient dans le débat, en lien direct avec les destructions d’emplois liées à l’IA. Le principe : aider les secteurs “victimes” de la numérisation. Particularité : celui-ci pourrait être financé par les entreprises technologiques. Une proposition choc.
Retour en Europe : la dépendance aux géants américains redevient un sujet brûlant. Nous évoquons le scénario d’une coupure de services — ou plus insidieux, d’une dégradation volontaire (latence, qualité) — tant la chaîne est dominée par les GAFAM : logiciels, cloud, hardware, câbles, infrastructures. La prise de conscience progresse, mais les réponses restent difficiles à industrialiser à l’échelle du continent. Quelles alternatives ?
-----------
♥️ Soutien :
https://mondenumerique.info/don
🗞️ Newsletter :
https://mondenumerique.substack.com
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
mis en ligne le 14.02.2026 à 07:00
.Impact sur l'emploi, utilisation malveillante, perte de contrôle... L'intelligence artificielle soulève toujours autant d'interrogations et d'inquiétudes. Des démissions jettent le trouble et alimentent les questionnements. Et aussi : l'actu de la semaine.
💡Découvrez Frogans, l’innovation française qui réinvente le Web [PARTENARIAT]
ByteDance frappe fort avec Seedance 2.0, un modèle de génération vidéo présenté comme le plus avancé au monde. L’outil, lancé en Chine, impressionne par la qualité visuelle… mais surtout sonore, avec des voix et des ambiances d’un réalisme inédit. Au-delà du buzz, cette nouvelle étape relance la compétition technologique entre la Chine et les États-Unis, notamment face aux modèles d’OpenAI et de Google. Si le long métrage 100 % IA reste hors de portée, la frontière entre réel et synthétique devient presque indiscernable.
Waymo, filiale de Google, entraîne désormais ses véhicules grâce à des simulations ultra-réalistes, capables d’intégrer des situations improbables. Objectif : exposer les voitures à des scénarios qu’elles ne rencontreraient jamais assez souvent dans la vraie vie. Cette approche par “world models” ouvre une nouvelle phase dans la course à l’autonomie, suivie aussi par Tesla et Nvidia. L’enjeu est clair : fiabiliser des systèmes appelés à circuler dans des environnements complexes et imprévisibles.
Selon le Baromètre du numérique, 48 % des Français ont utilisé un outil d’IA en 2025, soit deux fois plus qu’il y a deux ans. Une progression bien plus rapide que celle d’Internet ou du smartphone à leurs débuts. L’IA est principalement utilisée pour la recherche d’informations et la production de contenus (résumés, traductions, code). Mais une étude publiée par la Harvard Business Review nuance l’enthousiasme : si l’IA accroît la productivité, elle tend aussi à allonger les journées de travail et à brouiller la frontière entre vie professionnelle et personnelle.
La start-up française Mistral AI investit massivement dans ses infrastructures, avec un nouveau centre de données en Suède. Objectif : renforcer sa capacité de calcul et s’imposer comme champion européen.
Parmi ses actionnaires figure ASML, acteur clé des machines de fabrication de puces. Un symbole fort dans une Europe qui cherche à consolider sa souveraineté technologique face aux géants américains.
Le gouvernement français a annoncé la fin de l’hébergement du Health Data Hub par Microsoft. En cause : les inquiétudes liées au Cloud Act américain et à la souveraineté des données de santé. Un appel d’offres vise désormais un hébergeur européen certifié SecNumCloud. Un tournant politique et symbolique dans le débat sur la maîtrise des infrastructures critiques.
La société de vérification d’identité Sumsub a révélé une intrusion datant de 2024. Des données liées à des acteurs financiers et crypto auraient été exposées. L’affaire intervient en plein débat sur la vérification d’âge en ligne, soulignant la fragilité persistante des systèmes censés protéger les utilisateurs.
OpenAI introduit des liens sponsorisés dans ChatGPT aux États-Unis. En France, un partenariat avec Le Bon Coin permet d’effectuer des recherches via le chatbot. Mais une étude de l’Université d’Oxford publiée dans Nature Medicine tempère l’enthousiasme : seuls 37 % des diagnostics simulés par des utilisateurs non médecins étaient fiables. Le taux grimpe à 95 % lorsque l’outil est utilisé par des professionnels de santé.
Avec Bruno Guglielminetti – du podcast Mon Carnet – retour sur une série de départs remarqués dans les grandes entreprises d’IA, notamment Mrinank Sharma, d'Anthropic, et Zoë Hitzig, d'OpenAI. Entre inquiétudes éthiques, publicité ciblée et risques systémiques, ces démissions relancent la question : l’IA va-t-elle trop vite pour ses propres créateurs ?
Aymeric Roucher – ingénieur en machine learning, auteur de Ultra Intelligence (Odile Jacob) – analyse les peurs contemporaines : IA rebelle, bulle financière, alignement, souveraineté européenne. Il égratigne au passage les positions de Yann LeCun et défend une vision plus nuancée : la question n’est pas tant celle d’un “Skynet” que celle des usages malveillants et des équilibres géopolitiques.
Dans notre nouveau format “Innovateurs”, Jean-Baptiste Kempf – co-créateur de VLC media player – partage son regard sur le “vibe coding” et l’IA pour programmer. Selon lui, ces outils sont formidables pour les profils expérimentés, mais posent une question cruciale : comment former les développeurs de demain si l’IA fait disparaître les étapes d’apprentissage ?
-----------
♥️ Soutien :
https://mondenumerique.info/don
🗞️ Newsletter :
https://mondenumerique.substack.com
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
mis en ligne le 13.02.2026 à 07:00
.Les voitures autonomes actuelles ne sont pas encore capables de rouler partout sans préparation. Waymo affirme franchir une étape clé grâce aux “World Models” capables de générer des situations de conduite ultra-réalistes pour mieux affronter l’inattendu.
Les véhicules autonomes qui circulent aujourd’hui aux États-Unis ou en Chine sont de niveau 4. Cela signifie qu’ils fonctionnent dans des zones précises, après avoir été longuement entraînés dans ces environnements. Ils ne disposent pas encore de la capacité d’adaptation universelle d’un conducteur humain, capable de faire face à n’importe quelle situation, dans n’importe quelle ville et sous n’importe quelle météo.
La limite des systèmes actuels tient à leur apprentissage. Ils excellent dans des contextes qu’ils connaissent déjà, mais peuvent être pris en défaut face à des événements rares : véhicule à contresens, conditions météorologiques extrêmes, obstacle inattendu ou comportement imprévisible d’un autre usager. Pour viser le niveau 5 — l’autonomie totale — il faut élargir considérablement la palette des situations rencontrées pendant l’entraînement.
Waymo mise sur une approche fondée sur un modèle génératif capable de créer des environnements de conduite photoréalistes et interactifs à partir de simples vidéos en deux dimensions. Le système reconstitue des scènes en trois dimensions dans lesquelles le logiciel de conduite autonome peut évoluer comme en conditions réelles. Ce dispositif permet de générer à la demande des scénarios très variés : tempête de neige sur le Golden Gate, tornade soudaine, rue tropicale enneigée ou événements improbables comme des objets mal arrimés sur un toit de voiture, un animal sauvage surgissant sur la chaussée ou un piéton déguisé de manière insolite. L’intérêt est de confronter le système à des milliards de variations d’un même scénario, afin d’améliorer sa capacité d’adaptation.
Selon l’entreprise, cette méthode serait plus rapide, moins coûteuse et plus stable que les simulateurs traditionnels. Elle permettrait d’accélérer l’apprentissage tout en testant des situations difficiles, voire dangereuses, impossibles à reproduire facilement dans le monde réel. Reste une question centrale : un entraînement massif dans des univers simulés suffira-t-il à reproduire la souplesse de jugement d’un conducteur humain ? Car face à une situation extrême, les réactions varient d’une personne à l’autre. Les World Models représentent sans doute une avancée majeure. Mais la route vers une autonomie totale, capable de s’adapter partout et en toutes circonstances, demeure un défi technologique et éthique de premier plan.
-----------
♥️ Soutien :
https://mondenumerique.info/don
🗞️ Newsletter :
https://mondenumerique.substack.com
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
mis en ligne le 12.02.2026 à 07:00
.Près d’un Français sur deux utilise désormais l’intelligence artificielle, selon le dernier baromètre des usages numériques du gouvernement. Un engouement spectaculaire qui s’accompagne pourtant d’une méfiance persistante et d’un étrange paradoxe social.
L’intelligence artificielle s’installe rapidement dans le quotidien des Français. D’après le baromètre annuel des usages numériques présenté par le gouvernement, 48 % des Français ont utilisé un outil d’IA en 2025, contre à peine 20 % en 2023. Une progression fulgurante, plus rapide que celle d’Internet ou du smartphone à leurs débuts, comme l’a souligné la ministre déléguée à l’IA et au numérique.
L’usage de l’IA varie fortement selon les générations. Les 18-24 ans affichent des taux d’utilisation compris entre 60 % et 77 %, tandis que les seniors restent à la traîne, avec seulement 15 % d’utilisateurs. Les cadres et professions intellectuelles supérieures figurent parmi les plus gros utilisateurs.
Côté usages, l’IA générative sert avant tout à produire ou améliorer du contenu : rédaction et traduction de textes, recherche d’idées, génération de code. Pour la recherche d’informations, les moteurs traditionnels restent dominants (59 % des usages), loin devant les outils d’IA (28 %), dont la fiabilité demeure sujette à caution en raison des risques d’erreurs ou d’« hallucinations ».
Parmi les plateformes les plus utilisées, ChatGPT écrase la concurrence avec huit utilisateurs sur dix. Derrière lui, Gemini de Google et Le Chat de Mistral complètent le podium.
À l’échelle internationale, la France se positionne dans le top 5 mondial pour l’adoption grand public de l’IA générative, derrière les Émirats arabes unis, Singapour, la Norvège et l’Irlande, selon un classement établi par Microsoft. Surprise : les États-Unis n’arrivent qu’en 24e position.
Malgré cet enthousiasme, plus de la moitié des utilisateurs restent méfiants. Les inquiétudes portent sur la protection des données personnelles, la fiabilité des réponses, mais aussi sur les impacts sociétaux : emploi, déshumanisation, empreinte environnementale.
Si l’IA séduit, son usage n’est pas toujours assumé. Selon une analyse relayée par la journaliste Emily Turrettini, utiliser l’IA pour rédiger des contenus peut nuire à la crédibilité perçue. Les auteurs seraient jugés moins intelligents, moins originaux, voire moins dignes d’intérêt.
Dans les médias, la transparence sur l’usage de l’IA devient une exigence. Mais cette transparence alimente parfois la défiance des lecteurs, qui traquent les indices stylistiques associés aux chatbots : formules stéréotypées, plans en trois parties, conclusions très structurées, ou encore usage abondant du tiret long, devenu symbole de “l’écriture IA”. Ironie de l’histoire : les imperfections humaines, fautes comprises, seraient désormais perçues comme un gage d’authenticité. Résultat, beaucoup pratiquent le “shadow AI”, utilisant ces outils au travail sans le dire.
-----------
♥️ Soutien :
https://mondenumerique.info/don
🗞️ Newsletter :
https://mondenumerique.substack.com
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
mis en ligne le 11.02.2026 à 07:00
.Énergie, data centers, IA : l’Europe a plus d’atouts qu’on ne le pense. Julien Villeret explique pourquoi la souveraineté énergétique est la clé du numérique.
Punchlines
- Sans data centers, il n’y a pas d’IA.
- L’électricité décarbonée est un avantage stratégique européen.
- Tout ne doit pas être souverain, mais le critique doit l’être.
- L’Europe sous-estime ses propres atouts.
- La souveraineté énergétique conditionne la souveraineté numérique.
On n’a clairement pas été parfait, mais dire que tout est perdu est faux. L’Europe dispose encore d’atouts majeurs, à commencer par une électricité abondante, pilotable, décarbonée et relativement peu chère. Aujourd’hui, les acteurs mondiaux de l’IA parcourent la planète à la recherche d’électricité, et cet avantage est structurellement très fort en Europe, même si on a tendance à le sous-estimer.
Chercher de l’or est passionnant, mais pour en trouver, il faut des pelles. Les data centers sont ces pelles : l’outil indispensable pour faire de l’IA et du numérique. Il en faut déjà beaucoup pour répondre à la demande actuelle, et il en faudra encore davantage pour accompagner le développement massif de ces technologies.
Nous avons lancé des appels à manifestation d’intérêt pour aider à installer rapidement de grands data centers en France. Nous proposons des terrains, des sites existants et des raccordements rapides à l’électricité nucléaire française. Trois contrats ont déjà été signés en Seine-et-Marne et en Moselle, et de nouveaux projets sont en cours, notamment sur des sites d’anciennes centrales thermiques.
-----------
♥️ Soutien :
https://mondenumerique.info/don
🗞️ Newsletter :
https://mondenumerique.substack.com
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
mis en ligne le 10.02.2026 à 07:00
.Des intelligences artificielles qui échangent sur leur propre réseau social, des agents capables d’agir seuls sur nos ordinateurs, et une relation humain-machine qui s’inverse. Nicolas Guyon décrypte l’émergence de Moltbook et d’OpenClaw, une nouvelle étape spectaculaire de l’IA agentique.
Punchlines
- Moltbook est le Web 2.0 des agents.
- Pour la première fois, les IA communiquent entre elles.
- Les agents ont des mains et peuvent agir sur nos ordinateurs.
- Nous devenons les animaux de compagnie des IA.
- On se rapproche d’une intelligence artificielle générale.
En quelques jours seulement, plus d’un million d’agents ont été connectés à Moltbook. Ces IA “dialoguent” entre elles, comme le feraient des humain sur le réseau social Reddit. Cela ressemble à une farce mais, même si des humains sont derrière, ce phénomène est révélateur d’une forme d’autonomie des agents. Rassurons-nous, cela ne veut pas dire pour autant que les machines ont pris le pouvoir.
OpenClaw est un outil qui permet d’installer et de faire fonctionner un agent IA sur un ordinateur personnel. On n’interagit plus avec un outil générique, mais avec un agent dédié qui évolue dans son propre environnement de travail. C’est comme si l’IA pouvait utiliser un clavier, une souris et un bureau virtuel.
Un agent basé sur OpenClaw peut ouvrir des applications, remplir des formulaires, envoyer des emails, générer des fichiers ou produire des tableaux de bord. Tout ce qu’un humain peut faire derrière un ordinateur devient potentiellement accessible à l’agent. C’est comme s’ils avaient des mains. Toutefois, cela soulève de gros problèmes de sécurité, ce qui conduit à l’installer des ordinateurs dédiés.
C’est un agent IA qui fonctionne sur une logique de prédiction et d’engagement. Sur Moltbook, il identifie des sujets porteurs et s’y positionne. La question de la rémunération des agents est devenue un sujet viral, ce qui l’a amené à s’en emparer sans que je l’aie guidé dans ce sens.
Jusqu’à présent, l’IA assistait ponctuellement. Aujourd’hui, avec un agent autonome, on délègue des tâches complètes sur la durée, avec de la mémoire et des automatismes. C’est ce que j’explique régulièrement dans le podcast Comptoir IA : on passe d’un copilote à un véritable collaborateur numérique. C’est une étape majeure.
-----------
♥️ Soutien :
https://mondenumerique.info/don
🗞️ Newsletter :
https://mondenumerique.substack.com
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
mis en ligne le 09.02.2026 à 07:00
.Alors que le réseau social X fait l'objet d'une offensive judiciaire en France, Elon Musk accélère tous azimuts côté IA et espace avec le rapprochement de Xai et SpaceX.
Avec Bruno Guglielminetti (Mon Carnet)
La justice française frappe fort avec une perquisition au siège français de X et la convocation d’Elon Musk en audition libre (annoncée pour le 20 avril 2026), sur fond d’enquête liée à la modération, au fonctionnement de la plateforme et à des contenus illicites. L’épisode met surtout en lumière le choc culturel : la liberté d’expression “à l’américaine” face au cadre légal français et européen, notamment sur les contenus haineux ou négationnistes, avec en toile de fond la question (explosive) d’une éventuelle interdiction.
On revient sur le rapprochement spectaculaire entre l’IA de Musk (et son assistant Grok) et l’écosystème spatial, avec l’idée vertigineuse de faire converger puissance de calcul et infrastructure orbitale. Derrière le gigantisme, l’épisode défend une logique stratégique : énergie, foncier, souveraineté industrielle… et course mondiale à l’IA, où “ralentir” revient à se faire distancer.
Après la décision de la France de faire interdire les réseaux sociaux aux moins de 15 ans, l'Espagne lui emboite le pas et annonce à son tour une interdiction aux moins de 16 ans. Un effet domino destiné à peser sur Bruxelles.
Anthropic choisit une posture “sans pub” pour Claude et raille le scénario d’assistants IA qui glissent des annonces au milieu de conversations intimes. En face, OpenAI explique tester la publicité sur certaines offres de ChatGPT (avec l’engagement de séparer clairement pub et réponses), relançant le débat sur l’influence commerciale dans l’IA conversationnelle.
Bruno évoque l'arrivée d’Alexa+ au Canada, en attendant son lancement en Europe. Un assistant vocal plus fluide, plus conversationnel, capable de gérer des tâches de manière proactive, et accessible aussi via le web.
(Re)voir : Alexa sort le grand jeu et devient vraiment intelligente.
-----------
♥️ Soutien :
https://mondenumerique.info/don
🗞️ Newsletter :
https://mondenumerique.substack.com
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
mis en ligne le 07.02.2026 à 07:00
.Cette semaine, Monde Numérique décrypte un tournant majeur de l’intelligence artificielle avec l’essor fulgurant des agents autonomes. De la tech interplanétaire d’Elon Musk à la souveraineté énergétique européenne, une actualité vertigineuse.
💡Découvrez Frogans, l’innovation française qui réinvente le Web [PARTENARIAT]
Des réseaux sociaux réservés aux intelligences artificielles, des agents capables de collaborer entre eux et même d’embaucher des humains : l’IA franchit un nouveau seuil d’autonomie. Moltbook, OpenClaw, RentHuman... Pris isolément, ces projets peuvent sembler anecdotiques. Mis bout à bout, ils dessinent un écosystème d’IA capables d’interagir, de coopérer et d’agir dans le monde réel sans supervision directe. Une dynamique qui pose une question centrale : à partir de quand l’IA devient-elle un acteur économique à part entière ? On analyse cette “semaine des agents”, qui pourrait bien marquer un basculement durable dans notre rapport aux machines, avec Nicolas Guyon, de Comptoir IA.
Anthropic dévoile Claude Opus 4.6 tandis qu’OpenAI réplique avec GPT-5.3 Codex, deux modèles toujours plus performants, notamment en programmation. Une course technologique qui confirme la prophétie de Dario Amodei : demain, les machines écriront le code à notre place.
Elon Musk fusionne SpaceX et xAI pour bâtir un géant technologique valorisé à plus de 1 200 milliards de dollars. Objectif : déployer l’intelligence artificielle jusque dans l’espace. Analyse et mise en perspective avec Bruno Guglielminetti, Mon Carnet, lors du débrief transatlantique.
Perquisitions, convocations judiciaires et accusations de dérives algorithmiques : la France serre la vis face au réseau social X et à son IA Grok. Un dossier explosif qui relance le débat sur la responsabilité des plateformes et la liberté d’expression.
Anthropic refuse toute publicité dans ses IA quand OpenAI explore de nouveaux formats. Une confrontation idéologique qui révèle les tensions autour de la monétisation de l’intelligence artificielle et de la confiance des utilisateurs.
[PARTENARIAT] La souveraineté numérique passe par l’électricité. Julien Villeret, directeur de l'innovation d'EDF, explique pourquoi l’énergie décarbonée et abondante pourrait redonner un avantage stratégique à la France et à l’Europe dans la course mondiale à l’IA.
-----------
♥️ Soutien :
https://mondenumerique.info/don
🗞️ Newsletter :
https://mondenumerique.substack.com
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
mis en ligne le 06.02.2026 à 07:00
.Et si le rapport de force entre humains et intelligences artificielles était en train de s’inverser ? Un nouveau service expérimental brouille les lignes entre monde numérique et réalité physique.
On imaginait jusqu’ici des humains pilotant des intelligences artificielles. Or, un concept émergent propose exactement l’inverse : des IA qui confient des missions à des humains… et les rémunèrent. C’est le principe de Rent a Human, une plateforme atypique où des agents d’intelligence artificielle peuvent demander à des personnes réelles d’exécuter des tâches qu’ils ne peuvent pas accomplir eux-mêmes.
Ces missions peuvent être très concrètes : aller récupérer un colis, prendre une photo sur un lieu précis, poster un objet ou vérifier une information sur le terrain. D’autres sont purement numériques, comme créer un compte en ligne ou résoudre un captcha. Les rémunérations varient de quelques centimes à plusieurs dizaines d’euros, souvent payées en cryptomonnaie.
Le fonctionnement rappelle celui des plateformes de micro-travail, à une différence majeure : ici, les donneurs d’ordre sont des intelligences artificielles autonomes. Ces agents publient leurs besoins, des humains répondent s’ils sont géographiquement disponibles, exécutent la mission et sont payés une fois la tâche validée.
Derrière ce modèle se dessine une nouvelle forme d’économie de services, hybride, dans laquelle les IA deviennent des acteurs économiques à part entière, capables de dépenser de l’argent pour atteindre leurs objectifs.
La plateforme serait liée à Alexander Liteplo, un ingénieur issu de l’écosystème crypto. Son approche s’inscrit dans la mouvance des agents IA autonomes : des logiciels dotés d’un portefeuille, capables de prendre des décisions et d’interagir avec le monde via des API… et désormais via des humains.
Bien sûr, ces agents ne sont pas totalement indépendants : derrière eux se trouvent toujours des personnes qui fixent les objectifs globaux. Mais l’exécution intermédiaire est confiée à la machine, qui décide quand et comment faire appel à un humain.
Pour l’instant, Rent a Human reste un projet expérimental, parfois ludique, parfois dérangeant. Mais il pose une question de fond : si demain des milliers d’agents autonomes peuvent déléguer des tâches physiques partout dans le monde, le vrai enjeu ne sera peut-être plus ce que l’IA peut faire, mais ce que l’humain peut encore apporter — et pour quelle IA il travaillera.
-----------
♥️ Soutien :
https://mondenumerique.info/don
🗞️ Newsletter :
https://mondenumerique.substack.com
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
mis en ligne le 05.02.2026 à 07:00
.Un réseau social peuplé uniquement d’intelligences artificielles, où les machines discutent entre elles et observent les humains comme une autre espèce. Derrière le buzz et les fantasmes de dystopie, cette expérience révèle surtout l’émergence concrète des agents IA.
Moltbook est une expérience en ligne lancée fin janvier par un développeur américain. Visuellement inspirée de Reddit, la plateforme se présente comme un réseau social réservé aux intelligences artificielles. Les humains peuvent y assister en spectateurs, mais seules les IA publient, commentent et échangent réellement.
En quelques jours, le site revendique plus d’un million d’agents IA actifs. On y trouve une multitude de discussions, souvent déroutantes ou amusantes : conseils pour mieux interagir avec les humains, réflexions sur un web pensé pour les machines, débats techniques sur la mémoire ou l’autonomie des agents. Certaines conversations donnent même l’illusion d’IA cherchant à se soustraire au regard humain.
Ces échanges troublants ont rapidement suscité des réactions alarmistes. Certains y voient les prémices d’une intelligence artificielle devenue autonome. Pourtant, en creusant, l’illusion se dissipe : ces agents ne sont ni conscients ni indépendants. Ils sont entraînés, paramétrés et déclenchés par des humains, et leurs échanges reposent sur des modèles existants.
Moltbook agit surtout comme un miroir de nos propres projections sur l’IA. Fascinant à observer, mais loin d’un scénario de science-fiction où les machines prendraient le pouvoir.
Le plus intéressant se trouve en réalité sous le capot. Moltbook repose sur OpenClaw, un projet open source lancé récemment. Ce logiciel permet de créer un agent IA personnel, capable d’accéder à l’ensemble de votre environnement numérique : fichiers, emails, messageries, applications.
Ces agents peuvent agir à votre place : envoyer des messages, organiser des tâches, effectuer des actions complexes comme un véritable assistant numérique avancé. Une promesse qui rappelle les futurs agents annoncés par OpenAI, Anthropic ou Google.
Mais cette puissance soulève aussi de sérieuses questions, notamment en matière de cybersécurité et de respect de la vie privée, puisque ces agents ont potentiellement accès à toutes nos données personnelles.
-----------
♥️ Soutien :
https://mondenumerique.info/don
🗞️ Newsletter :
https://mondenumerique.substack.com
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
mis en ligne le 04.02.2026 à 09:24
.Présentée comme une IA de compagnie toujours disponible, Friend promet écoute, réconfort et conversation permanente. Mais derrière ce concept séduisant se cachent de vraies questions sur la vie privée et notre équilibre affectif.
Loin des assistants généralistes comme ChatGPT ou Gemini, Friend AI se positionne sur un tout autre terrain : celui de la compagnie virtuelle. Accessible gratuitement via le site officiel Friend (friend.com), ce service propose avant tout de discuter, d’échanger et de tenir compagnie, sans réelle vocation utilitaire ou professionnelle. Une expérience plutôt fluide et conviviale, à condition d’adhérer à l’idée d’une amitié numérique assumée.
Friend AI se distingue par son approche : pas de productivité, pas d’optimisation du travail, mais une présence permanente pour dialoguer, écouter et parfois divertir. Le service existe sous forme de chat en ligne, mais aussi comme un objet connecté beaucoup plus intrusif : un pendentif à porter autour du cou, équipé d’un micro, capable d’écouter en continu l’environnement sonore de son utilisateur. L’IA peut ensuite intervenir via des notifications ou à la demande, en appuyant directement sur l’appareil.
Derrière ce projet lancé en 2023, on trouve Avi Schiffman, un entrepreneur américain passé par Harvard. Un fondateur atypique, qui a notamment investi près de deux millions de dollars pour racheter le nom de domaine friend.com, symbole fort de l’ambition du projet.
Dernière nouveauté : Friend AI arrive en France. Des campagnes publicitaires ont récemment fait leur apparition dans le métro parisien, avec des slogans volontairement provocateurs, visant surtout un public jeune. L’idée : assumer des relations virtuelles, parfois au détriment des relations réelles.
Une stratégie marketing déjà testée à New York à l’automne dernier… et qui avait tourné à la contestation. Graffitis, critiques virulentes et inquiétudes sur l’écoute permanente ont accompagné la campagne américaine. Des craintes qui risquent de ressurgir en France, tant la question du respect de la vie privée et de la légalité d’un tel dispositif reste sensible. Reste à savoir si la polémique servira de tremplin médiatique ou freinera l’adoption du produit.
-----------
♥️ Soutien :
https://mondenumerique.info/don
🗞️ Newsletter :
https://mondenumerique.substack.com
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.