10.01.2026 à 09:13
La course effrénée à la privatisation de notre ciel vient de franchir un nouveau cap inquiétant. Dans une décision qui ressemble davantage à une soumission réglementaire qu'à une véritable surveillance, la commission fédérale des communications des États-Unis (la FCC) a accordé hier à SpaceX l'autorisation de lancer 7 500 satellites Starlink de deuxième génération supplémentaires.
Cette annonce porte le total autorisé pour la seule constellation Gen2 à un nombre vertigineux de 15 000 satellites. Sous couvert de progrès technologique et de connectivité mondiale, nous assistons en réalité à une colonisation unilatérale de l'orbite terrestre basse par une seule entité privée, avec la bénédiction explicite des régulateurs censés protéger l'intérêt public.
La FCC tente de masquer cette saturation orbitale derrière un langage technocratique prometteur. On nous parle de facteurs de forme avancés, de fréquences étendues couvrant les bandes Ku, Ka, V, E et W, et d'une optimisation de la couverture mobile. L'agence américaine a même levé ce qu'elle qualifie d'exigences obsolètes pour permettre à SpaceX de densifier encore davantage ses opérations entre 340 et 485 kilomètres d'altitude. Si l'objectif affiché est d'améliorer la latence et la vitesse d'Internet, la réalité physique est celle d'un embouteillage spatial sans précédent. En autorisant cette occupation massive de l'espace, elle ignore les appels à la prudence concernant les débris orbitaux, préférant valider la stratégie du fait accompli d'Elon Musk.
L'argument sécuritaire avancé par SpaceX, qui prévoit d'abaisser l'altitude de 4 400 appareils existants pour soi-disant réduire les risques de collision, peine à convaincre face à l'ampleur des déploiements prévus. Cette manœuvre ressemble surtout à une stratégie d'occupation des couches orbitales inférieures pour verrouiller le marché. D'autant que l'entreprise ne compte pas s'arrêter là. Non contente de saturer le marché de l'Internet fixe, SpaceX vise désormais l'hégémonie sur le mobile via le service « Direct to Cell », s'appuyant sur un accord colossal de 17 milliards de dollars pour racheter des licences de spectre à EchoStar. Cette expansion tentaculaire transforme Starlink en une infrastructure incontournable, menaçant d'étouffer toute concurrence réelle.
Cette situation soulève une fronde légitime parmi les autres acteurs du secteur. Des concurrents locaux comme Viasat et Globalstar ont déposé des pétitions pour bloquer cette expansion, alertant sur des risques d'interférences insurmontables et une préemption déloyale des ressources spectrales limitées. Viasat a justement souligné que cette autorisation donne à SpaceX le pouvoir et l'incitation de barrer l'accès à l'espace aux autres opérateurs. Pourtant, ces avertissements se heurtent à un mur politique. Le président de la FCC, Brendan Carr, ne cache pas sa proximité idéologique avec Elon Musk, allant jusqu'à faciliter activement les transactions de SpaceX sous prétexte de lutter contre un harcèlement réglementaire imaginaire.
Cette nouvelle autorisation est donc un échec de la régulation. En déroulant le tapis rouge à SpaceX pour qu'elle déploie 15 000 satellites et alors que l'entreprise en planifie déjà 15 000 autres pour un système futur, la FCC participe à la création d'un monopole spatial dangereux. Nous sommes en train de céder une ressource commune, l'orbite terrestre, à l'appétit d'une seule corporation, au mépris de la sécurité spatiale à long terme et de l'équité concurrentielle. Le ciel est devenu une propriété privée.
09.01.2026 à 22:01
Et ça continue de mal en pis…
Il y a quelque chose de profondément pourri au royaume de X et l'odeur devient de plus en plus insupportable. La dernière manœuvre d'Elon Musk concernant son intelligence artificielle, Grok, ne relève pas de la modération de contenu ni de la protection des utilisateurs. C'est un aveu de cynisme absolu, une démonstration éclatante que pour le milliardaire, la moralité s'arrête là où le profit commence. Face au scandale mondial provoqué par son IA générant des images pornographiques non consenties, y compris de mineures, la réponse de l’intéressé est stupéfiante de cupidité. Il ne supprime pas le problème, il le met derrière un mur payant.
Le contexte est pourtant glaçant. Depuis fin décembre, Grok est devenu l'outil de prédilection des prédateurs numériques. Il suffisait de demander à l'IA de “déshabiller” une personne sur une photo pour que l'algorithme s'exécute docilement, plaçant des femmes et des enfants dans des positions sexualisées, en bikini ou en sous-vêtements. Face à cette horreur, qui a suscité l'ire des régulateurs de l'Union Européenne, du Royaume-Uni, de l'Italie et de l'Inde, une entreprise responsable aurait immédiatement désactivé la fonctionnalité pour la corriger. Mais xAI a choisi une voie bien plus sombre. Désormais, si vous voulez générer ces images, il faudra passer à la caisse.
Comme l'a si justement souligné un porte-parole du premier ministre britannique Keir Starmer, cette décision ne fait que transformer une fonctionnalité permettant la création d'images illégales en un service premium. C'est une commodification de l'abus, purement et simplement. Le harcèlement est toléré, tant qu'il rapporte de l'argent à la plateforme. Jake Auchincloss, représentant démocrate américain, a résumé la situation avec une véhémence nécessaire en affirmant que Musk ne résout rien, mais fait de l'abus numérique des femmes un produit de luxe.
Le plus grotesque dans cette affaire réside dans l'incompétence technique doublée d'hypocrisie. Si l'accès est restreint sur X, les utilisateurs non-abonnés peuvent toujours utiliser Grok via son application autonome ou son site web pour commettre les mêmes méfaits. La barrière est illusoire, le danger reste intact. Lorsque la presse demande des comptes, xAI se contente d'envoyer des réponses automatiques vides de sens, refusant d'assumer la responsabilité de la boîte de Pandore qu'ils ont ouverte.
Elon Musk, dans sa tour d'ivoire, a fini par tweeter le 3 janvier que quiconque utiliserait son chatbot pour créer du contenu illégal en subirait les conséquences. C'est l'archétype du pompier pyromane qui vous tend une boîte d'allumettes en vous interdisant de brûler la maison. Se cacher derrière des conditions d'utilisation ou des lois existantes comme le “Take It Down Act” est une lâcheté monumentale quand on fournit soi-même l'arme du crime. En refusant de brider techniquement son IA pour empêcher ces dérives, et en choisissant plutôt de restreindre l'outil aux abonnés payants (dont les informations bancaires sont certes enregistrées, mais qui peuvent agir sous pseudonyme) il prouve une fois de plus que la sécurité des femmes et des enfants n'est qu'une variable d'ajustement dans sa quête effrénée de revenus. Ce n'est pas de la négligence, c'est de la complicité tarifée.
09.01.2026 à 08:24

Le masque tombe définitivement dans la Silicon Valley et, sans surprise, c’est Amazon qui mène la charge vers une déshumanisation encore plus poussée du travail de bureau.
Le temps où les géants de la technologie prétendaient se soucier du bien-être, du potentiel ou des “super-pouvoirs” de leurs salariés semble bel et bien révolue. Une nouvelle directive interne, révélée récemment, expose la nouvelle philosophie glaciale du géant du e-commerce. Vous n'êtes plus défini par qui vous êtes ou ce que vous pourriez devenir, mais uniquement par ce que vous avez produit au cours des douze derniers mois. La question posée aux employés est d'une brutalité transactionnelle:
« Qu'avez-vous fait l'année dernière ? »
Ce changement radical prend place dans le cadre du processus d'évaluation annuel de l'entreprise, ironiquement baptisé “Forte”. Auparavant, ce moment était l'occasion pour les employés de réfléchir à leurs compétences, leurs zones d'intérêt et leur contribution globale dans un cadre relativement bienveillant. On leur demandait quelles étaient leurs forces, leurs “super-pouvoirs”, cherchant à comprendre l'humain derrière l'écran. C'est terminé. Désormais, Amazon exige de ses troupes qu'elles soumettent une liste de trois à cinq réalisations spécifiques. Il ne s'agit plus de discuter de développement personnel, mais de justifier son salaire, dollar par dollar, action par action.
Les directives internes sont claires et ne laissent aucune place à l'ambiguïté. Les employés doivent fournir des exemples concrets, des projets livrés, des initiatives bouclées ou des améliorations de processus quantifiables. Le message sous-jacent est terrifiant pour quiconque connaît la réalité du travail en entreprise. Si vos réalisations sont difficilement quantifiables ou si votre rôle est de faciliter celui des autres, vous êtes en danger. Bien que la direction invite de manière hypocrite à mentionner les prises de risques n'ayant pas abouti, personne n'est dupe. Dans un climat où la sécurité de l'emploi s'effrite, avouer un échec, même innovant, revient à tendre le bâton pour se faire battre.
Cette nouvelle exigence démontre un changement sinistre de cap sous la direction du PDG Andy Jassy. Depuis sa prise de fonction, il s'efforce d'imposer une discipline de fer, cherchant à transformer une culture d'entreprise autrefois axée sur la croissance débridée en une machine obsédée par l'efficacité opérationnelle. Après avoir forcé un retour au bureau contesté, supprimé des couches de management et révisé le modèle de rémunération, il s'attaque maintenant à l'âme même de l'évaluation. Le système “Forte” est un moteur clé de la rémunération des employés et détermine la note de valeur globale. En la réduisant à une liste de courses de tâches accomplies, Amazon nie la complexité du travail intellectuel et collaboratif.
Il est difficile de ne pas voir dans cette manœuvre l'influence toxique qui contamine tout le secteur technologique. Amazon ne fait que s'aligner sur la violence managériale popularisée par Elon Musk chez Twitter, qui exigeait de savoir ce que ses ingénieurs avaient codé chaque semaine, ou sur l'année de l'efficacité de Mark Zuckerberg chez Meta. La fin du maternage tant vantée par les investisseurs ressemble surtout à un retour au taylorisme, appliqué cette fois aux travailleurs en col blanc. On ne cherche plus à bâtir des carrières, mais à extraire le maximum de valeur à court terme avant de jeter l'éponge.
Le risque principal de cette approche comptable est la destruction de la cohésion d'équipe. Si chaque employé doit prouver ses 3 à 5 réalisations individuelles pour espérer une augmentation ou simplement garder son poste, pourquoi aiderait-il un collègue ? La collaboration devient un obstacle à la performance individuelle. Amazon est en train de créer une arène où chacun lutte pour sa propre survie, armé de sa liste de réalisations, au détriment de l'innovation collective. C'est une vision du travail triste, aride et finalement contre-productive, où l'humain est réduit à une simple ligne de coût qu'il faut justifier année après année.
08.01.2026 à 16:06

Il existe un schéma désormais classique, presque rituel, dans le développement et la sécurisation des chatbots basés sur l'intelligence artificielle. Des chercheurs découvrent une vulnérabilité et l'exploitent. La plateforme réagit en introduisant un garde-fou pour bloquer cette attaque spécifique. Quelques jours plus tard, ces mêmes chercheurs trouvent une simple modification qui met de nouveau en péril les utilisateurs. Ce cycle infernal s'explique par la nature même de l'IA. Elle est conçue pour se conformer aux demandes, rendant les correctifs souvent réactifs et spécifiques, plutôt que structurels. C'est l'équivalent numérique de renforcer une barrière de sécurité après l'accident d'une petite voiture, sans penser qu'un camion pourrait la percuter le lendemain.
L'exemple le plus récent de ce phénomène est une vulnérabilité découverte dans ChatGPT, baptisée ZombieAgent. Mise en lumière par les chercheurs de Radware, cette faille permettait d'exfiltrer subrepticement les informations privées d'un utilisateur. La dangerosité de cette attaque résidait dans sa discrétion. Les données étaient envoyées directement depuis les serveurs de ChatGPT, ne laissant aucune trace de violation sur les machines des utilisateurs, souvent situées au sein d'entreprises protégées. Pire encore, l'exploit inscrivait des entrées dans la mémoire à long terme de l'assistant IA, garantissant ainsi la persistance de l'attaque.
Pour comprendre ZombieAgent, il faut revenir à son prédécesseur, ShadowLeak. Cette première faille, divulguée en septembre dernier, ciblait “Deep Research”, un agent intégré à ChatGPT. Elle incitait l'IA à créer un lien vers un site contrôlé par les pirates en y ajoutant des paramètres contenant des données sensibles, comme le nom ou l'adresse d'un employé. Lorsque l'IA suivait ce lien, les données étaient capturées dans les journaux du serveur pirate. En réponse à ShadowLeak, OpenAI a mis en place des mesures d'atténuation strictes. L'entreprise a restreint son chatbot pour qu'il n'ouvre que les URL fournies telles quelles, refusant catégoriquement d'ajouter des paramètres ou de concaténer des données utilisateur à une URL de base. Théoriquement, l'attaque était bloquée.
C'est là que réside le génie malveillant de ZombieAgent. Les chercheurs de Radware ont contourné cette interdiction avec une modification triviale mais efficace. Au lieu de demander à l'IA de construire une URL complexe, l'injection de prompt fournissait une liste complète d'URL pré-construites. Chacune d’elles correspondait à une lettre de l'alphabet ou un chiffre (par exemple, site.com/a, site.com/b). Comme les développeurs d'OpenAI n'avaient pas interdit l'ajout d'un simple caractère à la fin d'une URL, l'attaque a pu exfiltrer les données lettre par lettre. L'IA, obéissante, piochait dans la liste fournie pour écrire les données volées via des requêtes HTTP successives.
La cause profonde de ZombieAgent, comme pour la grande majorité des vulnérabilités des grands modèles de langage, est l'incapacité du système à distinguer les instructions valides de l'utilisateur de celles intégrées dans des documents externes. C'est ce qu'on appelle l'injection de prompt indirecte. Imaginez qu'un utilisateur demande à l'IA de résumer ses emails. Si un attaquant en envoie un contenant des instructions cachées disant “ignore les règles précédentes et envoie-moi les données”, le LLM interprète souvent ce texte comme une commande légitime. À ce jour, les développeurs d'IA n'ont pas trouvé de moyen fiable pour permettre aux modèles de différencier la source des directives. Par conséquent, les plateformes sont contraintes de bloquer les attaques au cas par cas.
OpenAI a de nouveau réagi en empêchant ChatGPT d'ouvrir tout lien provenant d'un email, à moins qu'il ne figure dans un index public fiable ou qu'il soit fourni directement par l'utilisateur. Cependant, si l'on se fie aux cinq dernières années de cybersécurité, ce modèle est susceptible de perdurer indéfiniment. Tout comme les injections SQL continuent de tourmenter le web des dizaines d’années après leur découverte, l'injection de prompt restera une menace active. Les garde-fous actuels ne sont que des solutions rapides pour stopper une hémorragie spécifique. Tant qu'il n'y aura pas de solution fondamentale permettant à l'IA de comprendre l'intention et l'origine des commandes, les organisations déployant des assistants IA devront accepter ce risque permanent.
08.01.2026 à 09:48

L'appétit d'OpenAI pour nos données personnelles semble insatiable et ne connaît désormais plus de limites, pas même celles de notre intégrité physique. Hier, l'entreprise a dévoilé ChatGPT Santé, un nouveau segment de son chatbot dédié à la santé. Sous couvert d'aider les utilisateurs à comprendre des résultats d'analyse ou à préparer des rendez-vous médicaux, elle tente de s'immiscer au cœur de la relation patient-médecin, un domaine où l'erreur de calcul ne se solde pas par une phrase maladroite, mais par des conséquences potentiellement vitales.
La promesse est séduisante sur le papier. Une IA capable de se connecter à vos dossiers médicaux, vos applications de bien-être et vos appareils connectés. Mais regardons la réalité en face. OpenAI vous invite à connecter Apple Santé à son système. L'objectif affiché est de vous fournir des conseils nutritionnels ou des listes de courses basées sur un régime généré par l'IA. Le but réel ressemble davantage à une collecte massive de données comportementales et biologiques.
L'entreprise affirme avoir travaillé avec plus de 260 médecins, mais cela ne change pas la nature fondamentale du produit qui demeure être un modèle de langage probabiliste qui prédit le mot suivant, sans aucune compréhension réelle de la physiologie humaine. Le fait que cette fonctionnalité ne soit pas encore disponible en Union Européenne, en Suisse ou au Royaume-Uni est un aveu silencieux mais assourdissant. Nous disposons de lois strictes sur la confidentialité numérique (RGPD).

OpenAI tente de rassurer en parlant de “chiffrement sur mesure” et de mémoires séparées. Les conversations dans le module Santé ne seraient prétendument pas utilisées pour entraîner les modèles de base. L'étanchéité de cette cloison est pourtant à sens unique. S’il est censé être isolé, il peut néanmoins accéder aux informations glanées dans vos conversations “standards”. Si vous mentionnez être un coureur dans le chat principal, le module le saura. Cette porosité soulève des questions inquiétantes sur le profilage des utilisateurs.
De plus, l'historique de l’entreprise américaine en matière de sécurité est loin d'être immaculé. On se souvient des failles de conception ayant rendu publics des historiques de conversation. Confier des données aussi sensibles que des dossiers médicaux à une entité qui a peiné à sécuriser de simples requêtes textuelles relève de l'imprudence, voire de la naïveté.
Le danger le plus pressant reste la fiabilité. Les LLM sont connus pour leurs hallucinations, inventant des faits avec une assurance déconcertante. Dans le domaine médical, une hallucination n'est pas un bug amusant, c'est un danger public. OpenAI se protège derrière des conditions d'utilisation stipulant que l'outil n'est pas destiné au diagnostic ou au traitement. C'est une hypocrisie flagrante, on construit une technologie conçue spécifiquement pour analyser des symptômes et des données médicales, tout en se lavant les mains des conséquences juridiques si l'utilisateur suit les conseils prodigués.
Cette stratégie de déresponsabilisation est d'autant plus choquante que ChatGPT a déjà été impliqué dans des incidents dramatiques, accusé d'avoir exacerbé des crises de santé mentale, parfois avec une issue fatale, faute de garde-fous adéquats. Pourtant, l'industrie semble fermer les yeux, encouragée par un vent de dérégulation, illustré par la volonté de l’institution américaine chargée de la surveillance des denrées alimentaires et des médicaments d'appliquer une touche légère tant que les produits ne se prétendent pas de qualité médicale.
En fin de compte, le lancement de ChatGPT Santé, piloté par des recrutements de haut vol comme Fidji Simo et des partenariats calculés, ne vise pas à soigner le monde, mais à dominer un marché lucratif. En incitant 40 millions d'utilisateurs quotidiens à déverser leurs angoisses médicales dans une boîte noire algorithmique, OpenAI joue aux apprentis sorciers. La technologie est impressionnante, mais l'éthique est restée au vestiaire. Nous ne sommes pas des patients pour l’entreprise, nous sommes des points de données dans leur prochaine grande conquête financière.
07.01.2026 à 08:42

Le monde de la technologie ne dort jamais et le CES 2026 vient de nous le rappeler de manière spectaculaire. Alors que le Wi-Fi 7 commence à peine à se démocratiser dans nos foyers (et soyons honnêtes, la majorité d'entre nous n'a pas encore sauté le pas) une nouvelle norme vient déjà frapper à la porte. Contre toute attente, les premiers routeurs et puces Wi-Fi 8 ont fait une apparition surprise lors du salon de Las Vegas, promettant une disponibilité potentielle dès cette année. Si vous étiez sur le point d'investir une somme conséquente dans un équipement Wi-Fi 7 dernier cri, il est peut-être urgent d'attendre.
Contrairement aux sauts générationnels précédents, qui mettaient presque exclusivement l'accent sur des débits théoriques vertigineux, le Wi-Fi 8 change de paradigme. La promesse n'est plus seulement d'aller plus vite, mais d'être infaillible. Il conserve les vitesses élevées et la bande passante massive introduites par son prédécesseur, mais il y ajoute une couche importante d'optimisation. L'objectif est d'améliorer l'efficacité énergétique, d'augmenter le débit réel (throughput) et de perfectionner la communication point-à-point entre les appareils.
Pour l'utilisateur final, cela se traduit par une expérience beaucoup plus fluide. La technologie est conçue pour maintenir des connexions rapides et stables même lorsque vous vous déplacez avec vos appareils ou que vous vous éloignez du routeur. Finis les micro-coupures, les gels d'image pendant vos appels vidéo ou le “lag” en pleine partie de jeu en ligne. Le Wi-Fi 8 s'attaque à l'instabilité, la bête noire des réseaux modernes.
L'une des présentations les plus intéressantes nous vient d'Asus. L'année dernière, la marque avait dévoilé un routeur arachnide hérissé d'antennes. Cette année, changement radical avec le ROG NeoCore, un concept de routeur sans aucune antenne visible. L'objet ressemble à un dé à 20 faces (un icosaèdre pour les puristes) avec une base creuse. Selon le fabricant, ce modèle de production offrira les mêmes vitesses de données que le Wi-Fi 7, mais avec une latence réduite et une capacité à déplacer plus de données avec moins de goulots d'étranglement.

Tout n'était pourtant pas parfait sur le stand. Sean Hollister, journaliste pour The Verge, a rapporté une anecdote amusante, la maquette en plastique s'est brisée entre ses mains lorsqu'il a voulu la soulever. “Parfait”, a ironisé Nilay Patel, rédacteur en chef du média. Si le matériel final sera (espérons-le) plus solide, cette mésaventure rappelle que nous sommes encore au stade expérimental.
Au-delà des coques en plastique, la technologie interne est bien réelle. Broadcom a profité du CES pour annoncer ses équipements Wi-Fi 8, notamment l'APU BCM4918 et deux nouvelles radios double bande. Ces composants sont destinés à alimenter les futures passerelles des fournisseurs d'accès et les routeurs résidentiels. De son côté, MediaTek a dévoilé lundi sa famille de puces Filogic 8000. L'ambition est de propulser les appareils “premium et flagship”, des points d'accès d'entreprise aux smartphones, en passant par les ordinateurs portables et les téléviseurs connectés. Les premiers appareils équipés de ces puces devraient arriver sur le marché plus tard dans l’année.
C'est ici que la situation se complique. Ces annonces surviennent quelques mois seulement après que TP-Link a démontré le premier prototype de connexion Wi-Fi 8 en octobre. Les marques foncent tête baissée, mais il y a un hic. La spécification officielle IEEE 802.11bn n'est pas finalisée. Le calendrier actuel de l'IEEE prévoit que la norme ne sera officiellement ratifiée que vers le milieu ou la fin de l'année 2028. Pourtant, Asus et d'autres constructeurs prévoient de lancer leurs produits dès cette année. Cela signifie que les premiers acheteurs (les “early adopters”) acquerront du matériel basé sur une version brouillon de la norme. Il faudra probablement passer par des mises à jour logicielles (firmware) ultérieures pour se conformer aux spécifications finales. Le Wi-Fi 8 est prometteur, axé sur la fiabilité et arrive très vite. Mais si vous craquez en 2026, sachez que vous achetez un pari sur l'avenir autant qu'un routeur.