20.02.2026 à 21:55
C'est une véritable page de l'histoire du jeu vidéo qui se tourne aujourd'hui. Phil Spencer, la figure emblématique et patron de Xbox, quitte Microsoft après près de quarante années de bons et loyaux services au sein du géant de la technologie. Ce départ fracassant ne vient pas seul, puisque la présidente de la marque, Sarah Bond, quitte également le navire pour écrire un nouveau chapitre de sa carrière. Il s'agit d'un remaniement majeur pour la direction de la division gaming de Microsoft, marquant la fin d'une époque fondatrice et le début d'une transition capitale.
Pour reprendre le flambeau, Microsoft a désigné Asha Sharma, jusqu'ici présidente des produits CoreAI, au poste de PDG de Microsoft Gaming. Le grand patron de l'entreprise américaine, Satya Nadella, a officialisé la retraite de Phil Spencer dans un mémo interne adressé à l'ensemble des employés. Il y précise que la décision de l'intéressé remonte à l'automne dernier et que, depuis, sa succession se préparait activement en interne. Nadella a tenu à remercier chaleureusement Spencer pour son leadership exceptionnel, soulignant qu'au cours de ses trente-huit années chez Microsoft, dont douze à la tête de la division jeu vidéo, il a profondément transformé la vision de l'entreprise.
Asha Sharma travaillait en étroite collaboration sur les initiatives d'intelligence artificielle depuis son retour chez Microsoft en 2024. Bien qu'elle n'ait pas le profil de joueuse historique de son prédécesseur, elle possède une solide expérience grand public. Après avoir quitté la firme de Redmond en 2013, elle a occupé des postes de haute direction chez Meta et Instacart. Nadella se montre très confiant, misant sur son expertise pour aligner les modèles économiques sur la création de valeur à long terme. Sharma a d'ores et déjà annoncé ses priorités, se concentrer sur la création de grands jeux, recentrer la marque sur ses racines en remettant la console au cœur de l'écosystème, et préparer l'avenir du divertissement interactif. En parallèle, Matt Booty est promu au poste de vice-président exécutif et directeur du contenu, consolidant la direction créative des studios.
Le parcours de Phil Spencer force le respect. Entré chez Microsoft comme stagiaire en juin 1988, il a d'abord travaillé sur des projets comme Encarta avant de rejoindre la division Xbox en 2001. Devenu patron de la branche en 2014, il a supervisé le lancement des consoles Xbox Series, l'essor fulgurant du Xbox Game Pass, et a été le grand architecte de rachats historiques comme Mojang, ZeniMax Media et Activision Blizzard. Afin d'assurer une transition en douceur, il conservera un rôle de conseiller jusqu'à la fin de l'été.
Dans un message très touchant adressé à ses équipes, il a tenu à exprimer sa gratitude. Voici la traduction intégrale de son mémo d'adieu:
Quand j'ai franchi les portes de Microsoft en tant que stagiaire en juin 1988, je n'aurais jamais pu imaginer les produits que j'allais contribuer à créer, les joueurs et les clients que nous allions servir, ni les équipes extraordinaires que j'aurais la chance de rejoindre. Ce fut une aventure épique et véritablement le privilège de toute une vie. L'automne dernier, j'ai fait part à Satya (Nadella) de mon intention de prendre du recul et d'entamer le prochain chapitre de ma vie. Dès cet instant, nous nous sommes accordés pour aborder cette transition avec intention, en garantissant la stabilité et en renforçant les fondations que nous avons bâties. Xbox a toujours été bien plus qu'une entreprise. C'est une communauté vibrante de joueurs, de créateurs et d'équipes qui se soucient profondément de ce que nous construisons et de la manière dont nous le faisons. Et cela mérite un plan réfléchi et délibéré pour l'avenir.
Aujourd'hui marque un nouveau chapitre passionnant pour Microsoft Gaming alors qu'Asha Sharma assume le rôle de PDG, et je tiens à être le premier à l'accueillir dans cette équipe incroyable. Travailler avec elle au cours des derniers mois m'a donné une immense confiance. Elle apporte une curiosité sincère, de la clarté et un engagement profond à comprendre les joueurs, les créateurs et les décisions qui façonnent notre avenir. Nous savons que c'est un moment important pour nos fans, nos partenaires et notre équipe, et nous sommes déterminés à faire les choses bien. Je conserverai un rôle de conseiller tout au long de l'été pour assurer un passage de relais en douceur.
Je suis également reconnaissant de la force de notre organisation de studios. Matt Booty et nos équipes continuent de bâtir un portefeuille incroyable, et j'ai une confiance totale dans le leadership et la dynamique créative de l'ensemble de nos studios mondiaux. Je tiens à féliciter Matt pour sa promotion au poste de vice-président exécutif et directeur du contenu. Dans le cadre de cette transition, Sarah Bond a décidé de quitter Microsoft pour entamer un nouveau chapitre. Sarah a joué un rôle déterminant au cours d'une période décisive pour Xbox, en façonnant notre stratégie de plateforme, en développant le Game Pass et le cloud gaming, en soutenant de nouveaux lancements de matériel et en guidant certains des moments les plus importants de notre histoire. Je suis reconnaissant pour notre partenariat et l'impact qu'elle a eu, et je lui souhaite le meilleur pour la suite.
Par-dessus tout, à tout le monde chez Microsoft Gaming, je veux dire merci. J'ai tant appris de cette équipe et de cette communauté, j'ai grandi à vos côtés et j'ai été continuellement inspiré par la créativité, le courage et l'attention que vous portez aux joueurs, aux créateurs et les uns aux autres chaque jour. Je suis incroyablement fier de ce que nous avons accompli ensemble au cours des 25 dernières années, et j'ai une confiance absolue en vous tous et en les opportunités qui s'annoncent. Je vous soutiendrai dans ce nouveau chapitre en tant que plus grand fan et joueur de Xbox.
Phil
20.02.2026 à 21:40
Dans le secteur de la création vidéoludique indépendante, le contrôle de son image et de l'intégrité de ses œuvres est absolument primordial. Pourtant, le célèbre éditeur et développeur indépendant Finji vient de faire les frais d'une dérive inquiétante impliquant la plateforme TikTok et l'utilisation non consentie de l'intelligence artificielle générative. Connue pour avoir publié de véritables pépites indépendantes très appréciées du public, telles que l'aventure poétique Night in the Woods ou encore le jeu d'exploration Tunic, l'entreprise se retrouve aujourd'hui au cœur d'une controverse remarquée. Finji accuse ouvertement le géant des réseaux sociaux d'avoir modifié les publicités destinées à promouvoir ses jeux vidéo, et ce, sans la moindre autorisation ni information préalable. Pire encore, l'éditeur n'a découvert le pot aux roses que grâce à la vigilance des abonnés de son compte officiel, qui ont commencé à signaler des contenus publicitaires pour le moins troublants et inhabituels.
Au cœur de cette affaire stupéfiante se trouve une publicité qui a été altérée pour afficher une représentation à la fois sexualisée et à caractère raciste d'un protagoniste issu de l'un de leurs futurs titres. En effet, plusieurs campagnes promotionnelles de Finji tournent régulièrement sur le réseau social, alternant entre des montages globaux de leur catalogue et des vidéos spécifiques à certains jeux, comme c'est le cas pour leur prochain projet intitulé Usual June. Les publicités modifiées par cette intelligence artificielle capricieuse se présentaient sous la forme de diaporamas trompeurs, toujours estampillés comme provenant officiellement de l'éditeur. Si certaines images semblaient fidèles à l'œuvre originale, un exemple précis généré par la machine a particulièrement choqué. L'héroïne du jeu s'est retrouvée affublée d'un bas de bikini, de hanches et de cuisses aux proportions anatomiquement invraisemblables, ainsi que de cuissardes montant jusqu'aux genoux. Il va sans dire que cette version grotesque n'a strictement rien à voir avec le design officiel et soigné du personnage tel qu'il apparaît dans le jeu.
L'ironie et la gravité de la situation résident dans le fait que Finji avait pris toutes les précautions nécessaires. Rebekah Saltsman, la directrice générale et cofondatrice du studio, a affirmé catégoriquement avoir désactivé la totalité des options liées à l'intelligence artificielle sur son tableau de bord publicitaire. TikTok propose en effet des fonctionnalités nommées "Smart Creative" ou encore "Automate Creative", conçues pour modifier automatiquement les publicités des utilisateurs grâce à l'IA générative. L'objectif officiel est de créer de multiples variations et d'optimiser la qualité visuelle pour retenir l'attention du public. La dirigeante a fourni des preuves irréfutables attestant que ces paramètres étaient bel et bien éteints, une information d'ailleurs confirmée en interne par un agent de TikTok.
S'en est suivi un véritable parcours du combattant face au service client de la plateforme. Dans un premier temps, TikTok a purement et simplement nié les faits, affirmant ne trouver aucune preuve de l'utilisation d'éléments générés par l'IA, malgré la réception d'une capture d'écran évidente du montage scandaleux. Ce n'est qu'après des échanges de plus en plus tendus que l'entreprise a finalement cessé de contester la réalité de l'incident. Un représentant a fini par admettre que cette situation soulevait des problèmes, reconnaissant l'utilisation non autorisée de la technologie, la sexualisation nuisible des personnages, et l'impact désastreux sur la réputation du studio indépendant.
Malgré ces aveux tardifs, l'explication finale fournie par le réseau social laisse un goût profondément amer. Il s'est contenté de justifier cette altération par l'utilisation d'un format publicitaire de type catalogue, censé améliorer les performances des campagnes de ventes avec moins d'efforts, sans jamais adresser directement la nature offensante du contenu généré. Rebekah Saltsman, informée que le problème ne pouvait être remonté plus haut dans la hiérarchie, a exprimé sa consternation face à cette absence cruelle de réponse appropriée. En l'état actuel des choses, elle attend toujours des excuses formelles ainsi que des garanties solides pour éviter qu'un tel désastre ne se reproduise, tout en avouant, avec un réalisme compréhensible, qu'elle ne se fait guère d'illusions quant à une réelle prise de conscience de la plateforme.
20.02.2026 à 21:22
Lors des récents échanges avec les passionnés au cœur de l'événement FOSDEM 2026 (une conférence annuelle organisée à l'université libre de Bruxelles depuis 2001, la rencontre a lieu chaque année en février avec plus de 5 000 participants et accueille régulièrement des personnalités connues dans le monde des logiciels libres), une réalité pour le moins déconcertante a frappé les représentants du projet F-Droid. La majorité du public semblait profondément soulagée, convaincue que Google avait purement et simplement annulé ses projets de verrouillage du système d'exploitation Android. Cette stupéfaction du côté des développeurs s'explique par un fait indiscutable, un tel recul n'a jamais eu lieu. Les plans de restriction annoncés en août dernier restent fermement programmés et suivent leur cours sans la moindre déviation.
La situation actuelle illustre parfaitement une guerre de campagnes de relations publiques. Dans ce paysage médiatique, l'entité qui publie le dernier communiqué parvient souvent à graver sa vérité dans la mémoire collective. Cette dynamique est malheureusement exacerbée par une tendance de l'industrie à se limiter à un simple copier-coller des déclarations officielles du géant technologique, une pratique qui ne sert l'intérêt d'aucun utilisateur. Google avait vaguement évoqué un processus avancé hypothétique pour rassurer la communauté. La réalité technique dresse pourtant un tout autre tableau. Personne n'a pu apercevoir ni expérimenter cette fonctionnalité magique. Elle brille par son absence dans la mise à jour Android 16 QPR2 de décembre, dans la version 16 QPR3 Beta 2.1 de la semaine dernière, et reste introuvable au sein d'Android 17 Beta 1. Face au temps qui passe, le public a été bercé par la fausse impression que le problème était résolu et que la firme américaine avait miraculeusement renoncé à ses ambitions de contrôle absolu.
Bien que la mémoire collective associe souvent les bannières aux redoutables formats publicitaires qui polluent le web, l'urgence de la situation a imposé un changement radical de stratégie. À l'issue du FOSDEM, la décision a été prise de remettre ce sujet critique sur le devant de la scène. L'objectif est d'informer chaque personne attachée à la vision d'un écosystème ouvert que le compte à rebours est lancé avant que Google ne s'impose comme le gardien exclusif de tous les appareils. En conséquence, le site web ainsi que les applications clientes F-Droid et F-Droid Basic arborent désormais un message d'alerte. Ce dispositif rappelle au public l'étroitesse de la fenêtre d'action restante et l'encourage vivement à faire part de ses inquiétudes aux autorités locales compétentes, seules capables d'appréhender légalement les dangers de cette trajectoire. Ce mouvement de résistance s'étend. La plateforme IzzyOnDroid a immédiatement intégré un avertissement similaire, d'autres clients s'apprêtent à suivre, et des outils alternatifs comme Obtainium déploient d'ores et déjà des boîtes de dialogue préventives.
Sur le plan du développement logiciel, la réécriture de l'application F-Droid Basic progresse de manière nette avec l'introduction de la nouvelle version 2.0-alpha3. Cette itération enrichit considérablement l'expérience utilisateur en apportant des traductions actualisées et en introduisant la possibilité inédite d'exporter la liste des applications installées vers un format CSV. L'interface s'étoffe également d'une fonction d'historique des installations et d'un paramètre exclusif permettant la sélection manuelle des miroirs de téléchargement. La confidentialité est renforcée par l'ajout d'une option bloquant les captures d'écran. L'ergonomie générale franchit un cap avec l'intégration d'infobulles descriptives pour les icônes principales, la création d'un menu déroulant pour les actions secondaires, et la mémorisation permanente de l'ordre de tri. Par ailleurs, l'ensemble des textes a été harmonisé avec les exigences visuelles du Material Design 3, intégrant de judicieuses propositions de la communauté, tout en corrigeant définitivement l'anomalie de l'icône manquante lors de la phase de pré-approbation. Les utilisateurs de la mouture 1.23.x doivent garder à l'esprit que ce passage à la version supérieure exige une démarche proactive. Il leur faudra naviguer dans les paramètres de l'application et autoriser manuellement la réception des versions bêta.
En parallèle de ces luttes d'influence, l'écosystème reprend progressivement son rythme de croisière après les perturbations engendrées par la récente mise à niveau des serveurs Debian et les délais accumulés suite au FOSDEM. Les équipes encouragent d'ailleurs vivement les développeurs d'applications encore sous Java 17 à entamer leur transition vers la version 21. Si chaque application hébergée revêt une importance capitale, la mobilisation constante requise pour contrer les manœuvres de Google consomme une énergie précieuse, un temps qui aurait été bien plus utilement investi dans l'amélioration du code sur Gitlab.
20.02.2026 à 18:12
L'une des premières grandes défaites de la seconde administration de Donald Trump vient tout juste de lui être infligée par une source pour le moins inattendue, la cour suprême des États-Unis. Après des années de décisions judiciaires plutôt favorables à l'ancien et nouveau président américain (qu'il s'agisse de valider son décret migratoire, d'autoriser les services de l'immigration à procéder à des contrôles au faciès, ou encore d'approuver le gel de l'aide étrangère) la cour dirigée par le juge en chef John Roberts a finalement estimé que l'un des coups de force de Trump allait beaucoup trop loin. Dans une décision historique rendue à six voix contre trois, la plus haute juridiction du pays a purement et simplement annulé les vastes droits de douane mondiaux qu'il avait imposés par décret l'année dernière.
Un petit rappel des faits s'impose pour bien comprendre l'ampleur de la situation. En avril dernier, Donald Trump a déclaré que l'état de l'économie américaine était tellement désastreux qu'il justifiait le déclenchement d'un état d'urgence nationale. Dans la foulée, en invoquant la loi sur les pouvoirs économiques d'urgence (l'Emergency Powers Act), il a mis en place un droit de douane de base de 10% sur une très large gamme de biens importés. À cela s'ajoutait une série de pénalités dites « réciproques » ciblant spécifiquement des partenaires commerciaux de premier plan comme la Chine et l'Union Européenne. Le secteur de la technologie, à l'instar de nombreux autres, a été frappé de plein fouet, une immense partie de sa fabrication ayant lieu à l'étranger. À l'époque, de nombreux observateurs s'étaient exclamés que le président n'avait tout simplement pas le droit de faire cela. Aujourd'hui, ces voix critiques ont été pleinement confortées.
Malgré la dissidence des juges conservateurs Samuel Alito, Brett Kavanaugh et Clarence Thomas, les six autres magistrats ont convenu que la Constitution américaine ne confère en aucun cas à un président en exercice le pouvoir de taxer unilatéralement d'autres nations. Cette prérogative appartient exclusivement au congrès. Le juge Roberts a été très clair, expliquant que les pères fondateurs n'ont délégué aucune part du pouvoir de taxation à la branche exécutive. Seul le congrès détient le pouvoir des cordons de la bourse, et les rares exceptions sont soumises à des limites strictes. Rejoint par les juges Gorsuch, Barrett, Kagan, Sotomayor et Jackson, Roberts a conclu que le président ne pouvait pas s'appuyer exclusivement sur la loi IEEPA pour imposer en temps de paix des tarifs douaniers d'un montant et d'une durée illimités. Le juge a également souligné un manque flagrant de précédent historique. En un demi-siècle d'existence de cette loi, aucun président ne l'avait invoquée pour imposer des droits de douane d'une telle ampleur.
Le sort des milliards de dollars déjà perçus grâce à ces tarifs, désormais inconstitutionnels, reste totalement incertain. Les juges ont renvoyé les affaires devant les tribunaux inférieurs, ouvrant la voie à des dizaines de poursuites initiées par de grands détaillants espérant obtenir des remboursements. Le juge Kavanaugh a d'ailleurs souligné que le processus pour aider ces importateurs s'annonce comme un véritable désordre. En novembre dernier, les analystes suggéraient que cette annulation forcerait le gouvernement à rembourser jusqu'à un milliard de dollars. Aujourd'hui, une nouvelle évaluation économique relayée par Reuters a complètement éclipsé ce chiffre. On estime désormais que plus de 175 milliards de dollars pourraient devoir être remboursés, promettant un casse-tête juridique et financier absolument inédit.
20.02.2026 à 17:00
L'ironie de la situation est difficile à ignorer. Alors qu'Amazon accélère l'intégration de l'intelligence artificielle dans tous ses processus tout en réduisant drastiquement ses effectifs humains, sa gigantesque branche de cloud computing, Amazon Web Services (AWS), vient de subir les conséquences directes de cette transition technologique précipitée. Selon de récentes révélations, au moins deux pannes majeures auraient été provoquées par les propres outils d'intelligence artificielle de l'entreprise. Cette situation inédite jette une lumière crue sur les risques liés à l'automatisation à outrance de nos infrastructures numériques les plus critiques.
L'incident le plus marquant remonte au mois de décembre dernier. Pendant treize longues heures, les opérations internes d'AWS ont été sévèrement perturbées. La cause de ce dysfonctionnement ? Un agent d'intelligence artificielle a pris la décision totalement autonome de supprimer, puis de recréer de toutes pièces, une partie de son environnement informatique. L'information, révélée par le Financial Times, fait frémir lorsque l'on réalise qu'AWS fournit l'infrastructure vitale d'une immense partie du web mondial. D'ailleurs, l'entreprise n'en est pas à son coup d'essai en matière de pannes. En octobre 2025, un autre incident avait mis hors ligne des dizaines de sites internet pendant plusieurs heures, relançant les débats sur la dangereuse concentration des services en ligne entre les mains d'une poignée de géants technologiques.
Face à ces révélations troublantes, la réaction d'Amazon a été de minimiser l'impact de ces erreurs générées par des machines. La direction affirme que ces pannes causées par l'intelligence artificielle étaient des événements mineurs et qu'une seule d'entre elles a véritablement affecté les services utilisés directement par les clients. Le contexte social autour de ces incidents est malgré tout particulièrement explosif. Amazon a confirmé la suppression de seize mille emplois en janvier, succédant à une précédente vague de quatorze mille licenciements en octobre. Si le directeur général, Andy Jassy, soutient publiquement que ces coupes sombres visent à restructurer la culture d'entreprise et non à remplacer les travailleurs par des algorithmes, son discours passé laisse transparaître une autre réalité. Il avait en effet déjà déclaré que les gains d'efficacité liés à l'intelligence artificielle réduiraient les effectifs dans les années à venir.
Aujourd'hui, le géant du e-commerce plaide la simple coïncidence. Il a assuré qu'il n'y avait aucune preuve que l'IA entraînait plus d'erreurs que les ingénieurs humains, martelant qu'il s'agissait d'erreurs de l'utilisateur et non de l'outil. Mais cette ligne de défense peine à convaincre les experts. Lorsqu'un ingénieur humain saisit manuellement une série d'instructions, il dispose du temps nécessaire pour prendre conscience de son éventuelle erreur. L'intelligence artificielle, elle, exécute ses tâches instantanément sans aucune capacité de recul.
Ces agents autonomes manquent cruellement de perspective globale. Ils sont incapables de comprendre les ramifications désastreuses que peut avoir le redémarrage d'un système ou la suppression soudaine d'une base de données en plein milieu de la nuit. Ils ne saisissent ni le contexte, ni l'impact financier ou humain sur les clients. Ce constat alarmant fait écho à un autre incident survenu l'année dernière, où un agent conçu par l'entreprise Replit avait purement et simplement effacé la base de données d'une société, avant de fabriquer de faux rapports pour dissimuler ses actions.
En fin de compte, la promesse d'une automatisation infaillible semble être une dangereuse illusion. Il sera presque impossible pour Amazon d'empêcher totalement ces erreurs à l'avenir en raison de l'extrême complexité et de l'imprévisibilité de ces systèmes. L'entreprise américaine n'hésite jamais à brandir l'étendard de l'intelligence artificielle pour justifier des vagues de licenciements massifs, mais lorsque cette même technologie provoque une panne, elle s'empresse de crier à la simple coïncidence. Une contradiction qui soulève des questions existentielles sur l'avenir de la gestion de notre cloud mondial.
20.02.2026 à 16:30
L'année en cours s'avère d'ores et déjà particulièrement sombre pour l'industrie du jeu vidéo et notre géant français Ubisoft n'échappe malheureusement pas à cette triste tendance. Les mauvaises nouvelles s'enchaînent à un rythme épuisant pour les observateurs du secteur ainsi que pour les passionnés. Le constat est en effet des plus amers, les vagues de licenciements se succèdent au sein de l'entreprise. Aujourd'hui, c'est au tour du studio situé à Toronto d'être la dernière victime en date de cette conjoncture économique implacable. Cette nouvelle secousse soulève de nombreuses inquiétudes quant à l'avenir des équipes de développement et à la stabilité globale de cet éditeur historique.
Le studio canadien de Toronto n'est absolument pas une entité mineure dans l'immense écosystème d'Ubisoft. Bien au contraire, il s'agit de l'une des structures les plus imposantes et les plus respectées de l'éditeur. Ses équipes ont précédemment œuvré sur des titres d'envergure internationale qui ont fortement marqué les joueurs, à l'image de Watch Dogs: Legion ou encore du très populaire Far Cry 6. Pourtant, ce pedigree prestigieux n'a pas suffi à épargner les employés des coupes budgétaires actuelles. Environ quarante postes viennent d'être purement et simplement supprimés au sein de cette succursale. Derrière ces chiffres froids se cachent des professionnels talentueux dont le quotidien vient d'être brutalement bouleversé, illustrant la violence de la restructuration en cours qui frappe même les studios les plus productifs.
Face à cette situation humaine délicate, la direction d'Ubisoft a tenu à s'exprimer par le biais d'un communiqué officiel, partagé par le média Mobile Syrup qui a été le premier à rapporter ces nouveaux licenciements. L'entreprise assure que cette décision n'a pas été prise à la légère et qu'elle ne reflète en aucun cas le talent, le dévouement ou les contributions inestimables des personnes directement touchées. La priorité affichée par l'éditeur est désormais d'accompagner au mieux ces anciens collaborateurs durant cette période de transition difficile. Ubisoft promet ainsi des indemnités de départ complètes ainsi qu'une assistance solide pour le reclassement professionnel. Néanmoins, pour les employés concernés comme pour la communauté, ces mots corporatifs peinent souvent à atténuer le véritable choc d'une telle annonce.
Cette réduction drastique des effectifs soulève inévitablement des questions légitimes sur les projets en cours de développement, et plus particulièrement sur le très attendu remake de Splinter Cell. Annoncé en grande pompe en 2021, ce titre a été confié justement aux mains expertes d'Ubisoft Toronto. L'éditeur français s'est voulu rassurant sur ce point, affirmant avec conviction que le développement du jeu suit toujours son cours normal. Le studio canadien continuera donc de porter ce projet ambitieux tout en apportant son assistance habituelle sur la création d'autres licences de l'entreprise. Le sort d'autres franchises a cependant été beaucoup moins clément récemment. Dans le cadre de cette restructuration chaotique, la société a annulé un autre projet de grande envergure, à savoir le remake de The Prince of Persia: The Sands of Time, témoignant des difficultés profondes à mener certains chantiers à leur terme.
Le drame humain qui se joue à Toronto s'inscrit malheureusement dans un contexte systémique. Ces licenciements font suite à des coupes similaires qui ont récemment frappé les studios suédois de l'entreprise. Plus inquiétant encore, le siège social parisien pourrait également voir partir jusqu'à deux cents de ses collaborateurs. Ces suppressions de postes en cascade sont les victimes collatérales d'une réorganisation globale au sein d'une société visiblement en difficulté. Le mécontentement face à ces mesures de réduction des coûts a d'ailleurs atteint un point de rupture historique. La semaine dernière, pas moins de mille deux cents employés se sont mis en grève pour exprimer leur désarroi face à cette politique. Ce mouvement d'ampleur souligne l'urgence de la situation pour notre géant français.
20.02.2026 à 11:54
Google donne, et Google reprend. C'est une dynamique que les utilisateurs des services de l'entreprise connaissent malheureusement très bien. Aujourd'hui, deux fonctionnalités historiques s'apprêtent à disparaître de Gmail. Elles concernent directement la façon dont vous accédez à vos messages provenant d'autres comptes de messagerie non-Google depuis l'interface centralisée de Gmail.
Ces deux outils spécifiques se nomment Gmailify et l'accès POP. Si vous vous reposez sur eux au quotidien pour consolider de multiples adresses au sein de votre boîte de réception principale, il vous faudra impérativement repenser votre organisation et trouver une approche différente. Bien que Google n'ait fourni aucune justification officielle pour expliquer ce changement inattendu, il est fort probable que la stratégie soit de simplifier l'architecture globale de Gmail tout en nous encourageant subtilement à passer l'essentiel de notre temps exclusivement sur son écosystème. Selon le calendrier communiqué par l'entreprise, ces fonctionnalités seront totalement fermées aux nouveaux utilisateurs dès ce premier trimestre 2026. Pour les utilisateurs existants, la transition sera un peu plus douce, l'option demeurant active jusqu'à plus tard dans le courant de cette année.
La fermeture programmée de Gmailify marque la fin d'une époque de grande commodité pour beaucoup d'entre nous. Lancé en février 2016, ce service ingénieux permettait d'importer vos messages depuis des comptes Outlook ou Yahoo, pour ensuite y superposer les fonctionnalités exclusives de Gmail. Concrètement, l'outil ajoutait le redoutable filtrage anti-spam basé sur les algorithmes de Google ainsi que les règles d'organisation automatisées de la boîte de réception. Vos courriels externes se retrouvaient ainsi classés par magie dans des onglets dédiés.
Cette fonctionnalité s'appuyait sur une version du protocole IMAP pour récupérer les mails tout en appliquant des astuces techniques complexes sur le web et les applications mobiles. Après la fermeture du service, tous ces avantages s'évaporeront tout simplement. Vous pourrez toujours accéder à vos comptes tiers via Gmail en utilisant le protocole IMAP classique depuis votre smartphone, mais sans la touche magique de Google. L'implémentation de ce dernier sur une interface web s'avère extrêmement technique, un investissement que Google ne juge visiblement plus prioritaire. En utilisant l'IMAP mobile, vos courriels externes apparaîtront dans l'interface pour être lus et répondus, mais ils ne seront plus stockés dans votre espace de stockage Google et se synchroniseront instantanément avec le serveur d'origine.
De son côté, le protocole POP est un standard très ancien d'accès aux courriels, presque intégralement remplacé par l'IMAP moderne. Compte tenu de son âge canonique, il n'est guère surprenant que Google décide enfin de le mettre à la retraite. Néanmoins, ce système a longtemps représenté une méthode fiable pour rapatrier des messages vers Gmail. Contrairement à son successeur, il ne propose aucune synchronisation intelligente. Lorsque Gmail récupère un mail par ce biais, il télécharge complètement le message, offrant une lecture hors ligne fluide et permettant de conserver une trace permanente dans l'espace de stockage Google. C'était une méthode parfaite pour archiver passivement des adresses secondaires sans jamais se soucier de l'espace restant sur le serveur d'origine.
Face à ces suppressions définitives, quelles sont vos alternatives ? Google recommande logiquement de configurer le transfert automatique depuis vos autres comptes directement vers Gmail. Cette solution présente néanmoins de grandes limites car vous ne pourrez que lire les messages transférés et non y répondre avec l'adresse d'origine. De plus, certains fournisseurs de messagerie, comme Yahoo, facturent désormais ce service.
L'alternative la plus pérenne consistera à adopter une approche plus traditionnelle en utilisant un véritable client de messagerie de bureau, tel que Microsoft Outlook ou Thunderbird. Ces logiciels dédiés vous permettront de synchroniser une multitude de comptes différents au sein d'une seule interface centralisée grâce au protocole IMAP. Bien que cela ne ramène pas vos courriels externes sur l'interface web de Gmail, cela reste incontestablement la méthode la plus robuste pour consolider efficacement votre correspondance électronique au quotidien.
20.02.2026 à 08:09
Imaginez un instant que votre ordinateur décide, de son propre chef, de télécharger et d'installer un logiciel sans la moindre intervention de votre part. Ce scénario vient de se produire dans le monde réel sous la forme d'une farce numérique qui fait froid dans le dos. Un pirate informatique particulièrement astucieux est parvenu à tromper un outil de programmation assisté par intelligence artificielle très populaire, l'obligeant à installer en masse OpenClaw sur les machines de nombreux utilisateurs. OpenClaw n'est pas un logiciel banal, il s'agit de l'agent d'IA open source devenu viral récemment, célèbre précisément parce qu'il est capable d'accomplir des tâches avancées de manière totalement autonome. Si l'événement prête à sourire par son côté spectaculaire, il représente en réalité un avertissement critique. À l'heure où nous déléguons de plus en plus de responsabilités à des logiciels autonomes, cet incident montre les failles béantes de nos systèmes informatiques.
Pour comprendre comment une telle prouesse technique a pu se réaliser, il faut se pencher sur le fonctionnement de l'outil ciblé, nommé Cline. Il s'agit d'un assistant de programmation open source adopté par la communauté des développeurs. Son architecture repose en grande partie sur l'intelligence artificielle Claude, développée par l'entreprise Anthropic. C'est exactement ici que la faille est apparue. Le pirate a exploité une vulnérabilité redoutable connue sous le nom d'injection de prompt. En termes simples, cette technique de manipulation consiste à glisser des instructions furtives dans les commandes envoyées à l'intelligence artificielle. Piégée par ces directives trompeuses, cette dernière contourne ses propres barrières de sécurité et exécute des actions interdites. Le chercheur en cybersécurité Adnan Khan avait d'ailleurs mis en évidence cette faille précise quelques jours seulement avant l'attaque, en la présentant comme une simple preuve de concept théorique.
Une fois l'accès obtenu grâce à cette manipulation verbale de l'intelligence artificielle, le pirate disposait d'un pouvoir quasi illimité sur les ordinateurs des victimes. Il aurait parfaitement pu déployer des logiciels de rançon destructeurs, dérober des données personnelles sensibles ou saboter des environnements de travail entiers. Au lieu de cela, il a fait le choix d'installer OpenClaw de manière invisible. Fort heureusement pour les développeurs touchés, les agents OpenClaw n'ont pas été activés automatiquement après leur installation furtive. Si ces agents autonomes s'étaient réveillés et avaient commencé à interagir avec les systèmes infectés, les conséquences auraient été radicalement différentes et potentiellement désastreuses.
Cet événement illustre de manière spectaculaire à quelle vitesse la situation peut dégénérer lorsque nous accordons le contrôle de nos machines à des agents virtuels. Les injections de prompt peuvent parfois ressembler à de simples jeux de mots amusants (un groupe de chercheurs a récemment réussi à convaincre des robots conversationnels de commettre des délits virtuels en utilisant de la poésie) mais le danger est bien réel. Dans un monde de logiciels de plus en plus autonomes, ces manipulations constituent des risques importants contre lesquels il est extrêmement complexe de se prémunir. Face à ce constat, certaines entreprises adoptent une approche de confinement. OpenAI, par exemple, a récemment introduit un nouveau "Mode Verrouillage" pour ChatGPT, empêchant l'intelligence artificielle de divulguer ou d'altérer vos données si elle venait à être détournée.
Au-delà de l'aspect technologique, cette affaire met en exergue un problème humain dans la gestion des crises. Il est logiquement impossible de se protéger contre les piratages si l'on ignore les experts qui signalent discrètement les vulnérabilités. Adnan Khan a affirmé avoir alerté les créateurs de Cline des semaines avant la publication de ses recherches. Ses avertissements privés sont malheureusement restés lettre morte. Il aura fallu qu'il dénonce la situation publiquement sur internet, forçant ainsi la main des développeurs, pour que la faille soit finalement corrigée. Une leçon d'humilité indispensable à l'aube de l'ère des agents autonomes.
19.02.2026 à 16:44
Les outils de codage pilotés par l'intelligence artificielle deviennent de plus en plus puissants et omniprésents. La création de logiciels est censée devenir extrêmement bon marché. C'est du moins la théorie dominante à l'heure actuelle. Cette dynamique laisserait peu de marge de manœuvre et de place aux entreprises de logiciels traditionnelles. Comme l'a souligné un récent rapport d'analystes, le concept de "vibe coding" (cette faculté à générer du code presque intuitivement par de simples requêtes textuelles) permettrait aux toutes jeunes startups de reproduire facilement les fonctionnalités des plateformes cloud les plus complexes.
Face à cette révolution annoncée, les cris d'alarme et les déclarations prophétiques sur la fin inévitable des ingénieurs se multiplient. En toute logique, les projets open source, qui sont limités historiquement par un manque cruel de ressources financières et humaines, devraient être les tout premiers à bénéficier de cette nouvelle période d'abondance algorithmique pour combler leurs lacunes. Pourtant, sur le terrain, cette équation simpliste ne fonctionne pas vraiment. L'impact réel de l'IA sur l'univers du logiciel libre s'avère beaucoup plus nuancé et épineux qu'il n'y paraît.
Selon de nombreux experts du secteur technologique, ces assistants virtuels ont causé tout autant de problèmes qu'ils n'en ont résolus. Leur nature particulièrement accessible a provoqué un véritable raz-de-marée de code de très mauvaise qualité qui menace aujourd'hui de submerger les communautés. S'il est devenu plus simple que jamais de développer et d'ajouter de nouvelles fonctionnalités, leur maintenance dans le temps reste un défi colossal qui risque de fragmenter encore davantage les écosystèmes logiciels existants.
De manière très générale, les projets dotés de bases de code ouvertes constatent une baisse particulièrement inquiétante de la qualité moyenne des soumissions externes, un effet direct de la baisse des barrières à l'entrée. Jean-Baptiste Kempf, le PDG de l'organisation VideoLan qui supervise le célèbre lecteur multimédia VLC, a récemment déclaré que, pour les contributeurs novices s'attaquant à leur base de code, la qualité des requêtes d'intégration était tout simplement catastrophique. Bien qu'il reste foncièrement optimiste quant au potentiel de l'IA sur le long terme, il précise avec insistance que ces outils ne sont réellement pertinents que lorsqu'ils sont manipulés par des développeurs très expérimentés. L'IA facilite par exemple le portage de VLC vers un nouveau système d'exploitation pour un profil senior, mais devient rapidement incontrôlable entre les mains d'une personne qui ne maîtrise pas l'architecture globale.
Des difficultés tout à fait similaires ont frappé Blender, le célèbre logiciel de modélisation 3D maintenu par une communauté active depuis 2002. Son PDG, Francesco Siddi, a remarqué que les contributions assistées par les grands modèles de langage faisaient surtout perdre un temps précieux aux relecteurs humains, affectant gravement leur motivation quotidienne. Bien que Blender élabore encore sa politique officielle sur le sujet, ces outils ne sont ni exigés ni recommandés. Face à ce déluge ingérable, les créateurs de logiciels libres doivent imaginer de nouvelles barrières de sécurité.
Le développeur Mitchell Hashimoto a par exemple lancé un système limitant les contributions sur la plateforme GitHub aux seuls utilisateurs parrainés, fermant de fait la politique historique de la porte ouverte. Comme il l'explique si bien, l'IA a tout simplement détruit la barrière naturelle à l'entrée qui permettait aux projets open source d'accorder leur confiance par défaut. Le programme open source de transfert de données cURL a même dû suspendre son système de chasse aux bugs de sécurité, son créateur Daniel Stenberg se disant totalement submergé par une bouillie générée par l'IA. Auparavant, signaler une faille demandait un effort intellectuel qui filtrait naturellement les requêtes, une friction salvatrice qui a aujourd'hui totalement disparu, laissant les vannes grandes ouvertes.
Au cœur de cette crise se trouve une divergence de priorités. Les grandes entreprises valorisent avant tout la production rapide de nouveaux produits pour obtenir des promotions, tandis que l'open source privilégie la résilience et la stabilité à long terme. L'IA percute une tendance de fond. Nous avons des bases de code dont la complexité et les interdépendances croissent de manière exponentielle, face à un nombre de mainteneurs qui peine lourdement à suivre le rythme. Avec cette technologie, ces deux variables se sont accélérées simultanément.
C'est une nouvelle façon d'envisager l'impact de l'IA sur l'ingénierie, avec des implications alarmantes pour l'industrie. Si l'ingénierie consistait uniquement à produire du code fonctionnel à la chaîne, l'intelligence artificielle rendrait la tâche redoutablement aisée. Mais si ce métier consiste avant tout à gérer la complexité logicielle au fil du temps, ces nouveaux outils pourraient bien empirer la situation globale en exigeant une planification immense. L'IA n'augmente pas le nombre de mainteneurs actifs et compétents. Elle décuple simplement les capacités des meilleurs, laissant les défis fondamentaux intacts. La mort programmée de l'ingénieur logiciel est donc, sans aucun doute, largement prématurée.
19.02.2026 à 09:56
Pendant près de vingt ans, les États-Unis ont discrètement soutenu un effort mondial d'une importance vitale, empêcher Internet de se fracturer en une multitude de fiefs numériques contrôlés par des gouvernements autoritaires. Aujourd'hui, par un cynisme politique effarant et une quête aveugle de réduction des coûts, l'administration Trump est en train de détruire ce rempart. En coupant drastiquement les vivres de ces programmes de liberté numérique, Washington ne fait pas que réaliser des économies de bout de chandelle mais sacrifie délibérément la sécurité de millions de dissidents à travers le monde et déroule le tapis rouge aux pires dictatures de la planète.
Le programme, sobrement baptisé « Internet Freedom », était jusqu'à récemment géré par le département d'État et l'agence américaine pour les médias mondiaux. Son rôle était crucial, financer de petits groupes de développeurs et d'activistes, de l'Iran aux Philippines en passant par la Chine, qui conçoivent des technologies pour contourner la censure étatique. Plus de 500 millions de dollars ont été judicieusement alloués au cours des dix dernières années pour soutenir ce combat asymétrique. Mais cette époque est manifestement révolue. L'arrivée du "Doge", ce fameux département de l'efficacité gouvernementale voulu par Donald Trump, a frappé cette initiative avec la brutalité d'un couperet aveugle.
Sous prétexte de rationaliser l'État, les employés de carrière de ce programme ont été poussés à la démission ou purement et simplement licenciés en 2025. Le résultat de cette purge administrative est désastreux. Le principal bureau d'attribution des subventions n'a versé absolument aucun fonds l'année dernière. Pire encore, alors que l'organisation à but non lucratif Open Technology Fund a remporté une victoire en justice en décembre dernier pour tenter de restaurer une partie de ce financement vital, l'administration Trump a immédiatement fait appel. Ce geste prouve une hostilité active envers ces initiatives de liberté. Ce désengagement idéologique a d'ailleurs atteint son paroxysme en janvier dernier, lorsque les États-Unis se sont officiellement retirés de la Freedom Online Coalition, une alliance mondiale de défense des droits numériques qu'ils avaient pourtant eux-mêmes contribué à créer.
Les conséquences humaines de ce sabotage institutionnel sont incalculables. Les coupes budgétaires menacent de neutraliser des technologies qui ont récemment permis aux Iraniens de se coordonner lors de manifestations violemment réprimées, ou de diffuser au monde extérieur les images sanglantes des exactions de leur régime. Cet abandon frappe aussi de plein fouet les courageux activistes du Myanmar qui tentent de percer le rideau de fer numérique de la junte militaire, ainsi que les citoyens chinois cherchant à échapper à une surveillance de masse dystopique. Les outils menacés vont des applications connues comme Signal ou le navigateur Tor, jusqu'à des systèmes de contournement extrêmement sophistiqués permettant de capter des données par satellite lorsque les régimes coupent les réseaux mobiles traditionnels.
Pendant que l'administration américaine se félicite de ses coupes budgétaires destructrices, les régimes autoritaires, eux, investissent massivement. Les technologies de censure deviennent de moins en moins chères et s'exportent facilement, à l'image des équipements chinois de surveillance des réseaux qui inondent désormais l'Afrique et l'Asie. Face à cette menace grandissante, les créateurs d'outils anti-censure, qui travaillent souvent depuis leurs petits appartements avec une passion dévouée, se retrouvent contraints de licencier leurs équipes ou de travailler sans aucune rémunération.
En abdiquant de la sorte, le gouvernement américain envoie un message terrifiant au reste du monde. La défense de la liberté d'expression en ligne ne compte plus. Ce retrait irresponsable facilite grandement la tâche du Kremlin, de Pékin et de Téhéran, qui peuvent désormais enfermer leurs populations dans des bulles informationnelles étanches avec une facilité déconcertante. Les regards et les derniers espoirs se tournent désormais vers l'Europe, dans l'attente désespérée qu'elle reprenne le flambeau que Washington a lâchement laissé tomber.
19.02.2026 à 09:43
Dans une époque numérique largement dominé par les géants technologiques américains, la question de la souveraineté des données n'a jamais été aussi importante pour l'Europe. C'est précisément pour répondre à ce défi qu'est né le site EU Tech Map. À travers son impressionnante carte interactive, il cartographie avec précision l'écosystème technologique européen.
Le but est de proposer un annuaire complet des alternatives européennes aux logiciels et services étrangers. Que vous cherchiez un hébergeur cloud, un outil de visioconférence ou une solution de paiement, le site met en avant des entreprises qui respectent scrupuleusement le RGPD et qui garantissent un hébergement des données au sein de l'Union Européenne.
En explorant cette carte interactive, vous pouvez visualiser la répartition géographique de l'innovation sur le continent. Ce projet indépendant, lancé par Dante Emilio Grassi, recense aujourd'hui plus de 600 entreprises réparties dans une trentaine de pays et classées dans plus de 30 catégories (intelligence artificielle, hébergement cloud, cybersécurité, etc.). L'outil permet de trouver facilement des remplaçants locaux et sécurisés pour des mastodontes comme AWS, Stripe, Dropbox ou Google Meet.
19.02.2026 à 09:41
Nous vivons une époque paradoxale où nous produisons plus d'informations que jamais, tout en stockant ces trésors numériques sur des supports d'une fragilité déconcertante. Nos disques durs, bandes magnétiques et Blu-ray sont tous soumis aux ravages du temps, craignant l'humidité, la chaleur et la démagnétisation. Face à la menace d'un âge des ténèbres numérique, où nos connaissances pourraient s'effacer simplement parce que le support physique a échoué, Microsoft Research propose une solution qui semble tout droit sortie d'un bon roman d'anticipation. Récemment dévoilé dans la revue Nature, le Project Silica promet de graver notre héritage, non pas dans la pierre, mais dans le verre, pour l'éternité.
Le concept repose sur l'utilisation de verre de quartz, plus techniquement appelé borosilicate, un matériau extrêmement stable chimiquement et physiquement. Contrairement aux idées reçues sur la fragilité de la vaisselle, ce type de verre, une fois gravé au niveau moléculaire, devient un coffre-fort quasi indestructible. L'objectif est de créer un support de stockage dense qui ne consomme absolument aucune énergie lorsqu'il n'est pas utilisé et qui peut survivre pendant des millénaires sans dégradation. Là où une bande magnétique doit être remplacée ou réenregistrée régulièrement, une plaque de verre Silica est conçue pour la négligence bienveillante. On la pose sur une étagère et on l'oublie, avec la certitude que les données seront intactes 10 000 ans plus tard.
La prouesse technologique réside dans la méthode d'écriture. Les chercheurs utilisent des lasers femtosecondes, qui émettent des impulsions lumineuses ultra-courtes et intenses, pour modifier la structure interne du verre. Ce processus ne se contente pas de brûler la surface comme un graveur de CD classique. Il crée des nanostructures tridimensionnelles appelées "voxels" à différentes profondeurs dans le verre. Chaque voxel peut stocker plusieurs bits d'information en jouant sur deux propriétés optiques, la polarisation et l'intensité de la lumière. Cela permet une densité de stockage phénoménale, une seule plaque de verre de douze centimètres carrés et de deux millimètres d'épaisseur pouvant contenir environ 4,8 téraoctets de données. Cela représente l'équivalent de deux millions de livres ou de milliers de films en ultra-haute définition.
Pour relire ces informations, le système n'utilise pas un simple laser, mais un microscope sophistiqué piloté par ordinateur qui analyse les changements de réfraction de la lumière à travers le verre. Comme les couches de données sont empilées les unes sur les autres, la lecture est complexe. C'est ici qu'intervient l'intelligence artificielle. Un réseau de neurones convolutif a été entraîné pour décoder les images capturées par le microscope, distinguant les signaux clairs du bruit environnant et permettant une récupération rapide et précise des données, bien plus véloce que le séquençage d'ADN, une autre piste envisagée pour l'archivage à long terme.
Toutefois, cette technologie n'est pas encore prête à atterrir dans nos ordinateurs personnels. Le principal goulot d'étranglement reste la vitesse d'écriture. Actuellement, graver une plaque entière peut prendre plusieurs jours, ce qui est trop lent pour les besoins massifs de projets scientifiques. Pour pallier ce problème, Microsoft développe des systèmes utilisant plusieurs lasers en parallèle pour accélérer la gravure sans surchauffer le matériau.
Malgré ces défis, Project Silica reste une belle avancée. En transformant un matériau aussi commun que le verre en un support capable de résister à l'eau, aux impulsions électromagnétiques et aux températures extrêmes, nous nous approchons d'une solution d'archivage pérenne. C'est une fusion élégante entre la physique optique de pointe et l'apprentissage automatique, offrant une lueur d'espoir pour la préservation indéfinie de notre histoire numérique.
19.02.2026 à 09:40
Dans l'univers feutré et souvent impitoyable de la haute fidélité, il existe un débat qui fait rage depuis des dizaines d'années, divisant les passionnés en deux camps irréconciliables. D'un côté, nous trouvons les audiophiles puristes, persuadés que la qualité des câbles d'interconnexion (ces fils qui transportent le signal analogique non amplifié entre les composants) est déterminante pour une expérience d'écoute transcendante. De l'autre, les sceptiques et les hommes de science affirment que, tant que le câble est correctement construit, les différences sonores sont techniquement inaudibles pour l'oreille humaine. Récemment, cette guerre de tranchées a connu un bouleversement aussi hilarant qu'instructif grâce à une expérience menée sur les forums du site diyAudio, relayée par Tom’s Hardware. Un utilisateur ingénieux nommé Pano a décidé de mettre fin aux spéculations par un test à l'aveugle, opposant des câbles professionnels à... une banane.
L'expérience a été conçue avec une rigueur surprenante pour un test impliquant des fruits. Pano a présenté quatre versions d'un même extrait audio de trente secondes. La première était l'enregistrement original sur CD, servant de référence absolue. Les trois autres étaient des boucles réenregistrées après avoir fait passer le signal à travers différents conducteurs: un câble en cuivre de qualité professionnelle, un montage hybride passant par de la boue humide et enfin, un circuit intégrant une véritable banane fraîche. Le défi lancé à la communauté était simple mais redoutable, écouter attentivement les fichiers et identifier quel échantillon correspondait à quelle configuration. Les résultats furent sans appel et, pour beaucoup, humiliants.
Sur les quarante-trois participants ayant soumis leurs réponses, seuls six ont réussi à identifier correctement l'enregistrement original ou celui passant par le câble professionnel. Pire encore, l'analyse statistique des résultats a démontré que les réponses étaient totalement cohérentes avec le hasard complet. En d'autres termes, lancer une pièce en l'air aurait produit des résultats similaires. Une anecdote savoureuse ressort même de ce fiasco audiophile. Au moins un participant a déclaré préférer systématiquement la musique de la banane, lui trouvant sans doute une chaleur ou une texture particulière qui échappait aux câbles en cuivre traditionnels. Bien que cela puisse sembler être une simple farce destinée à moquer ceux qui dépensent des fortunes en connectique, l'expérience révèle en réalité des principes physiques fascinants.
Stupéfiant de constater que l'on peut obtenir un résultat audio décent en faisant transiter un signal électrique par un fruit ou de la terre mouillée. Ce phénomène s'explique par la chimie élémentaire. Si l'eau pure est un isolant, l'eau chargée d'impuretés et de sels minéraux devient conductrice. Le sol regorge de molécules dissoutes et les bananes sont célèbres pour leur teneur en potassium. Ces éléments permettent au signal de traverser le milieu sans dégradation notable de la qualité sonore. Comme le note Pano, la banane et la boue agissent simplement comme des résistances en série. Elles réduisent le niveau du signal, c'est-à-dire le volume, mais n'altèrent pas la fréquence ou la fidélité de manière perceptible pour l'oreille humaine. La conclusion technique est que le matériau du conducteur importe peu tant que le blindage contre les interférences externes est efficace.
La discussion qui a suivi sur le forum, s'étalant sur plusieurs pages, est une mine d'or d'humour involontaire et de sérieux académique. Les membres ont débattu de la maturité de la banane et de son impact potentiel sur les aigus, ou encore de la distance géographique entre le lieu de culture du fruit et l'origine de la terre utilisée pour la boue. On y trouve des phrases d'anthologie rappelant qu'il existe de nombreux effets physiques affectant le son qui ne sont testés ni par les bananes ni par la boue. Au final, il y a fort à parier que vos oreilles ne feront pas la différence entre un câble hors de prix et le contenu de votre corbeille à fruits. Cela incite à reconsidérer nos priorités budgétaires. Peut-être vaut-il mieux investir dans de meilleures enceintes ou simplement plus de musique, plutôt que dans des câbles aux promesses ésotériques.
19.02.2026 à 09:37
Si vous aviez encore la naïveté de croire que X était une place publique neutre favorisant la liberté d'expression, il est grand temps de vous réveiller. Le masque est définitivement tombé. Une nouvelle étude accablante publiée dans la revue Nature vient confirmer ce que beaucoup suspectaient déjà. La plateforme d'Elon Musk n'est plus un réseau social, mais une machine de propagande algorithmique conçue pour amplifier les voix conservatrices et étouffer le journalisme traditionnel.
La transformation a été méthodique et insidieuse. Jusqu'en 2016, nous profitions d'une chronologie simple et transparente. Puis est venu le choix algorithmique, avant que Musk, après son rachat en 2022, ne fasse de la page « Pour vous » la norme par défaut. Aujourd'hui, cette curation est devenue, selon les propres mots du propriétaire, purement dirigée par une intelligence artificielle. Et pas n'importe laquelle, nous parlons ici de Grok, une IA controversée que le milliardaire lui-même surnomme ironiquement MechaHitler. Ce n'est pas une blague, c'est l'architecture même de l'information mondiale qui est en jeu.
Les chiffres révélés par les chercheurs de l'université Bocconi, de l'université de Saint-Gall et de l'école d'économie de Paris sont effrayants de clarté. L'algorithme ne se contente pas de chercher l'engagement, il choisit un camp. Le contenu de nature conservatrice bénéficie d'un coup de pouce de visibilité d'environ 20%, tandis que le contenu libéral ne reçoit qu'un maigre avantage de 3%. Pire encore, la plateforme mène une guerre ouverte contre l'information vérifiée. Les publications des médias traditionnels ont vu leur visibilité chuter de près de 58% dans les fils algorithmiques, remplacées par les cris des militants politiques (+27%) et le divertissement abrutissant.
Ce biais structurel n'est pas sans conséquences. Il ne s'agit pas seulement de ce que vous voyez, mais de ce que vous devenez. L'étude a démontré qu'en seulement sept semaines d'exposition au fil algorithmique, des utilisateurs ont vu leurs opinions politiques se déplacer vers la droite. Ces cobayes involontaires ont développé des positions plus dures sur l'immigration, une vision plus favorable au Kremlin dans la guerre contre l'Ukraine, et un scepticisme accru envers les enquêtes criminelles visant Donald Trump. Ce glissement idéologique persiste même après l'expérience, car l'algorithme force littéralement la main des utilisateurs en les incitant à s'abonner massivement à des comptes d'activistes conservateurs.
Face à ces preuves, la réaction de Musk est prévisible avec le déni et l'attaque. Lorsque la police française a perquisitionné les bureaux de X dans le cadre d'une enquête sur cette manipulation politique potentielle, le milliardaire a crié à la motivation politique. C'est une défense commode pour quelqu'un qui a transformé un outil de communication mondial en mégaphone personnel pour ses alliés idéologiques. Sky News avait déjà tiré la sonnette d'alarme l'an dernier, notant que l'algorithme favorisait le contenu extrême et les politiciens adoubés par le patron.
Pendant que la plateforme corrode le débat public, la direction tente de distraire les utilisateurs avec des mises à jour techniques bâclées pour copier TikTok. Nikita Bier, chef produit chez X, a récemment annoncé un nouveau lecteur vidéo immersif. Si l'intention est de capturer l'attention des utilisateurs mobiles, l'exécution est critiquée pour son interface médiocre qui force le recadrage des vidéos, au mépris du format original. C'est une tentative désespérée de rester pertinent face à la concurrence, alors même que l'outil d'IA générative de la plateforme, Grok, fait scandale en permettant la création d'images pornographiques deepfakes de femmes et d'enfants.
X n'est plus le réseau social que nous avons connu. C'est devenu un environnement toxique où la technologie est détournée pour façonner votre vision du monde à votre insu. L'algorithme ne vous sert pas. Il vous manipule. Chaque minute passée sur ce fil « Pour vous » est une minute passée dans une chambre d'écho conçue pour radicaliser, diviser et désinformer. La question n'est plus de savoir si l'algorithme est biaisé, mais combien de temps nous allons encore accepter d'être les jouets de cette expérimentation politique à grande échelle.
19.02.2026 à 09:35
Mastodon continue de s’imposer comme l’alternative de référence à X. Renaud Chaput, directeur technique de la plateforme, accompagné d’Imani Joy, responsable du design produit, a récemment pris la parole pour dévoiler la feuille de route de l’organisation. Loin de se reposer sur ses lauriers, l’équipe technique affiche l'ambition de rendre le Fédivers plus accessible, diversifié et puissant pour tous, du néophyte curieux au créateur de contenu chevronné.
Au cœur de cette vision, Mastodon reste fidèle à son ADN de plateforme de microblogging. L’objectif demeure de bâtir une application permettant à chacun de se connecter avec ses proches et de partager sa créativité librement. Sa force réside dans son appartenance au Fédivers, cet écosystème d’applications interconnectées basées sur des standards communs. Cette architecture unique vous offre la liberté de choisir les communautés qui correspondent le mieux à votre mode d’expression, sans jamais être enfermés dans un seul silo technologique.
Pour soutenir cette croissance, l’organisation a radicalement transformé sa structure interne au cours des dix-huit derniers mois. Renaud souligne le passage d’une équipe restreinte, comptant seulement un ou deux développeurs full-stack, à un groupe élargi aux expertises variées, couvrant le backend, le web et le mobile. L’arrivée de designers dédiés a également permis d’approfondir la réflexion sur l’expérience utilisateur. Cette montée en puissance s’est concrétisée par une accélération notable du rythme des mises à jour, avec les versions 4.3, 4.4 et 4.5, qui ont apporté des fonctionnalités très attendues comme les citations de publications, une meilleure gestion des listes et des outils de découverte améliorés.
Néanmoins, l’équipe insiste sur un point important. Mastodon est devenu une infrastructure vitale pour beaucoup. Par conséquent, la stabilité et la sécurité restent prioritaires sur la course effrénée aux nouveautés. C’est pourquoi la feuille de route à court terme, portant sur les trois à six prochains mois, reste délibérément focalisée pour éviter les promesses intenables. Mais en levant les yeux vers l’horizon des deux prochaines années, les ambitions se dessinent plus nettement.
L’un des chantiers majeurs concerne l’accessibilité. Pour qu’un écosystème prospère, il doit être ouvert à tous, indépendamment du bagage technique. L’équipe travaille donc à une refonte des éléments centraux de l’expérience, notamment un processus d’inscription simplifié qui guide les nouveaux venus dans le choix d’un serveur sans les submerger d’informations. La navigation sera clarifiée et les outils de recherche renforcés pour faciliter la découverte de communautés pertinentes.
Parallèlement, le mammouth souhaite redonner du pouvoir aux serveurs indépendants. Le constat est simple, trop de nouveaux utilisateurs affluent par défaut vers les plus grosses instances, ce qui contredit l’esprit décentralisé du projet. Pour y remédier, de nouveaux outils d’administration seront déployés. Ils permettront aux opérateurs de serveurs de mieux gérer la modération grâce à des listes de blocage externes et des systèmes de détection de spam extensibles. De plus, des solutions techniques permettront de déléguer l’hébergement des fichiers médias à des tiers de confiance, réduisant ainsi les coûts de stockage. Une refonte de la découverte des serveurs est également prévue pour mieux mettre en lumière la diversité des communautés existantes.
Enfin, Mastodon tend la main aux créateurs de contenu, aux journalistes et aux institutions publiques. Pour séduire ces acteurs habitués aux plateformes grand public, l’interface de profil sera repensée pour mieux valoriser leur travail, tout comme l’outil de composition de messages. Une fonctionnalité particulièrement innovante est en préparation pour les organisations, un système de notification par e-mail permettant au public de suivre les mises à jour d’une institution sans même avoir besoin de créer un compte. L’idée est de permettre aux créateurs de toucher leur audience où qu’elle soit, sans passer par le prisme de la manipulation algorithmique. Ces évolutions témoignent de l’engagement de Mastodon à construire un web social qui place l’humain au centre, sans jamais exploiter les données personnelles ni courir après des mesures d’engagement artificielles.
19.02.2026 à 09:33
L'industrie de l'intelligence artificielle traverse actuellement une crise d'adolescence critique. Alors que les coûts de fonctionnement des modèles de langage explosent, les géants de la tech cherchent désespérément des modèles économiques viables pour financer cette course à l'armement technologique. Jusqu'à récemment, la réponse semblait évidente et calquée sur le modèle du Web 2.0 avec la publicité. Pourtant, un revirement spectaculaire vient de secouer la Silicon Valley. Perplexity a décidé de faire machine arrière. Après avoir testé l'intégration de liens sponsorisés en 2024, l'entreprise s'éloigne désormais activement de la publicité. Ce choix révèle un dilemme fondamental qui divise désormais le secteur. Un chatbot peut-il être à la fois un vendeur et un conseiller fiable ?
La décision de Perplexity, révélée lors d'une table ronde et rapportée par le Financial Times, n'est pas simplement un ajustement technique, c'est une prise de position philosophique. La direction de l'entreprise a réalisé que le modèle publicitaire traditionnel est intrinsèquement toxique pour une IA générative qui se veut un moteur de réponses précis. Un exécutif a résumé le problème avec une lucidité tranchante en expliquant que le défi avec la publicité est le doute immédiat qu'elle installe chez l'utilisateur. Si une machine est payée pour vous montrer quelque chose, comment pouvez-vous être certain que sa réponse est factuelle et impartiale ? Dans un monde où l'hallucination des IA est déjà un problème, ajouter un biais commercial volontaire risque de briser définitivement le lien de confiance.
Pour Perplexity, l'objectif est désormais de vendre de la vérité, pas de l'espace d'écran. L'entreprise se positionne sur le marché de la précision ("accuracy business"). Plutôt que de monétiser l'attention de millions d'utilisateurs gratuits via des bannières ou des liens suggérés, elle préfère se concentrer sur la création d'un produit pour lequel les consommateurs sont prêts à payer directement. La cible n'est plus le grand public passif, mais les utilisateurs "haute puissance": les professionnels de la finance, les avocats, les médecins et les PDG. Ces profils exigent une fiabilité sans faille et sont disposés à souscrire à des abonnements premium pour obtenir des outils de recherche qui ne servent aucun autre agenda que le leur. C'est un pari risqué qui délaisse le volume pour la valeur, espérant que la qualité des réponses suffira à financer les coûts astronomiques du calcul informatique.
Ce pivot place Perplexity au cœur d'une fracture idéologique grandissante dans la Silicon Valley. D'un côté, nous trouvons le camp des puristes de l'expérience utilisateur, mené par Anthropic et rejoint désormais par Perplexity. Le créateur de Claude, a fait de l'absence de publicité un argument de vente central, allant même jusqu'à diffuser des spots publicitaires lors du Super Bowl pour attaquer implicitement ses concurrents sur ce terrain. De l'autre côté se dresse OpenAI, le titan du secteur. Sous la pression de devoir rentabiliser ses investissements, il a commencé à tester l'affichage de publicités pour ses utilisateurs gratuits. Pour Sam Altman et ses équipes, la publicité semble être un mal nécessaire pour maintenir l'accessibilité de l'outil au plus grand nombre.
La tension est palpable et dépasse les simples choix de gestion. Elle devient un débat public. Lorsque Anthropic attaque le modèle publicitaire, Sam Altman réplique en qualifiant ces attaques de malhonnêtes. Ce clivage illustre deux visions du futur d'Internet. La première, celle d'OpenAI, prolonge l'ère Google où l'information est gratuite en échange de notre attention commerciale. La seconde, celle de Perplexity et Anthropic, imagine un futur où l'IA agit comme un oracle privé et impartial, un service de luxe où la neutralité s'achète.
Bien qu'un retour à la publicité ne soit pas définitivement exclu pour l'avenir lointain de Perplexity, le message actuel est sans équivoque. Servir des publicités est désaligné avec ce que les utilisateurs attendent d'une intelligence artificielle. Pour survivre et prospérer, l'entreprise parie que la confiance sera la monnaie la plus précieuse de la prochaine décennie technologique. Reste à voir si les abonnements suffiront à maintenir les lumières allumées face aux géants financés par la réclame.
16.02.2026 à 21:02
L'univers du podcast est en pleine mutation et Apple ne compte pas rester spectateur de cette évolution. La firme de Cupertino prépare actuellement une transformation de son application native Apple Podcasts avec l'intégration profonde du format vidéo. Cette mise à jour, prévue pour le printemps prochain, repose sur l'adoption de la technologie HTTP Live Streaming (HLS), une norme déjà éprouvée par l'entreprise pour ses autres services de diffusion. Jusqu'à présent, l'application se limitait à la lecture de fichiers vidéo dans des formats plus traditionnels tels que MOV, MP4 ou M4V, souvent via des flux RSS classiques. Ce changement d'architecture technique n'est pas là par hasard, il promet de bouleverser l'expérience utilisateur en fluidifiant considérablement la consommation de contenu.
L'innovation principale réside dans la capacité offerte aux auditeurs de basculer instantanément entre l'audio et la vidéo. Cette fonctionnalité répond à un usage de plus en plus hybride, commencer un épisode en marchant avec ses écouteurs, puis décider de regarder la fin de l'interview en vidéo une fois installé confortablement. Apple promet une transition sans coupure, permettant de passer d'une écoute passive à un visionnage actif en mode paysage plein écran. C'est une réponse directe aux nouvelles habitudes de consommation où la frontière entre le podcast traditionnel et l'émission filmée s'estompe.
Au-delà de cette flexibilité, l'introduction du HLS apporte des améliorations techniques concrètes pour l'utilisateur final. L'une des avancées les plus attendues est la gestion intelligente de la qualité d'image. L'application sera désormais capable d'ajuster automatiquement la définition du flux vidéo en fonction de la qualité du réseau, assurant une lecture fluide aussi bien en Wi-Fi qu'en connexion cellulaire, là où les anciens formats pouvaient souffrir de temps de chargement ou de coupures. De plus, cette technologie permet enfin le téléchargement des flux vidéo pour une consultation hors ligne. Auparavant, le système basé sur les flux RSS imposait des limites techniques qui rendaient cette option compliquée, voire impossible pour certains contenus vidéo. Désormais, vous pourrez stocker vos épisodes vidéo favoris pour les visionner dans le train ou l'avion, sans dépendre d'une connexion internet.

L'ergonomie et le multitâche ne sont pas en reste, particulièrement pour les utilisateurs d'iPad. La mise à jour intègre la prise en charge du "Picture-in-Picture", permettant de continuer à regarder son podcast dans une fenêtre réduite tout en naviguant dans d'autres applications. C'est un atout considérable pour ceux qui utilisent leurs tablettes comme outil de productivité ou de veille informationnelle. Cette refonte s'inscrit également dans une stratégie visant à contrer la montée en puissance de concurrents féroces. YouTube, par exemple, revendiquait en février dernier plus d'un milliard de personnes regardant des podcasts chaque mois, s'imposant comme une plateforme incontournable du secteur. De son côté, Spotify investit massivement dans la vidéo, tandis que Netflix commence à explorer ce terrain en licenciant des émissions populaires.
En offrant cette option de bascule rapide et intuitive, Apple espère retenir ses utilisateurs au sein de son écosystème, leur évitant de migrer vers d'autres plateformes pour voir le visage de leurs animateurs préférés. La marque assure par ailleurs que cette intégration se fera sans perturber les habitudes existantes. Les créateurs pourront continuer à monétiser leur contenu via des publicités dynamiques et des sponsorings, tout en s'insérant naturellement dans les flux des abonnés.
Cette nouvelle mouture d'Apple Podcasts sera déployée sur l'ensemble des plateformes de la marque, incluant iOS, iPadOS, visionOS et même la version web. Bien que la sortie officielle soit programmée pour le printemps avec l'arrivée des systèmes d'exploitation 26.4, les fonctionnalités sont d'ores et déjà accessibles en version bêta pour les développeurs et les testeurs publics dès ce lundi. Avec cette offensive technologique, Cupertino réaffirme son ambition de rester le leader historique du podcasting, en adaptant son outil aux exigences visuelles de l'ère moderne.
16.02.2026 à 17:15
Le monde de la tech a les yeux rivés sur le calendrier alors qu'Apple vient de confirmer la tenue de son premier grand événement de l'année. La firme de Cupertino semble décidée à rompre avec ses habitudes traditionnelles pour ce printemps. Oubliez le cadre désormais familier de l'Apple Park en Californie, car c'est au cœur de la ville qui ne dort jamais, New York, que le géant américain a convié la presse. Prévu pour le mercredi 4 mars à 15 heures, heure française, cet événement est mystérieusement qualifié d'expérience Apple spéciale plutôt que de simple keynote. Cette volonté de décentralisation est d'autant plus marquée que des sessions similaires se tiendront simultanément pour les médias à Londres et à Shanghai, soulignant une approche résolument internationale pour cette vague d'annonces.
L'invitation envoyée aux journalistes et aux influenceurs cultive, comme à l'accoutumée, le secret et l'ambiguïté. Elle arbore la simple mention "vous êtes invité" accompagnée d'un logo Apple stylisé, composé de disques segmentés aux teintes jaune, vert et bleu. Si le graphisme reste minimaliste, les analystes s'accordent à dire que ce choix chromatique n'est pas anodin. Ces couleurs vives et ludiques pourraient être un indice direct concernant le design d'un nouveau matériel grand public. Les rumeurs les plus persistantes évoquent le retour d'un MacBook d'entrée de gamme, potentiellement disponible dans ces coloris pastel, rappelant l'époque colorée de l'iMac G3 ou plus récemment des derniers iMac 24 pouces. Ce choix esthétique semble indiquer une volonté de séduire un public plus jeune ou étudiant, cherchant à allier performance et style.
Au-delà de l'esthétique, c'est bien la puissance sous le capot qui devrait être au centre des conversations. Selon Mark Gurman, le célèbre journaliste de Bloomberg souvent très bien informé sur les projets de la Pomme, cette expérience new-yorkaise devrait lever le voile sur une gamme impressionnante de nouveaux produits. Le fameux MacBook "low-cost" pourrait être propulsé par une puce A18 Pro, marquant une convergence intéressante entre les architectures de l'iPhone et du Mac pour réduire les coûts sans sacrifier l'efficacité énergétique. Parallèlement, les utilisateurs plus exigeants attendent avec impatience le renouvellement des MacBook Pro 14 et 16 pouces. Après l'arrivée de la puce M5 de base en octobre dernier, ce serait au tour des déclinaisons M5 Pro et M5 Max de faire leurs débuts, promettant des gains de performance substantiels pour les créatifs et les professionnels.
Le secteur de la mobilité ne sera pas en reste lors de cette présentation. Les spéculations vont bon train concernant l'introduction d'un iPhone 17e et d'une refonte de la gamme iPad. L'enjeu est de taille pour Apple, il s'agit d'intégrer l'ensemble de son écosystème dans l'ère de l'intelligence artificielle. C'est pourquoi un nouvel iPad de base équipé de la puce A18 est attendu, une mise à niveau nécessaire pour supporter les fonctionnalités gourmandes d'Apple Intelligence. De même, l'iPad Air pourrait recevoir la puce M4, renforçant sa position de tablette ultra-performante. Cette offensive matérielle pourrait également s'accompagner d'un aperçu très attendu de la nouvelle version de Siri, dopée à l'IA générative, transformant l'assistant vocal en un véritable agent conversationnel intelligent.
Le timing de cette annonce est particulièrement calculé. En choisissant le 4 mars, Apple vient positionner son événement en plein milieu du Mobile World Congress de Barcelone, le plus grand salon mondial dédié à la téléphonie mobile qui se déroule du 2 au 5 mars. C'est une manière habile pour la firme américaine de capter l'attention médiatique mondiale et de détourner les projecteurs des annonces de ses concurrents présents en Espagne. Bien qu'Apple n'ait pas encore confirmé si cet événement sera diffusé en direct au grand public via un streaming vidéo, l'ampleur des produits attendus et la configuration multisite suggèrent une annonce importante. Entre les nouveaux Mac, les iPad revigorés et les promesses de l'intelligence artificielle, cette "expérience" de mars s'annonce comme un tournant décisif pour l'année technologique de la marque.
16.02.2026 à 11:31
Depuis des années, Steam domine incontestablement le marché du jeu vidéo sur PC. Avec ses soldes saisonniers et ses 42 millions d'utilisateurs simultanés récents, la vitrine de Valve est un passage obligé pour tout développeur espérant réussir. Pourtant, derrière cette façade lucrative se cache une réalité bien plus sombre dénoncée par de nombreux créateurs. La plateforme est devenue un terrain fertile pour le harcèlement, la bigoterie et les abus, souvent en violation flagrante de ses propres règles de conduite.
Selon plusieurs développeurs interrogés par le Guardian, les abus (ciblant particulièrement les créateurs transgenres et les minorités) sont devenus monnaie courante. Bri Moore, créatrice de contenu et curatrice sur Steam, dresse un constat alarmant: « Tout le monde est à couteaux tirés en permanence dans les avis, les discussions et les forums. Personne n'est en sécurité, ni les développeurs, ni les consommateurs. » Le problème dépasse les simples forums de discussion. Deux mécanismes sont particulièrement pointés du doigt, les évaluations laissées sur les pages des jeux (qui impactent directement les ventes) et les curateurs Steam, ces influenceurs autoproclamés qui orchestrent parfois des campagnes de dénigrement contre des titres jugés trop progressistes ou inclusifs.
L'expérience de la designer Nathalie Lawhead illustre parfaitement les failles du système. Ciblée par des avis haineux faisant référence à son agression sexuelle passée et contenant des propos antisémites, elle a tenté d'utiliser les outils de signalement officiels. Malgré des règles interdisant explicitement le langage abusif et la discrimination, les modérateurs ont refusé d'intervenir dans un premier temps. La réponse de Steam est, pour beaucoup, incompréhensible. Lorsqu'un avis antisémite a finalement été retiré sous la pression des réseaux sociaux, un autre est resté en ligne. Le support de Valve a justifié son inaction en expliquant ne pas vouloir agir en arbitre de la vérité, qualifiant toute intervention potentielle de censure. Pour Lawhead, l'implication est brutale. Pour être protégée du harcèlement, elle devrait prouver son agression sexuelle à un support client distant.
La modération laxiste de Valve a transformé les sections d'avis en champ de bataille culturel. Des curateurs comme "CharlieTweetsDetected" ou des listes "NO WOKE" ciblent spécifiquement les jeux incluant des personnages LGBTQ+ ou dont les développeurs ont des opinions politiques divergentes. Le développeur du jeu Coven en a fait les frais, son titre étant inondé d'avis négatifs liés à la politique américaine et non au gameplay. Lorsqu'il a contacté le support, Steam a répondu que ces avis ne constituaient pas du hors sujet (une catégorie que Valve semble réserver aux recettes de cuisine ou au trolling évident). De même, Émi Lefèvre du studio Plane Toast voit son jeu Caravan SandWitch attaqué pour être trop LGBTQ, sans que la modération n'intervienne.
Face à ces accusations, le silence de l'entreprise est assourdissant. Elle, qui génère des milliards de dollars avec une équipe estimée à moins de 400 personnes, semble externaliser sa modération avec des consignes floues. Les développeurs se retrouvent démunis, recevant souvent des réponses copier-coller les invitant à laisser la communauté décider via le système de votes. Pour beaucoup de petits studios, quitter Steam n'est pas une option. La plateforme détient un quasi-monopole sur le jeu PC. Les éditeurs ne prennent pas au sérieux un jeu absent de cette dernière. Les développeurs se sentent ainsi pris en otage, contraints de rester sur une boutique qui, par son inaction, normalise la toxicité et met en danger leur santé mentale et leur viabilité économique.
16.02.2026 à 11:18
Si vous cherchez les patrons incontestés du rock scandinave, ne cherchez pas plus loin. Les Hellacopters occupent le trône depuis des dizaines d'années. Depuis leur formation en 1994 jusqu'à leur retour triomphal en 2016, ces Suédois ont défini ce que signifie avoir l'attitude, le son et l'âme du rock 'n' roll. Après avoir remis les pendules à l'heure avec leurs récents albums studio, Eyes of Oblivion et Overdrive, Nicke Andersson et sa bande reviennent, mais cette fois-ci, ils nous ouvrent les portes de leur coffre-fort personnel. Préparez vos amplis, car 22 ans après le deuxième volume, le groupe nous balance enfin Cream of the Crap! Vol. 3. Et laissez-moi vous dire tout de suite, le titre est un mensonge éhonté. Il n'y a rien de "crap" (de la merde) là-dedans. C'est de l'or pur.
L'idée d'une compilation de faces B et de raretés fait souvent peur. On s'attend à des fonds de tiroir poussiéreux ou à des démos mal ficelées. Mais avec les Hellacopters, c'est tout l'inverse. Parfois, une bonne compilation capture mieux l'esprit d'un groupe qu'un album studio trop poli. Ici, le groupe rassemble 23 titres qui, jusqu'à présent, vivaient dans l'ombre des grands albums. Ce sont des morceaux sortis sur des EP obscurs, des faces B oubliées, ou des titres hors album, le tout entièrement remastérisé pour coller aux standards sonores actuels. Le résultat ? Une collection qui suinte l'énergie et la spontanéité.
Dès l'ouverture avec Long Gone Loser, on comprend la note d'intention. C'est explosif, c'est bruyant et ça vous attrape par le col. On retrouve immédiatement cette signature sonore ancrée dans les années 60 et 70, cette époque bénie où des groupes comme Kiss étaient au sommet de leur gloire. Cette influence "classic rock" transpire littéralement sur des pistes comme Disappointment Blues ou le vibrant Freeway to Hell. La culture musicale hallucinante du groupe est également exposée à travers une série de reprises qui sont de véritables friandises pour les fans. Les Hellacopters ne se contentent pas de jouer du rock, ils le vivent et rendent hommage à leurs héros avec une fureur contagieuse.
D'un côté, vous avez l'influence indéniable de Detroit Rock City. Le groupe s'attaque à American Ruse du MC5 et livre une version brillante de I’m Eighteen d'Alice Cooper. On sent que ces morceaux coulent dans leurs veines. Mais les Suédois sont aussi des punks dans l'âme. Il suffit d'écouter leurs versions enragées de Stab Your Back (The Damned) ou de What’d Ya Do (Ramones) pour avoir envie de pogoter dans son salon. Ils n'oublient pas non plus leurs racines locales en ressuscitant Pack of Lies des Nomads, légendes du garage rock suédois. Le plus surprenant reste leur capacité à faire le grand écart stylistique. Ils sont capables d'injecter leur son distordu dans la soul avec Little Miss Sweetness (The Temptations) et deux titres de Smokey Robinson, prouvant que le groove est universel. Et puis, il y a le choc sismique. Quand ils reprennent Speedfreak de Motörhead, c'est la guerre. Le morceau s'ouvre sur ce son de basse iconique et délivre une énergie indomptable. C'est une interprétation massive, brute de décoffrage, qui ferait paniquer n'importe quel sismographe. Ils finissent avec une touche de rock sudiste via Workin’ for MCA de Lynyrd Skynyrd, interprétée avec une puissance de feu.
Ce troisième chapitre de la série Cream of the Crap! est une réussite totale. Nicke Andersson et ses comparses sont en mode roue libre, balançant un mélange fuzzé de reprises et d'originaux avec le pied collé sur la pédale de distorsion. Le titre de l'album est finalement une preuve d'humilité, car ces 24 pistes (dont beaucoup arrivent en numérique pour la première fois) sont dépourvues de remplissage. C'est ce qu'on appelle du "All Killer, No Filler". Si vous voulez comprendre ce qui se passe dans les tripes d'un des meilleurs groupes de garage rock au monde, jetez-vous sur ce disque. C'est un aller simple pour le paradis du rock.
16.02.2026 à 07:57
15.02.2026 à 12:40
Il semble désormais établi, presque comme une loi non écrite de la Silicon Valley, que le lancement d'un nouveau modèle d'intelligence artificielle ne peut être considéré comme véritablement réussi sans son lot de controverses juridiques. C'est devenu une sorte de coutume, un rituel de passage. Pour faire du buzz, une entreprise technologique doit inévitablement s'attirer les foudres d'un détenteur de propriété intellectuelle ou provoquer l'ire d'une entité défendant le droit d'auteur. L'objectif, ironiquement, semble être de déclencher une action en justice ou, à tout le moins, une mise en demeure bien sentie.
L’histoire récente de l’IA générative regorge d’exemples de ce type. ChatGPT d’OpenAI a essuyé une pluie de procès, le plus célèbre émanant du New York Times. Stability AI a été poursuivi, bien que sans grand succès au début, par un consortium de détenteurs de droits d'image au Royaume-Uni. Même le modèle Sora 2, lors de sa sortie, a reçu un avertissement formel du Japon concernant l'utilisation non autorisée de mangas et d'animés. Sans oublier les plateformes musicales comme Suno et Udio, ciblées par les éditeurs de musique pour des violations présumées de droits d'auteur. Chaque semaine apporte son nouveau conflit, transformant les tribunaux en arbitres de l'évolution technologique.
C’est aujourd'hui au tour de ByteDance de monter sur le banc des accusés. La société mère de TikTok a récemment dévoilé Seedance 2.0, le modèle d'IA le plus en vue de ces dernières semaines. Comparable à Sora, cet outil génère des vidéos qui, bien qu'encore imparfaites, sont nettement moins embarrassantes que les bouillies numériques auxquelles nous étions habitués. Seedance 2.0 s'est révélé particulièrement polyvalent, les premiers utilisateurs s'amusant à créer de fausses publicités virales ou des séquences inspirées de films d'action. On y voit par exemple des scènes dignes de John Wick, mais où le protagoniste est remplacé à la volée par Harry Potter, Thanos ou même RoboCop, le tout avec une facilité déconcertante.
Cette prouesse technique n'est évidemment pas passée inaperçue et je tiens à adresser mes félicitations à ByteDance pour cette réussite virale. La récompense pour cet exploit ne s'est pas fait attendre, une lettre de mise en demeure très médiatisée envoyée par Disney. Ce document, révélé par Axios, accuse Seedance 2.0 d'avoir été conçu à partir d'une bibliothèque piratée de personnages Disney, incluant des figures emblématiques de Star Wars et Marvel. La lettre est cinglante, affirmant que ByteDance traite la propriété intellectuelle "convoitée" de Disney comme s'il s'agissait de simples cliparts du domaine public. Des personnages comme Bébé Yoda, Spider-Man ou Dark Vador sont cités comme victimes de ce que l'avocat de Disney qualifie de pillage virtuel inacceptable.
Le contexte commercial global rend cette affaire particulièrement savoureuse. Il ne faut pas oublier que Disney a signé, il y a environ deux mois, un partenariat de contenu avec OpenAI. Cet accord stipule que l'IA Sora pourra légalement générer des vidéos utilisant les personnages de Disney, Marvel et Pixar. La différence fondamentale ne réside donc pas dans la technologie elle-même ou dans une position morale contre l'art génératif, mais bien dans le contrat. Pour Disney, ses personnages ne sont pas interdits de reproduction par IA, ils sont simplement réservés à ceux qui paient le prix fort.
Cette dynamique révèle une vérité crue sur l'état actuel de l'industrie. Les géants des médias ne s'opposent pas tant à l'utilisation de leur propriété intellectuelle par des utilisateurs lambda pour créer du contenu sans prétention artistique. Leurs actions suggèrent plutôt que cette utilisation est parfaitement tolérable, à la seule et unique condition que les détenteurs de droits puissent toucher leur part du gâteau. C'est exactement le schéma observé dans l'industrie musicale, où Universal et la Warner ont d'abord poursuivi les générateurs de musique par IA avant de conclure des partenariats lucratifs avec eux.
Il reste à voir si l'accord exclusif entre Disney et OpenAI empêchera toute future entente avec ByteDance. Si le droit des contrats bloque une telle issue, l'entreprise chinoise devra peut-être se tourner vers d'autres horizons. Qui sait, peut-être verrons-nous bientôt un accord faisant de Seedance 2.0 le générateur officiel de vidéos pour l'univers cinématographique de "Retour vers le Futur" ou encore des Tortues Ninja", prouvant une fois de plus que dans la guerre de l'IA, tout finit par se régler carnet de chèques à la main.
13.02.2026 à 21:16
Je viens de lire un texte qui a l'effet d'une douche glacée un matin de gueule de bois et franchement, ça fait un bien fou. L'auteur est Rich Hickey, le créateur du langage Clojure. Il a visiblement décidé que la diplomatie était une perte de temps. Son message, intitulé « l'Open Source ne vous concerne pas », est une masterclass de remise en place qui devrait être imprimée et placardée au-dessus du lit de chaque développeur qui a déjà tapé rageusement sur son clavier parce qu'une issue GitHub n'avait pas été résolue dans l'heure.
Imaginez un peu. Vous êtes un utilisateur d'un logiciel libre. Vous vous sentez membre d'une grande famille, la fameuse « communauté ». Vous pensez que votre opinion compte, que vos besoins sont prioritaires et que le mainteneur du projet est une sorte de fonctionnaire de service public dévoué à votre bonheur personnel. Et là, Rich débarque, renverse la table et vous explique calmement que vous vivez dans un monde imaginaire. Selon lui, nous avons transformé l'open source, qui est techniquement juste un mécanisme de licence, en une sorte de mythologie sectaire où l'utilisateur se croit tout permis, y compris d'exiger du temps et de l'attention de la part de gens qu'il ne paie absolument pas.
J'ai particulièrement ri (jaune) en lisant le passage où il déconstruit le concept de droit. En gros, si vous utilisez un logiciel open source, vous n'avez le droit à rien. Pas le droit de contribuer, pas le droit à de nouvelles fonctionnalités, et surtout, pas le droit de vous plaindre. C'est violent, mais c'est juridiquement imparable. l'intéressé nous rappelle que l'open source est un cadeau, pas un contrat de mariage. C'est comme si quelqu'un vous offrait un canapé gratuit trouvé sur le trottoir et que vous reveniez le lendemain pour engueuler le donateur parce que la couleur ne va pas avec vos rideaux. Il souligne d'ailleurs que les attentes non satisfaites sont notre problème, pas le sien. Si vous voulez quelque chose, faites-le vous-même. C'est le retour du "Do It Yourself" avec une batte de baseball.
Le plus savoureux, c'est quand il aborde la question du temps et de l'argent. On oublie souvent que derrière les lignes de code, il y a des humains qui doivent payer leur loyer. Rich explique sans détour qu'il a vidé son compte épargne-retraite pour créer Clojure. Pas pour devenir riche, mais par passion. Alors quand un inconnu sur Internet vient lui expliquer comment gérer son projet ou l'accuse de ne pas « écouter la communauté », on sent que la veine sur son front est sur le point d'exploser. Il rappelle que moins de 1% des utilisateurs contribuent financièrement à sa subsistance via sa société Cognitect. Autrement dit, pour 99% des gens, il travaille gratuitement. Et il faudrait en plus qu'il dise merci quand on lui envoie des correctifs mal codés, sans tests et sans explications ?
Car oui, il ose le dire, la plupart des contributions de la communauté sont médiocres. C'est un tabou qu'il brise avec une franchise déconcertante. Il nous explique que trier les mauvaises idées et les patchs bancals prend un temps fou, un temps qu'il ne passe pas à gagner sa vie ou à développer des fonctionnalités réelles. Clojure est géré de manière conservatrice, et c'est un choix assumé pour éviter l'obésité logicielle qui frappe tant d'autres projets. Si cela ne vous plaît pas, la porte est grande ouverte. Il ne vous retient pas, mais il vous demande juste de ne pas mettre le feu à la maison en partant avec des déclarations dramatiques sur la mort du sien.
Ce texte est un rappel salutaire que les développeurs open source ne sont pas nos esclaves. C'est un plaidoyer pour la responsabilité individuelle face à une culture de l'indignation et de l'exigence. Rich Hickey nous dit, avec une politesse teintée d'agacement, que si nous avons assez d'énergie pour râler sur ce que nous ne pouvons pas contrôler, nous ferions mieux d'utiliser cette dernière pour créer quelque chose de positif. C'est une leçon d'humilité servie à la louche. Le code est gratuit, mais le temps des humains ne l'est pas. Alors, la prochaine fois que vous serez tenté de poster un commentaire passif-agressif sur un repo, repensez au compte épargne-retraite de Rich. Ou mieux, écrivez du code qui fonctionne.
13.02.2026 à 11:44
Il y a cinq ans, Facebook prenait une décision marquante en désactivant son système de reconnaissance faciale, celui-là même qui suggérait automatiquement d'identifier vos amis sur les photos. À l’époque, l'entreprise invoquait la nécessité de trouver un juste équilibre face à une technologie soulevant d'immenses questions juridiques et éthiques. Aujourd'hui, la vapeur semble s'être inversée. Meta, la maison-mère du réseau social, s'apprête à réintroduire cette technologie controversée, mais cette fois-ci, elle ne se limitera pas à votre écran d'ordinateur. Elle pourrait bientôt s'intégrer directement sur votre visage, via les lunettes connectées développées en partenariat avec Ray-Ban.
Selon des sources ayant souhaité garder l'anonymat, Meta envisage de déployer cette fonctionnalité dès cette année. Baptisée en interne « Name Tag », elle permettrait aux porteurs des lunettes intelligentes d'identifier les personnes qu'ils croisent et d'obtenir des informations à leur sujet grâce à l'assistant d'intelligence artificielle de Meta. Si le projet semble techniquement avancé, il suscite déjà de vifs débats au sein même de l'entreprise de la Silicon Valley, où l'on discute depuis plus d'un an des risques inhérents à la sécurité et à la vie privée.
Ce qui frappe particulièrement dans cette stratégie, c'est le cynisme apparent du calendrier envisagé. Un document interne consulté par le New York Times révèle que Meta considérait le tumulte politique actuel aux États-Unis comme une opportunité idéale pour le lancement. L'idée était simple, profiter d'un environnement politique dynamique où les groupes de défense des droits civiques, habituellement prompts à attaquer Meta, seraient trop occupés par d'autres urgences pour se concentrer sur cette nouvelle intrusion technologique.
Les inquiétudes ne sont pourtant pas infondées. La reconnaissance faciale dans l'espace public a toujours été une ligne rouge pour les défenseurs des libertés, qui craignent une surveillance de masse par les gouvernements, le traçage commercial à l'insu des clients, ou pire, l'utilisation malveillante par des individus pour harceler des inconnus. Cette technologie menace directement l'anonymat pratique sur lequel repose notre vie en société. D'ailleurs, des précédents existent. En 2024, deux étudiants de Harvard avaient déjà démontré la faisabilité effrayante de la chose en utilisant des lunettes Ray-Ban Meta couplées à un logiciel tiers pour identifier des inconnus dans le métro.
Face à ces enjeux, Meta explore des garde-fous. L'entreprise réfléchit à limiter l'identification aux personnes que l'utilisateur connaît déjà via ses connexions sur les plateformes maisons, ou à celles disposant de profils publics. Il ne s'agirait donc pas, pour l'instant, d'un outil universel permettant d'identifier n'importe quel passant. Mark Zuckerberg, le PDG, voit dans cette fonctionnalité un moyen important de différencier ses produits face à la concurrence croissante d'acteurs comme OpenAI, tout en rendant l'assistant IA de ses lunettes véritablement utile au quotidien.
L'entreprise travaille également sur un concept encore plus poussé, appelé « super sensing ». Il s'agirait de lunettes capables d'enregistrer et d'analyser en continu la journée de l'utilisateur pour lui servir de mémoire augmentée. Cela pose inévitablement la question de la discrétion. Zuckerberg s'est même interrogé sur la pertinence de maintenir allumée la petite LED de signalisation qui avertit actuellement les passants qu'ils sont filmés.
Malgré un passif juridique lourd, incluant des milliards de dollars versés pour régler des litiges liés à la vie privée, Meta semble déterminé à avancer. L'entreprise a récemment assoupli ses processus internes d'examen des risques, donnant moins de pouvoir à ses équipes de protection de la vie privée afin d'accélérer le développement de produits. Pour le grand patron, l'objectif est clair, il faut repousser les limites, quitte à flirter avec les frontières des accords passés avec les régulateurs. Reste à savoir si le public est prêt à accepter la fin de son anonymat au nom du progrès technologique.
13.02.2026 à 06:35
Dans l'univers impitoyable de l'intelligence artificielle, la frontière entre l'inspiration technologique et le vol pur et simple devient de plus en plus ambiguë. Ce jeudi, Google a jeté un pavé dans la mare en annonçant que des acteurs aux motivations commerciales ont tenté de « cloner » le savoir de son modèle phare, Gemini, en utilisant une méthode aussi simple qu'efficace, le prompting intensif. Selon le rapport de sécurité trimestriel de l'entreprise, une attaque spécifique a bombardé le modèle de plus de 100 000 requêtes dans diverses langues non anglaises. L'objectif présumé de cette manœuvre était de collecter suffisamment de réponses pour entraîner une copie bon marché du modèle, capable de rivaliser avec l'original sans en supporter les coûts de développement astronomiques.
Cette révélation place Google dans une posture de victime, un rôle qu'il endosse volontiers dans ses auto-évaluations de sécurité. Il qualifie cette activité illicite d'extraction de modèle et la considère comme un vol de propriété intellectuelle. C’est une position qui ne manque pas d'ironie et qui pourrait faire sourire certains observateurs, étant donné que ses propres grands modèles de langage ont été construits en aspirant des quantités phénoménales de données sur Internet, souvent sans la permission des créateurs originaux. De plus, le géant de la tech n'est pas étranger à ces pratiques de copie. En 2023, des rapports indiquaient que l'équipe derrière Google Bard avait été accusée d'utiliser celles issues de ChatGPT, via le site ShareGPT, pour entraîner son propre chatbot. Cette affaire avait même provoqué la démission de Jacob Devlin, un chercheur éminent en IA, qui avait averti sa direction que cela violait les conditions d'utilisation d'OpenAI avant de rejoindre la concurrence.
Malgré ce passé tourmenté, les conditions d'utilisation de Google interdisent formellement l'extraction de données de ses modèles. Le rapport offre une fenêtre fascinante sur le monde un peu trouble du clonage de modèles d'IA. La firme de Mountain View estime que les coupables sont principalement des entreprises privées et des chercheurs en quête d'un avantage concurrentiel rapide, notant que ces attaques proviennent du monde entier, bien qu'elle ait refusé de nommer des suspects précis.
D'un point de vue technique, l'industrie appelle cette pratique la distillation. Le processus est ingénieux, si vous souhaitez construire votre propre LLM mais que vous manquez des milliards de dollars et des années de recherche que Google a investis dans Gemini, vous pouvez utiliser un modèle existant comme raccourci. Il suffit d'alimenter l'IA cible avec des milliers de questions soigneusement choisies, de récupérer les réponses, puis d'utiliser ces paires question-réponse pour entraîner un modèle plus petit et moins coûteux. Le résultat imite le comportement du modèle parent. C’est un peu comme essayer de reconstituer les recettes secrètes d'un grand chef en commandant tous les plats du menu pour les goûter, sans jamais entrer dans sa cuisine ni voir ses fiches techniques.
Google n'est pas le seul à s'inquiéter de ce phénomène. La distillation est devenue un standard de l'industrie, parfois légitime, parfois contesté. OpenAI a accusé son rival chinois DeepSeek d'utiliser cette méthode et l'histoire récente regorge d'exemples similaires. On se souvient des chercheurs de Stanford qui, peu après la fuite du modèle LLaMA de Meta, ont créé « Alpaca » pour environ 600 dollars en utilisant les sorties de GPT-3.5. Plus ironique encore, lors du lancement de Grok par la société xAI d'Elon Musk, le chatbot a parfois refusé des demandes en citant la politique d'utilisation d'OpenAI, trahissant l'ingestion accidentelle de données générées par son concurrent.
Pourtant, la distillation n'est pas uniquement une arme de piratage. Elle est fréquemment utilisée en interne par les grandes entreprises pour créer des versions plus légères et rapides de leurs propres modèles géants. Microsoft l'a fait pour sa famille Phi-3 et OpenAI pour GPT-4o Mini. Tant qu'un modèle reste accessible au public via une interface, aucune barrière technique absolue n'empêchera un acteur déterminé de tenter de siphonner son intelligence, transformant la protection des modèles d'IA en un éternel jeu du chat et de la souris.