16.02.2026 à 11:31
Depuis des années, Steam domine incontestablement le marché du jeu vidéo sur PC. Avec ses soldes saisonniers et ses 42 millions d'utilisateurs simultanés récents, la vitrine de Valve est un passage obligé pour tout développeur espérant réussir. Pourtant, derrière cette façade lucrative se cache une réalité bien plus sombre dénoncée par de nombreux créateurs. La plateforme est devenue un terrain fertile pour le harcèlement, la bigoterie et les abus, souvent en violation flagrante de ses propres règles de conduite.
Selon plusieurs développeurs interrogés par le Guardian, les abus (ciblant particulièrement les créateurs transgenres et les minorités) sont devenus monnaie courante. Bri Moore, créatrice de contenu et curatrice sur Steam, dresse un constat alarmant: « Tout le monde est à couteaux tirés en permanence dans les avis, les discussions et les forums. Personne n'est en sécurité, ni les développeurs, ni les consommateurs. » Le problème dépasse les simples forums de discussion. Deux mécanismes sont particulièrement pointés du doigt, les évaluations laissées sur les pages des jeux (qui impactent directement les ventes) et les curateurs Steam, ces influenceurs autoproclamés qui orchestrent parfois des campagnes de dénigrement contre des titres jugés trop progressistes ou inclusifs.
L'expérience de la designer Nathalie Lawhead illustre parfaitement les failles du système. Ciblée par des avis haineux faisant référence à son agression sexuelle passée et contenant des propos antisémites, elle a tenté d'utiliser les outils de signalement officiels. Malgré des règles interdisant explicitement le langage abusif et la discrimination, les modérateurs ont refusé d'intervenir dans un premier temps. La réponse de Steam est, pour beaucoup, incompréhensible. Lorsqu'un avis antisémite a finalement été retiré sous la pression des réseaux sociaux, un autre est resté en ligne. Le support de Valve a justifié son inaction en expliquant ne pas vouloir agir en arbitre de la vérité, qualifiant toute intervention potentielle de censure. Pour Lawhead, l'implication est brutale. Pour être protégée du harcèlement, elle devrait prouver son agression sexuelle à un support client distant.
La modération laxiste de Valve a transformé les sections d'avis en champ de bataille culturel. Des curateurs comme "CharlieTweetsDetected" ou des listes "NO WOKE" ciblent spécifiquement les jeux incluant des personnages LGBTQ+ ou dont les développeurs ont des opinions politiques divergentes. Le développeur du jeu Coven en a fait les frais, son titre étant inondé d'avis négatifs liés à la politique américaine et non au gameplay. Lorsqu'il a contacté le support, Steam a répondu que ces avis ne constituaient pas du hors sujet (une catégorie que Valve semble réserver aux recettes de cuisine ou au trolling évident). De même, Émi Lefèvre du studio Plane Toast voit son jeu Caravan SandWitch attaqué pour être trop LGBTQ, sans que la modération n'intervienne.
Face à ces accusations, le silence de l'entreprise est assourdissant. Elle, qui génère des milliards de dollars avec une équipe estimée à moins de 400 personnes, semble externaliser sa modération avec des consignes floues. Les développeurs se retrouvent démunis, recevant souvent des réponses copier-coller les invitant à laisser la communauté décider via le système de votes. Pour beaucoup de petits studios, quitter Steam n'est pas une option. La plateforme détient un quasi-monopole sur le jeu PC. Les éditeurs ne prennent pas au sérieux un jeu absent de cette dernière. Les développeurs se sentent ainsi pris en otage, contraints de rester sur une boutique qui, par son inaction, normalise la toxicité et met en danger leur santé mentale et leur viabilité économique.
16.02.2026 à 11:18
Si vous cherchez les patrons incontestés du rock scandinave, ne cherchez pas plus loin. Les Hellacopters occupent le trône depuis des dizaines d'années. Depuis leur formation en 1994 jusqu'à leur retour triomphal en 2016, ces Suédois ont défini ce que signifie avoir l'attitude, le son et l'âme du rock 'n' roll. Après avoir remis les pendules à l'heure avec leurs récents albums studio, Eyes of Oblivion et Overdrive, Nicke Andersson et sa bande reviennent, mais cette fois-ci, ils nous ouvrent les portes de leur coffre-fort personnel. Préparez vos amplis, car 22 ans après le deuxième volume, le groupe nous balance enfin Cream of the Crap! Vol. 3. Et laissez-moi vous dire tout de suite, le titre est un mensonge éhonté. Il n'y a rien de "crap" (de la merde) là-dedans. C'est de l'or pur.
L'idée d'une compilation de faces B et de raretés fait souvent peur. On s'attend à des fonds de tiroir poussiéreux ou à des démos mal ficelées. Mais avec les Hellacopters, c'est tout l'inverse. Parfois, une bonne compilation capture mieux l'esprit d'un groupe qu'un album studio trop poli. Ici, le groupe rassemble 23 titres qui, jusqu'à présent, vivaient dans l'ombre des grands albums. Ce sont des morceaux sortis sur des EP obscurs, des faces B oubliées, ou des titres hors album, le tout entièrement remastérisé pour coller aux standards sonores actuels. Le résultat ? Une collection qui suinte l'énergie et la spontanéité.
Dès l'ouverture avec Long Gone Loser, on comprend la note d'intention. C'est explosif, c'est bruyant et ça vous attrape par le col. On retrouve immédiatement cette signature sonore ancrée dans les années 60 et 70, cette époque bénie où des groupes comme Kiss étaient au sommet de leur gloire. Cette influence "classic rock" transpire littéralement sur des pistes comme Disappointment Blues ou le vibrant Freeway to Hell. La culture musicale hallucinante du groupe est également exposée à travers une série de reprises qui sont de véritables friandises pour les fans. Les Hellacopters ne se contentent pas de jouer du rock, ils le vivent et rendent hommage à leurs héros avec une fureur contagieuse.
D'un côté, vous avez l'influence indéniable de Detroit Rock City. Le groupe s'attaque à American Ruse du MC5 et livre une version brillante de I’m Eighteen d'Alice Cooper. On sent que ces morceaux coulent dans leurs veines. Mais les Suédois sont aussi des punks dans l'âme. Il suffit d'écouter leurs versions enragées de Stab Your Back (The Damned) ou de What’d Ya Do (Ramones) pour avoir envie de pogoter dans son salon. Ils n'oublient pas non plus leurs racines locales en ressuscitant Pack of Lies des Nomads, légendes du garage rock suédois. Le plus surprenant reste leur capacité à faire le grand écart stylistique. Ils sont capables d'injecter leur son distordu dans la soul avec Little Miss Sweetness (The Temptations) et deux titres de Smokey Robinson, prouvant que le groove est universel. Et puis, il y a le choc sismique. Quand ils reprennent Speedfreak de Motörhead, c'est la guerre. Le morceau s'ouvre sur ce son de basse iconique et délivre une énergie indomptable. C'est une interprétation massive, brute de décoffrage, qui ferait paniquer n'importe quel sismographe. Ils finissent avec une touche de rock sudiste via Workin’ for MCA de Lynyrd Skynyrd, interprétée avec une puissance de feu.
Ce troisième chapitre de la série Cream of the Crap! est une réussite totale. Nicke Andersson et ses comparses sont en mode roue libre, balançant un mélange fuzzé de reprises et d'originaux avec le pied collé sur la pédale de distorsion. Le titre de l'album est finalement une preuve d'humilité, car ces 24 pistes (dont beaucoup arrivent en numérique pour la première fois) sont dépourvues de remplissage. C'est ce qu'on appelle du "All Killer, No Filler". Si vous voulez comprendre ce qui se passe dans les tripes d'un des meilleurs groupes de garage rock au monde, jetez-vous sur ce disque. C'est un aller simple pour le paradis du rock.
16.02.2026 à 07:57
15.02.2026 à 12:40
Il semble désormais établi, presque comme une loi non écrite de la Silicon Valley, que le lancement d'un nouveau modèle d'intelligence artificielle ne peut être considéré comme véritablement réussi sans son lot de controverses juridiques. C'est devenu une sorte de coutume, un rituel de passage. Pour faire du buzz, une entreprise technologique doit inévitablement s'attirer les foudres d'un détenteur de propriété intellectuelle ou provoquer l'ire d'une entité défendant le droit d'auteur. L'objectif, ironiquement, semble être de déclencher une action en justice ou, à tout le moins, une mise en demeure bien sentie.
L’histoire récente de l’IA générative regorge d’exemples de ce type. ChatGPT d’OpenAI a essuyé une pluie de procès, le plus célèbre émanant du New York Times. Stability AI a été poursuivi, bien que sans grand succès au début, par un consortium de détenteurs de droits d'image au Royaume-Uni. Même le modèle Sora 2, lors de sa sortie, a reçu un avertissement formel du Japon concernant l'utilisation non autorisée de mangas et d'animés. Sans oublier les plateformes musicales comme Suno et Udio, ciblées par les éditeurs de musique pour des violations présumées de droits d'auteur. Chaque semaine apporte son nouveau conflit, transformant les tribunaux en arbitres de l'évolution technologique.
C’est aujourd'hui au tour de ByteDance de monter sur le banc des accusés. La société mère de TikTok a récemment dévoilé Seedance 2.0, le modèle d'IA le plus en vue de ces dernières semaines. Comparable à Sora, cet outil génère des vidéos qui, bien qu'encore imparfaites, sont nettement moins embarrassantes que les bouillies numériques auxquelles nous étions habitués. Seedance 2.0 s'est révélé particulièrement polyvalent, les premiers utilisateurs s'amusant à créer de fausses publicités virales ou des séquences inspirées de films d'action. On y voit par exemple des scènes dignes de John Wick, mais où le protagoniste est remplacé à la volée par Harry Potter, Thanos ou même RoboCop, le tout avec une facilité déconcertante.
Cette prouesse technique n'est évidemment pas passée inaperçue et je tiens à adresser mes félicitations à ByteDance pour cette réussite virale. La récompense pour cet exploit ne s'est pas fait attendre, une lettre de mise en demeure très médiatisée envoyée par Disney. Ce document, révélé par Axios, accuse Seedance 2.0 d'avoir été conçu à partir d'une bibliothèque piratée de personnages Disney, incluant des figures emblématiques de Star Wars et Marvel. La lettre est cinglante, affirmant que ByteDance traite la propriété intellectuelle "convoitée" de Disney comme s'il s'agissait de simples cliparts du domaine public. Des personnages comme Bébé Yoda, Spider-Man ou Dark Vador sont cités comme victimes de ce que l'avocat de Disney qualifie de pillage virtuel inacceptable.
Le contexte commercial global rend cette affaire particulièrement savoureuse. Il ne faut pas oublier que Disney a signé, il y a environ deux mois, un partenariat de contenu avec OpenAI. Cet accord stipule que l'IA Sora pourra légalement générer des vidéos utilisant les personnages de Disney, Marvel et Pixar. La différence fondamentale ne réside donc pas dans la technologie elle-même ou dans une position morale contre l'art génératif, mais bien dans le contrat. Pour Disney, ses personnages ne sont pas interdits de reproduction par IA, ils sont simplement réservés à ceux qui paient le prix fort.
Cette dynamique révèle une vérité crue sur l'état actuel de l'industrie. Les géants des médias ne s'opposent pas tant à l'utilisation de leur propriété intellectuelle par des utilisateurs lambda pour créer du contenu sans prétention artistique. Leurs actions suggèrent plutôt que cette utilisation est parfaitement tolérable, à la seule et unique condition que les détenteurs de droits puissent toucher leur part du gâteau. C'est exactement le schéma observé dans l'industrie musicale, où Universal et la Warner ont d'abord poursuivi les générateurs de musique par IA avant de conclure des partenariats lucratifs avec eux.
Il reste à voir si l'accord exclusif entre Disney et OpenAI empêchera toute future entente avec ByteDance. Si le droit des contrats bloque une telle issue, l'entreprise chinoise devra peut-être se tourner vers d'autres horizons. Qui sait, peut-être verrons-nous bientôt un accord faisant de Seedance 2.0 le générateur officiel de vidéos pour l'univers cinématographique de "Retour vers le Futur" ou encore des Tortues Ninja", prouvant une fois de plus que dans la guerre de l'IA, tout finit par se régler carnet de chèques à la main.
13.02.2026 à 21:16
Je viens de lire un texte qui a l'effet d'une douche glacée un matin de gueule de bois et franchement, ça fait un bien fou. L'auteur est Rich Hickey, le créateur du langage Clojure. Il a visiblement décidé que la diplomatie était une perte de temps. Son message, intitulé « l'Open Source ne vous concerne pas », est une masterclass de remise en place qui devrait être imprimée et placardée au-dessus du lit de chaque développeur qui a déjà tapé rageusement sur son clavier parce qu'une issue GitHub n'avait pas été résolue dans l'heure.
Imaginez un peu. Vous êtes un utilisateur d'un logiciel libre. Vous vous sentez membre d'une grande famille, la fameuse « communauté ». Vous pensez que votre opinion compte, que vos besoins sont prioritaires et que le mainteneur du projet est une sorte de fonctionnaire de service public dévoué à votre bonheur personnel. Et là, Rich débarque, renverse la table et vous explique calmement que vous vivez dans un monde imaginaire. Selon lui, nous avons transformé l'open source, qui est techniquement juste un mécanisme de licence, en une sorte de mythologie sectaire où l'utilisateur se croit tout permis, y compris d'exiger du temps et de l'attention de la part de gens qu'il ne paie absolument pas.
J'ai particulièrement ri (jaune) en lisant le passage où il déconstruit le concept de droit. En gros, si vous utilisez un logiciel open source, vous n'avez le droit à rien. Pas le droit de contribuer, pas le droit à de nouvelles fonctionnalités, et surtout, pas le droit de vous plaindre. C'est violent, mais c'est juridiquement imparable. l'intéressé nous rappelle que l'open source est un cadeau, pas un contrat de mariage. C'est comme si quelqu'un vous offrait un canapé gratuit trouvé sur le trottoir et que vous reveniez le lendemain pour engueuler le donateur parce que la couleur ne va pas avec vos rideaux. Il souligne d'ailleurs que les attentes non satisfaites sont notre problème, pas le sien. Si vous voulez quelque chose, faites-le vous-même. C'est le retour du "Do It Yourself" avec une batte de baseball.
Le plus savoureux, c'est quand il aborde la question du temps et de l'argent. On oublie souvent que derrière les lignes de code, il y a des humains qui doivent payer leur loyer. Rich explique sans détour qu'il a vidé son compte épargne-retraite pour créer Clojure. Pas pour devenir riche, mais par passion. Alors quand un inconnu sur Internet vient lui expliquer comment gérer son projet ou l'accuse de ne pas « écouter la communauté », on sent que la veine sur son front est sur le point d'exploser. Il rappelle que moins de 1% des utilisateurs contribuent financièrement à sa subsistance via sa société Cognitect. Autrement dit, pour 99% des gens, il travaille gratuitement. Et il faudrait en plus qu'il dise merci quand on lui envoie des correctifs mal codés, sans tests et sans explications ?
Car oui, il ose le dire, la plupart des contributions de la communauté sont médiocres. C'est un tabou qu'il brise avec une franchise déconcertante. Il nous explique que trier les mauvaises idées et les patchs bancals prend un temps fou, un temps qu'il ne passe pas à gagner sa vie ou à développer des fonctionnalités réelles. Clojure est géré de manière conservatrice, et c'est un choix assumé pour éviter l'obésité logicielle qui frappe tant d'autres projets. Si cela ne vous plaît pas, la porte est grande ouverte. Il ne vous retient pas, mais il vous demande juste de ne pas mettre le feu à la maison en partant avec des déclarations dramatiques sur la mort du sien.
Ce texte est un rappel salutaire que les développeurs open source ne sont pas nos esclaves. C'est un plaidoyer pour la responsabilité individuelle face à une culture de l'indignation et de l'exigence. Rich Hickey nous dit, avec une politesse teintée d'agacement, que si nous avons assez d'énergie pour râler sur ce que nous ne pouvons pas contrôler, nous ferions mieux d'utiliser cette dernière pour créer quelque chose de positif. C'est une leçon d'humilité servie à la louche. Le code est gratuit, mais le temps des humains ne l'est pas. Alors, la prochaine fois que vous serez tenté de poster un commentaire passif-agressif sur un repo, repensez au compte épargne-retraite de Rich. Ou mieux, écrivez du code qui fonctionne.
13.02.2026 à 11:44
Il y a cinq ans, Facebook prenait une décision marquante en désactivant son système de reconnaissance faciale, celui-là même qui suggérait automatiquement d'identifier vos amis sur les photos. À l’époque, l'entreprise invoquait la nécessité de trouver un juste équilibre face à une technologie soulevant d'immenses questions juridiques et éthiques. Aujourd'hui, la vapeur semble s'être inversée. Meta, la maison-mère du réseau social, s'apprête à réintroduire cette technologie controversée, mais cette fois-ci, elle ne se limitera pas à votre écran d'ordinateur. Elle pourrait bientôt s'intégrer directement sur votre visage, via les lunettes connectées développées en partenariat avec Ray-Ban.
Selon des sources ayant souhaité garder l'anonymat, Meta envisage de déployer cette fonctionnalité dès cette année. Baptisée en interne « Name Tag », elle permettrait aux porteurs des lunettes intelligentes d'identifier les personnes qu'ils croisent et d'obtenir des informations à leur sujet grâce à l'assistant d'intelligence artificielle de Meta. Si le projet semble techniquement avancé, il suscite déjà de vifs débats au sein même de l'entreprise de la Silicon Valley, où l'on discute depuis plus d'un an des risques inhérents à la sécurité et à la vie privée.
Ce qui frappe particulièrement dans cette stratégie, c'est le cynisme apparent du calendrier envisagé. Un document interne consulté par le New York Times révèle que Meta considérait le tumulte politique actuel aux États-Unis comme une opportunité idéale pour le lancement. L'idée était simple, profiter d'un environnement politique dynamique où les groupes de défense des droits civiques, habituellement prompts à attaquer Meta, seraient trop occupés par d'autres urgences pour se concentrer sur cette nouvelle intrusion technologique.
Les inquiétudes ne sont pourtant pas infondées. La reconnaissance faciale dans l'espace public a toujours été une ligne rouge pour les défenseurs des libertés, qui craignent une surveillance de masse par les gouvernements, le traçage commercial à l'insu des clients, ou pire, l'utilisation malveillante par des individus pour harceler des inconnus. Cette technologie menace directement l'anonymat pratique sur lequel repose notre vie en société. D'ailleurs, des précédents existent. En 2024, deux étudiants de Harvard avaient déjà démontré la faisabilité effrayante de la chose en utilisant des lunettes Ray-Ban Meta couplées à un logiciel tiers pour identifier des inconnus dans le métro.
Face à ces enjeux, Meta explore des garde-fous. L'entreprise réfléchit à limiter l'identification aux personnes que l'utilisateur connaît déjà via ses connexions sur les plateformes maisons, ou à celles disposant de profils publics. Il ne s'agirait donc pas, pour l'instant, d'un outil universel permettant d'identifier n'importe quel passant. Mark Zuckerberg, le PDG, voit dans cette fonctionnalité un moyen important de différencier ses produits face à la concurrence croissante d'acteurs comme OpenAI, tout en rendant l'assistant IA de ses lunettes véritablement utile au quotidien.
L'entreprise travaille également sur un concept encore plus poussé, appelé « super sensing ». Il s'agirait de lunettes capables d'enregistrer et d'analyser en continu la journée de l'utilisateur pour lui servir de mémoire augmentée. Cela pose inévitablement la question de la discrétion. Zuckerberg s'est même interrogé sur la pertinence de maintenir allumée la petite LED de signalisation qui avertit actuellement les passants qu'ils sont filmés.
Malgré un passif juridique lourd, incluant des milliards de dollars versés pour régler des litiges liés à la vie privée, Meta semble déterminé à avancer. L'entreprise a récemment assoupli ses processus internes d'examen des risques, donnant moins de pouvoir à ses équipes de protection de la vie privée afin d'accélérer le développement de produits. Pour le grand patron, l'objectif est clair, il faut repousser les limites, quitte à flirter avec les frontières des accords passés avec les régulateurs. Reste à savoir si le public est prêt à accepter la fin de son anonymat au nom du progrès technologique.
13.02.2026 à 06:35
Dans l'univers impitoyable de l'intelligence artificielle, la frontière entre l'inspiration technologique et le vol pur et simple devient de plus en plus ambiguë. Ce jeudi, Google a jeté un pavé dans la mare en annonçant que des acteurs aux motivations commerciales ont tenté de « cloner » le savoir de son modèle phare, Gemini, en utilisant une méthode aussi simple qu'efficace, le prompting intensif. Selon le rapport de sécurité trimestriel de l'entreprise, une attaque spécifique a bombardé le modèle de plus de 100 000 requêtes dans diverses langues non anglaises. L'objectif présumé de cette manœuvre était de collecter suffisamment de réponses pour entraîner une copie bon marché du modèle, capable de rivaliser avec l'original sans en supporter les coûts de développement astronomiques.
Cette révélation place Google dans une posture de victime, un rôle qu'il endosse volontiers dans ses auto-évaluations de sécurité. Il qualifie cette activité illicite d'extraction de modèle et la considère comme un vol de propriété intellectuelle. C’est une position qui ne manque pas d'ironie et qui pourrait faire sourire certains observateurs, étant donné que ses propres grands modèles de langage ont été construits en aspirant des quantités phénoménales de données sur Internet, souvent sans la permission des créateurs originaux. De plus, le géant de la tech n'est pas étranger à ces pratiques de copie. En 2023, des rapports indiquaient que l'équipe derrière Google Bard avait été accusée d'utiliser celles issues de ChatGPT, via le site ShareGPT, pour entraîner son propre chatbot. Cette affaire avait même provoqué la démission de Jacob Devlin, un chercheur éminent en IA, qui avait averti sa direction que cela violait les conditions d'utilisation d'OpenAI avant de rejoindre la concurrence.
Malgré ce passé tourmenté, les conditions d'utilisation de Google interdisent formellement l'extraction de données de ses modèles. Le rapport offre une fenêtre fascinante sur le monde un peu trouble du clonage de modèles d'IA. La firme de Mountain View estime que les coupables sont principalement des entreprises privées et des chercheurs en quête d'un avantage concurrentiel rapide, notant que ces attaques proviennent du monde entier, bien qu'elle ait refusé de nommer des suspects précis.
D'un point de vue technique, l'industrie appelle cette pratique la distillation. Le processus est ingénieux, si vous souhaitez construire votre propre LLM mais que vous manquez des milliards de dollars et des années de recherche que Google a investis dans Gemini, vous pouvez utiliser un modèle existant comme raccourci. Il suffit d'alimenter l'IA cible avec des milliers de questions soigneusement choisies, de récupérer les réponses, puis d'utiliser ces paires question-réponse pour entraîner un modèle plus petit et moins coûteux. Le résultat imite le comportement du modèle parent. C’est un peu comme essayer de reconstituer les recettes secrètes d'un grand chef en commandant tous les plats du menu pour les goûter, sans jamais entrer dans sa cuisine ni voir ses fiches techniques.
Google n'est pas le seul à s'inquiéter de ce phénomène. La distillation est devenue un standard de l'industrie, parfois légitime, parfois contesté. OpenAI a accusé son rival chinois DeepSeek d'utiliser cette méthode et l'histoire récente regorge d'exemples similaires. On se souvient des chercheurs de Stanford qui, peu après la fuite du modèle LLaMA de Meta, ont créé « Alpaca » pour environ 600 dollars en utilisant les sorties de GPT-3.5. Plus ironique encore, lors du lancement de Grok par la société xAI d'Elon Musk, le chatbot a parfois refusé des demandes en citant la politique d'utilisation d'OpenAI, trahissant l'ingestion accidentelle de données générées par son concurrent.
Pourtant, la distillation n'est pas uniquement une arme de piratage. Elle est fréquemment utilisée en interne par les grandes entreprises pour créer des versions plus légères et rapides de leurs propres modèles géants. Microsoft l'a fait pour sa famille Phi-3 et OpenAI pour GPT-4o Mini. Tant qu'un modèle reste accessible au public via une interface, aucune barrière technique absolue n'empêchera un acteur déterminé de tenter de siphonner son intelligence, transformant la protection des modèles d'IA en un éternel jeu du chat et de la souris.