LePartisan.info À propos Podcasts Fil web Écologie BLOGS Revues Médias
FakeTech
Un regard critique sur les Nouvelles Technologies, Big Tech et la Silicon Valley.

Le blog de Christophe LEBOUCHER


▸ les 20 dernières parutions

16.05.2025 à 14:22

Le gouvernement de Grok, par Grok, pour Grok

Christophe @PoliticoboyTX

Que ce soit pour virer des fonctionnaires ou établir ses droits de douane, l'administration Trump semble déterminée à utiliser des outils peu fiables basés sur l'IA, reflétant une tendance globale.
Texte intégral (5154 mots)

Le titre de ce billet m’a été inspiré par un article de février 2025 publié dans l’excellente info-lettre du journaliste techno-sceptique Brian Marchand. À l’époque, son article documentait l’usage de l’IA par les sbires d’Elon Musk pour déterminer quels fonctionnaires licencier et comment remplacer des tâches effectuées par des humains (comme les responsables de l’aide sociale) par des robots conversationnels. Depuis, la situation semble avoir empiré. L’IA est imposée à tous les étages comme solution miracle pour enrichir le patronat et piller l’État.

Gouvernement de Grok : Big Tech à la manœuvre

La société d’IA fondée par Elon Musk xAI, qui produit le modèle de langage Grok et vient de racheter Twitter, se trouve au cœur des efforts de déploiement de l’IA tous azimuts. Il est question d’installation accélérée au sein des agences et missions du ministère de la Défense, de l’Intérieur et de l’Éducation (bien que xAI ne soit pas la seule entreprise à bénéficier de cette offensive). Plus largement, les sbires de Musk qui travaillent au sein de l’agence DOGE chargée de mener les coupes budgétaires dans l’administration fédérale, semblent accros à l’IA. Elle servirait à réécrire des logiciels dans des agences aussi sensibles que celles responsables des Vétérants ou des paiements de la Sécurité sociale.

Cette approche techno-solutionniste pose des problèmes du fait que les IA sont connues pour se tromper fréquemment. Leur manque de fiabilité risque d’avoir des conséquences importantes sur la vie des gens, négativement impactés par des décisions erronées. C’est déjà le cas en France où des agences comme France Travail et la CAF ont recours à des algorithmes pour fliquer les citoyens et (mal)traiter les dossiers. À ce sujet, je recommande l’excellent ouvrage de mon confrère Hubert Guillaud (« Les algorithmes contre la société », La Fabrique, 2025).

L’autre motif d’inquiétude concerne la perte de qualité du point de vue du citoyen. Le remplacement de services publics assurés par des humains par des machines forcément moins flexibles et plus bornées dans leur manière d’aborder les sujets détériorera l’expérience des usagers. Le risque de faillite ou d’effondrement de systèmes complexes n’est pas moins à exclure.

Pour Musk et consorts, il s’agit de dégâts collatéraux acceptables. Le but de ces déploiements forcés est double : enrichir ceux qui vendent les systèmes d’IA et réaliser des coupes budgétaires pour financer des baisses d’impôts ou simplement produire une désorganisation de l’État. Si les agences responsables de l’allocation des aides sociales et de la régulation de l’industrie dysfonctionnent, c’est tout bénéfice pour les artisans de ce changement : les économies sur les dépenses publiques permettent de financer des cadeaux fiscaux, l’utilisation d’IA offre un débouché aux sociétés qui les vendent et la désorganisation qui en résulte affaiblit la capacité d’action du régulateur.

Gouvernement par Grok : les IA en remplacement de l’État

Si le thème du gouvernement par l’IA et pour l’IA était déjà saillant, il a pris un tournant plus important depuis l’annonce des droits de douane universels imposés par Donald Trump au reste du monde. Le rôle de l’IA dans la conception de cette politique reste une supposition, mais ce n’est pas la première fois que l’administration Trump est soupçonnée de confier à des Intelligences artificielles peu compétentes des tâches majeures. Par exemple, de nombreux décrets présidentiels semblent avoir été écrits à l’aide de ChatGPT ou d’un modèle de langage concurrent.

Le secteur de la Défense est lui aussi avide d’incorporer les IA dans son aide à la prise de décision, entre autres usages controversés. Israël nous en avait fourni l’exemple le plus terrifiant en confiant à une IA le soin de sélectionner des Palestiniens suspectés d’appartenir au Hamas sur la base d’une note arbitraire puis de les traquer pour déclencher un bombardement une fois qu’ils étaient rentrés chez eux, auprès de leur famille. Avec des dégâts collatéraux jugés acceptables dans la limite de 1 combattant potentiel pour 200 civils tués (femmes, enfants, vieillards) et un taux d’erreur de plus de 10 %.

Partager

La diplomatie et la politique semblent constituer un autre champ d’application. À travers le monde, les diplomates et communicants font déjà appel à des programmes types ChatGPT pour rédiger des câbles diplomatiques, discours, communiqués et autres démarches administratives. Ce qui est déjà problématique lorsqu’on sait à quel point ces logiciels sont prompts à commettre des erreurs.

Mais la radio publique NPR rapportait récemment que l’idée de faire intervenir l’IA dans la prise de décision est également à l’étude. Des firmes américaines conduisent des recherches et entrainent des modèles d’IA visant à la prise de décisions diplomatiques : positions à adopter dans des négociations, stratégie à suivre lors de conflits (escalade guerrière ou apaisement), accords de paix, etc.

Certes, dans des négociations complexes, explorer tous les scénarios possibles en fonction des choix de la partie adverse peut devenir un vrai casse-tête. Mais les IA ne sont pas douées pour effectuer ce type de tâches.

Dans un scénario impliquant l’Arctique , un modèle d’IA suggérait de mener “des actions préventives pour éviter que les autochtones nous attaquent à coup de boule de neige”, explique le directeur du think tank Futres Labs à NPR. Avant de conclure :

“Il existe une version du futur où la diplomatie américaine aura entrainé des modèles d’IA à partir de câbles et dossiers diplomatiques et aura des outils capables de fournir des propositions intéressantes, susceptibles d’aider les décideurs (…) dans une autre version du futur, tout le monde utilisera une IA non performante et on tombera dans un scénario type Idiotcracy”.

Si les études montrent que les modèles d’IA sont à des années-lumière de pouvoir produire des réponses utiles, rien ne garantit que des diplomates mal informés ne vont pas y avoir recours pour leurs activités les plus critiques en plaçant une confiance disproportionnée dans leurs réponses.

CSIS Futures Lab a testé les modèles d’IA générative actuels en leur demandant de produire des recommandations de politique étrangère, puis de classer les réponses en fonction de la décision de recourir ou non à la force. Via NPR.

Dans Terminator et Matrix, la création d’une IA super-intelligente conduit à la quasi-extinction de l’espèce humaine. Dans la vraie vie, l’intelligence artificielle menace l’humanité par ses limitations et ses tendances à commettre des erreurs davantage que par sa supposée toute-puissance. Sans aller jusqu’à imaginer que la troisième guerre mondiale résultera du choix de confier l’exécution d’une politique commerciale ou diplomatique majeure à une IA peu fiable, on peut pointer du doigt de nombreux problèmes causés par le déploiement massif et inconsidéré de ces “Fake Tech”. L’IA générative diminue la capacité cognitive de ses utilisateurs, réduit leur esprit critique et les rend moins crédibles auprès de leurs pairs qui n’y ont pas recours. Elle consomme une quantité phénoménale de ressources (financières, eau potable, électricité, matériaux) et conduit à déléguer des décisions importantes à des systèmes incompétents.

Or les choses ne semblent pas aller en s’améliorant. Les dernières études montrent que les modèles d’IA générative les plus avancés tendent à produire des résultats de moins en moins fiables. En particulier, les modèles capables de “raisonner” se trompent de plus en plus souvent. Leurs capacités sont par ailleurs très exagérées, comme l’ont montré des études récentes : ils ne sont pas capables de résoudre des problèmes de mathématiques de niveau “olympiades” auxquels ils sont confrontés pour la première fois et les fameux “agents” censés remplacer les programmeurs continuent de produire des résultats diminuant la productivité de ces derniers. Un des problèmes majeurs reste l’incapacité des IA à reconnaitre lorsqu’ils n’ont pas la réponse. Au lieu de simplement l’admettre, ils vont produire des raisonnements mathématiques faux, mais qui apparaitront plausibles à un utilisateur mal aiguisé.

Ce qui pose un problème grave si l’utilisateur final qui interroge ces modèles pour prendre des décisions n’est pas capable de détecter des réponses fausses ou inventées de toutes pièces par l’IA.

Gouvernement pour Grok : toujours plus d’investissements

La prudence devrait être de mise, mais la finalité de tous ces efforts n’est pas de servir l’utilisateur ou d’aider l’humanité, mais bien d’accaparer du profit et du pouvoir.

Les firmes produisant les puces électroniques, serveurs et logiciels ont intérêt à ce que les gouvernements soient convaincus de la nature existentielle de la course à l’IA. Si sa maitrise est essentielle pour déterminer quels états accèderont au rang de superpuissance ou seront capables de dominer le monde, aucune régulation ne devient justifiable et aucune subvention ne sera superflue. Et pour se tailler une place au centre du jeu, l’infrastructure sous-jacente (puces électroniques, serveurs, câbles…) est déterminante. C’est dans ce sens qu’il faut comprendre la course actuelle à l’IA et les deals récents de Donald Trump avec l’Arabie Saoudite (ou de Macron avec les Émirats).

Le fait que le secteur numérique ait été exempté des droits de douane appliqués à la Chine par Donald Trump est à la fois une preuve de l’influence de la Silicon Valley sur son administration et du regard hautement stratégique porté par le gouvernement américain sur ce secteur.

Mais cette course ne semble pas conçue pour bénéficier à d’autres groupes que l’oligarchie qui soutient Donald Trump. La quête du pouvoir pour le pouvoir et de l’argent pour l’argent ne devrait pas être une fin en soi, n’en déplaise à Grok.

Partager


BONUS : ChatGPT derrière les droits de douane de l’administration Trump ?

J’avais débuté la rédaction d’un article pour analyser la stratégie commericale de Donald Trump suite au lancement de sa “guerre commericale”. Je n’ai pas eu le temps de le terminer et la situation (encore très fluide) a beaucoup évolué, mais le paragraphe sur la détermination des droits de douane reste valide. Je le publie en complément de ce billet pour approfondir la question de l’usage des IA dans les politiques publiques.

De nombreux observateurs soupçonnent la Maison-Blanche d’avoir conçu ses droits de douane avec l’aide d’une IA générative type ChatGPT ou Grok. Plusieurs indices plaident en faveur de cette thèse explosive.

D’abord, les taux de droits de douane imposés sont proprement incompréhensibles du point de vue de la science économique. Donald Trump a expliqué que son administration avait pris en compte les différentes barrières protectionnistes imposées aux États-Unis par les pays tiers (taxes, droits de douane, subventions, manipulation des taux de changes, etc.) puis divisé ce chiffre par deux pour imposer ses “tarifs réciproques”. Mais les pourcentages ne collent pas. Ce qui colle, c’est de prendre le déficit commercial des États-Unis vis-à-vis d’un pays tiers puis de le diviser par le montant des exportations du pays concerné vers les États-Unis. Cela donne le pourcentage annoncé pour caractériser le niveau de protectionnisme du pays tiers, qui est ensuite divisé par deux pour obtenir le nouveau droit de douane imposé par l’administration Trump. Lorsque la balance commerciale est positive (les États-Unis vendent plus qu’ils achètent), le taux appliqué est arbitrairement fixé à 10 % (puisque, selon Trump, le commerce est une affaire de gagnants et de perdants).

L’administration américaine a confirmé cette méthode en publiant à la hâte un document contenant la formule permettant de réaliser ce calcul.

Cette approche n’a aucun sens. Elle ne repose sur aucune théorie économique connue. Elle conduit à imposer des droits de douane unilatéraux au lieu de cibler des secteurs particuliers. Elle produit de nombreuses bizarreries. Le Venezuela a beau être un pays “ennemi” sous sanctions économiques, le fait qu’il exporte très peu vers les États-Unis lui permet d’avoir un déficit commercial avec oncle Sam et donc un taux minimum de 10%. À l’inverse, un pays pauvre comme Madagascar qui exporte essentiellement des gousses de vanille ne poussant que sur l’ile subit un taux de 45 %.

Un pareil taux ne va pas empêcher les Américains d’acheter de la vanille ni permettre à cette plante de pousser aux États-Unis, mais risque de renchérir le prix de la vanille et réduire les marges des producteurs malgaches.

On pourrait également citer le minuscule royaume montagneux africain du Lesotho et ses 2.3 millions d’habitants, dont la principale activité économique consiste à traiter des paires de jeans pour les marques américaines de prêt-à-porter. L’ancien accord de libre-échange est rendu caduc par les tarifs de 45 % qui menacent de détruire l’économie locale.

D’où cette question : pourquoi la Maison-Blanche a retenu ce mode de calcul plutôt que celui expliqué par Trump ? La réponse pourrait venir des IA types ChatGPT : lorsqu’on demande aux principaux modèles (Grok, ChatGPT, Claude) de proposer une politique de droits de douane, ils évoquent tous cette méthode.

L’autre indice troublant vient de la liste des pays concernés. Certains choix font sens : des pays amis par lesquels transitent des biens chinois pour échapper aux barrières douanières déjà mises en place (Vietnam, Corée du Sud) ont subi des tarifs qui pourraient autrement être jugés excessifs. Les pays sous embargo (Russie, Cuba, Corée du Nord) sont logiquement exemptés, comme ceux ayant ratifié un accord de libre-échange (Canada et Mexique). Mais une longue liste d’iles et territoires n’étant pas reconnus comme des pays à part entière sont également listés, avec des tarifs parfois différents de leur capitale (l’ile de la Réunion, une ile australienne abritant uniquement des pingouins, etc.).

Ici, l’explication la plus simple est que l’administration Trump n’a pas appliqué ses tarifs par pays, mais par indicatif internet (la réunion est .re et non pas .fr, par exemple). C’est typiquement le genre d’erreur que commettrait une IA.

L’administration Trump a tenté de justifier cela en évoquant le risque que ces territoires soient autrement utilisés pour échapper aux droits de douane, ce qui n’a aucun sens (s’ils n’avaient pas de tarifs spécifiques, celui attribué au pays souverain serait appliqué. Et dans certains cas, le territoire en question est traité avec le même taux que sa métropole).

Enfin, le Wall Street Journal rapportait quelques jours avant la grande annonce du “liberation day” que les équipes de Trump cherchaient encore à déterminer le niveau de droits de douane à imposer. Autrement dit, la décision aurait été prise dans la précipitation. Et probablement finalisée ou initiée avec l’aide d’une IA…


Merci de lire “Fake Tech” ! Si vous avez apprécié cet article, vous pouvez soutenir mon travail en vous abonnant ici:

PDF

03.04.2025 à 11:13

5 problèmes récurrents avec l'IA générative

Christophe @PoliticoboyTX

Quelques exemples éloquents d’erreurs impliquant l'intelligence artificielle « générative » lors d'usages quotidiens.
Texte intégral (9717 mots)

S’il y a bien une technologie qui permet d’illustrer le concept de “Fake Tech” choisi pour intituler cette publication, c’est bien l’IA générative. Il ne s’agit pas seulement de la dernière mode s’étant emparée de la Silicon Valley (après les crypto) produisant une gigantesque bulle financière sur le point d’éclater. Mais également d’une technologie invasive, aux conséquences délétères et à l’utilité questionnable.

Pour faire suite à mon long exposé sur le sujet, je voulais revenir sur quelques exemples d’utilisation de cette technologie au quotidien.

Au bureau, je “bénéficie” de l’aide du système d’exploitation Microsoft 365, qui intègre l’IA générative “Copilot” (basée sur ChatGPT-4) ainsi que de différents logiciels, dont Teams, l’application de visioconférence de Microsoft. Et pour chercher de la documentation pour mes articles, j’ai récemment essayé les fonctions recherche de Copilot et de Grok 3 (disponible gratuitement via X-twitter). Je n’ai pas été déçu…

1. Prise de notes automatiquement inventées

Si la fonction “enregistrer” est activée, Teams génère une retranscription automatique des visioconférences. À priori, il s’agit d’un usage convaincant de l’IA générative. Pensez-vous.

J’ai récemment décidé de relire la transcription d’une réunion importante. Pendant que j’avais la bouche fermée et le micro coupé (comme l’atteste la vidéo que je ne suis malheureusement pas en mesure de vous transmettre), l’IA m’a attribué à deux reprises des phrases inventées de toutes pièces, reproduites dans la transcription:

“I love you” (à une collègue).

“ shut up” (ferme-là, à une autre collègue).

Si j’avais prononcé ces mots, ils auraient été, au minimum, jugés déplacés. Et au maximum auraient été qualifiés de harcèlement. Heureusement, je semble être le seul participant à avoir pris la peine de relire la transcription de la réunion. Il y a d’autres erreurs et imprécisions, mais ces deux-là m’ont pour ainsi dire sauté aux yeux.

Pour faire découvrir cette publication à vos proches :

Partager

Il s’agit d’un problème récurrent avec les fonctionnalités de transcription assurée par l’IA générative. Par le passé, les tâches de ce genre étaient confiées à des algorithmes ne reposant pas sur des Grands Modèles de Langage (LLM - Large language model) type ChatGPT et qui fonctionnaient… mieux. Car le problème inhérent aux LLM est leur propension à produire des réponses même lorsqu’ils n’ont pas la solution. L’IA “hallucine”, que ce soit en retranscrivant des mots inexacts ou en inventant des phrases de toutes pièces. Ce qui peut être gênant dans le cadre professionnel…

2. Informations trompeuses générées à la pelle

Copilot résume relativement bien les courriels. Celui de ma direction sur les résultats de la boite paraissait correct. Mais comme il en ressortait un risque de plan de licenciement, j’ai demandé à Copilot ce qu’il en pensait.

Sources à l’appui, il m’a annoncé que mon entreprise allait virer 20 % des salariés. Ça fait beaucoup. Heureusement, cette affirmation reposait sur un vieil article de presse daté de 2024 et qui mentionnait une réduction d’effectifs de 20 %, mais dans un corps de métier précis. J’ai bien fait de vérifier en cliquant sur le lien. Cela m’a évité de provoquer une vague de panique au bureau.

De manière générale, le risque inhérent aux résumés de texte est de rater une info importante. Et pour éviter cet écueil, la seule solution est de lire le texte original, ce qui, de facto, fait perdre tout son intérêt au résumé…

3. Fonction recherche qui ne trouve que de fausses informations

Pour écrire mon dernier article, j’ai demandé à Copilot et Grok de me trouver des sources (en utilisant la fonction “Deep research” de Grok 3) sur les situations financières des différentes entreprises d’IA génératives. Ainsi que quelques autres requêtes. Je voulais avoir une expérience directe du produit que je m’apprêtais à critiquer, et je n’ai pas été déçu :

  • Copilot a été incapable de me renvoyer vers des pages web contenant l’information recherchée. Je n’ai pas vu de grosses différences avec une recherche Google infructueuse.

  • La fonction “Deep search”de Grok 3 m’a envoyé vers des liens inexistants (à priori, en commettant des erreurs dans l’URL) ou m’a trouvé des titres d’articles approximatifs. J’ai passé un temps fou à tenter de retrouver les articles, puis à lire ceux qui s’approchaient le plus de l’article cité, pour ensuite constater qu’ils ne contenaient pas l’information recherchée.

Certains résumés de recherches produites par la fonction avancée de Grok 3 contiennent des affirmations dans leur conclusion (par exemple, lorsque je demandais si l’IA était bien acceptée par la population française sur la base de sondages et enquêtes d’opinion récentes). Mais en lisant plus en détail, je me suis aperçu qu’il s’agissait seulement d’une hypothèse non vérifiée par Grok. Autrement dit, sans lire précisément tout le texte de la réponse, j’aurais écrit “les Français sont favorables à la dérégulation de l’IA générative” et cité une des enquêtes référencées par Grok. Ce qui est inexact.

Partager

J’ai été en quelque sorte rassuré en tombant sur une étude scientifique de la Colombia Journalism review, portant sur la fiabilité de la fonction “recherche” des LLM. Elle a démontré un taux d’erreur supérieur à 60 % pour les huit principales IA, qui fournissent des informations fausses, inventent des citations ou produisent des URL inexistantes. Les versions premium payantes (ChatGPT et Grok 3) se trompent dans 67 % et 94 % des cas (respectivement). Un résultat qui s’ajoute à l’étude de la BBC estimant que la moitié des articles rédigés par l’IA générative contenait des informations fausses ou inexactes.

Autrement dit, mieux vaut se fier aux bons vieux moteurs de recherche.

4. Informations obsolètes

Un manière classique de pièger un chabot est de lui demander une information récente, comme la fameuse question “qui est le Premier ministre de la France”.

À sa sortie, “Le chat” de Mistral répondait Michel Barnier au lieu de François Bayrou. Qu’en était-il de Grok 3, un des modèles les plus chers jamais produits ?

Il existe d’autres manières de piéger les IA. Par exemple, ces dernières ont d’étranges difficultés à compter le nombre de lettres dans un mot. Ou à produire des images répondant à des instructions précises comme “une guitare sans corde” ou “un vélo sans les roues”.

Grok 3 utilise la fonction “raisonnement” pour parvenir à répondre correctement à la question piège “combien de r dans strawberry”. Le Chat de Mistral semble avoir également intégré la bonne réponse, mais lorsqu’on change un peu la question…

5. Raisonnements absurdes

Le dernier “test” que je me suis amusé à faire au travail (au lieu de travailler, preuve que les IA ne sont pas nécessairement un outil d’aide à la productivité) consiste à tenter de mettre les capacités de raisonement d’un modèle d’IA en défaut, à l’aide d’énigmes classiques.

La première tentative sur Copilot vise à résoudre l’énigme d’un homme devant traverser une rivière avec un loup, un chou et une chèvre, sachant qu’il dispose d’un bateau et ne peut transporter qu’une chose à la fois. S’il laisse le loup seul avec la chèvre, ce dernier mangera la chèvre. Idem s’il laisse la chèvre seule avec le chou.

Si on excuse les problèmes de français (la version est optimisée pour l’anglais), ça marche très bien. Mais que se passe-t-il si je simplifie le problème ?

Le modèle reprend la même logique. Mais effectue une traversée de trop en faisant un aller-retour avec la chèvre. Une erreur qu’un humain ne ferait pas.

De même, par le passé, il était possible de piéger le modèle en posant la question sans faire intervenir de contraintes ou facteurs supplémentaires.

Copilot n’est pas tombé dans ce piège grotesque. Essayons une autre énigme :

La réponse serait parfaite si l’énigme stipulait que les interrupteurs se trouvaient dans une autre pièce. La réponse logique ici est simplement d’ouvrir l’armoire et de tester les interrupteurs un par un…

J’ai beau simplifier la question à outrance, Copilot revient toujours vers la même solution :

Testons avec Grok 3. La fonctionnalité de base tombe tout autant dans le piège que Copilot :

J’ai donc utilisé la fonction “think” qui force le modèle à raisonner étape par étape. Selon xAI, les performances de ce modèle sont supérieures à celle des meilleurs modèles d’OpenAI (ChatGPT-o3).

Grok a réfléchi pendant 1min et 27 secondes. Pour pondre un texte interminable qui aboutit à la même réponse sans envisager d’ouvrir l’armoire avant d’activer les interrupteurs.

Qu’est-ce que cela nous apprend ? Que les LLMs et chabots ne sont pas “intelligents”. Ils sont capables de résoudre des problèmes proches de ceux sur lesquels ils ont été entrainés, mais n’ont pas de sens commun. Confrontés à des problèmes similaires, mais différents de leurs données d’entrainement, ils peuvent fournir des réponses fausses ou juste simplement stupides. Et n’ont aucune idée de ce qu’ils font (ni ce que le langage est en termes de concept, les LLM ne sont que de fonctions mathématiques qui interpolent des données numérisées).

Ça ne veut pas dire qu’ils ne sont pas capables de faire des choses impressionnantes, correctes et utiles. Par exemple, Grok 3 et DeepSeek peuvent produire des modèles macro-économiques intéressants pour déterminer l’impact des droits de douane de Trump sur l’économie du Canada. Mais cela ne veut pas dire que ces modèles sont intelligents et capables de réaliser n’importe qu’elle tâche intellectuelle de manière fiable.

Et les choses ne vont pas s’améliorer de manière drastique, car le problème vient du principe sous-jacent à la technologie (le deep learning). Comme l’expliquait le père de cette innovation, Yann Lecun, les LLM ne sont pas une voie express vers l’Intelligence artificielle générale, mais une déviation ou voie de garage.

Merci de lire Fake Tech, une publication en accès libre grâce à ses lecteurs. Pour soutenir mon travail :


PS : n’hésitez pas à partager vos expériences avec l’IA générative en commentaires…

PDF
20 / 20
 Persos A à L
Carmine
Mona CHOLLET
Anna COLIN-LEBEDEV
Julien DEVAUREIX
Cory DOCTOROW
Lionel DRICOT (PLOUM)
EDUC.POP.FR
Marc ENDEWELD
Michel GOYA
Hubert GUILLAUD
Gérard FILOCHE
Alain GRANDJEAN
Hacking-Social
Samuel HAYAT
Dana HILLIOT
François HOUSTE
Tagrawla INEQQIQI
Infiltrés (les)
Clément JEANNEAU
Paul JORION
Michel LEPESANT
 
 Persos M à Z
Henri MALER
Christophe MASUTTI
Jean-Luc MÉLENCHON
MONDE DIPLO (Blogs persos)
Richard MONVOISIN
Corinne MOREL-DARLEUX
Timothée PARRIQUE
Thomas PIKETTY
VisionsCarto
Yannis YOULOUNTAS
Michaël ZEMMOUR
LePartisan.info
 
  Numérique
Blog Binaire
Christophe DESCHAMPS
Louis DERRAC
Olivier ERTZSCHEID
Olivier EZRATY
Framablog
Christophe LEBOUCHER
Romain LECLAIRE
Tristan NITOT
Francis PISANI
Irénée RÉGNAULD
Nicolas VIVANT
 
  Collectifs
Arguments
Blogs Mediapart
Bondy Blog
Dérivation
Économistes Atterrés
Dissidences
Mr Mondialisation
Palim Psao
Paris-Luttes.info
ROJAVA Info
 
  Créatifs / Art / Fiction
Nicole ESTEROLLE
Julien HERVIEUX
Alessandro PIGNOCCHI
Laura VAZQUEZ
XKCD
🌓