URL du flux RSS

La Lettre de Philosophie Magazine

▸ les 10 dernières parutions

04.11.2025 à 17:00

Poupées, films générés par IA : sur quelle base condamner la pédopornographie “virtuelle” ?

hschlegel
Poupées, films générés par IA : sur quelle base condamner la pédopornographie “virtuelle” ? hschlegel

Alors que le scandale enfle après la découverte de poupées pédopornographiques commercialisées par la plateforme Shein – qui doit bientôt être accueillie au BHV, à Paris –, la question des fondements légaux et moraux de la lutte contre ces pratiques est relancée. Le virtuel est-il un moyen de réduire le risque de passage à l’acte avec des personnes réelles ? Ou de l’entretenir ? Et doit-on condamner le virtuel ?

[CTA2]


 

Catastrophe écologique, conditions de travail déplorables : l’entreprise chinoise de fast fashion Shein n’avait déjà pas bonne presse. Elle essuie, depuis quelque jours, de nouvelles critiques : la Direction générale de la concurrence, de la consommation et de la répression des fraudes a saisi le procureur de la République après avoir constaté la commercialisation de poupées sexuelles à caractère pédopornographique par le géant de l’e-commerce. D’autres plateformes sont également pointées du doigt : AliExpress, Temu, Wish. « Ces objets horribles […] sont illégaux […] Il y aura une enquête judiciaire », a réagi le ministre de l’Économie Roland Lescure. De son côté, Sarah El Haïry, la Haut-commissaire à l’enfance, affirmait : « Quand vous faites l’achat d’objets aussi ignobles que ça, […] il y a un risque accru de passer à l’acte. Et donc, les enfants qui sont aux alentours ont vocation à être protégés. » Incriminé, Shein a annoncé avoir retiré « immédiatement » de sa plateforme les poupées. « Notre équipe Marketplace Governance enquête actuellement sur la manière dont ces annonces ont pu contourner nos dispositifs de contrôle, et mène une revue complète afin d’identifier et de retirer tout produit similaire susceptible d’être mis en vente par d’autres vendeurs tiers. »

Pédopornograhie générée par IA

À l’heure du numérique, dans le Far West d’internet, les pédocriminels trouvent de nouvelles manières d’assouvir leur pulsions. Le commerce de poupées sexuelles à l’effigie de mineurs n’est pas le seul problème auquel sont confrontés les autorités. Selon un rapport récent de l’Internet Watch Foundation, les contenus pédopornographiques générés par IA ont augmenté de 400% en l’espace d’un an. Face à la prolifération de ces contenus d’un nouveau genre, les législations doivent s’adapter. La plupart ont pris des dispositions pour criminaliser la pédopornographie qui est générée par IA au même titre que celle qui ne l’est pas. La jurisprudence française, à titre d’exemple, condamne la consultation, la possession, la diffusion et la production d’images et représentations de mineurs à caractère pornographique, que le mineur représenté soit réel ou non, que la scène ait réellement eu lieu ou non. « Le délit est constitué dès lors que le personnage mis en scène, réel, virtuel ou imaginaire, présente les traits dun mineur ou sa représentation, dans une situation pornographique », rappelle un jugement de la Chambre criminelle de la Cour de Cassation.

“Les législateurs hésitent, mais globalement, la tendance est à la criminalisation des images générées par IA”

 

Mais face à ces nouveaux contenus virtuels, qui ont commencé à émerger avant le boom des IA génératives, certains législateurs hésitent. Aux États-Unis, le Child Pornography Prevention Act de 1996 condamnant « toute représentation visuelle, y compris toute photographie, film, vidéo, image ou photo générée par ordinateur ou sur ordinateur » qui « est, ou semble être, celle d’un mineur se livrant à un comportement sexuellement explicite » – a été jugé « inconstitutionnel » par la Cour suprême dans l’affaire Ashcroft v. Free Speech Coalition (2002), dans la mesure où il englobe des contenus qui ne mettent en jeu aucune violence réellement commise contre des mineurs. La liberté d’expression ne peut être limitée que si elle cause un tort et, en l’occurrence, « la pornographie infantile virtuelle n’est pas “intrinsèquement liée” à l’abus sexuel des enfants ». Le PROTECT Act de 2003 reviendra sur la décision, jugeant illégal de « réaliser une représentation visuelle qui est une image numérique, une image informatique ou une image générée par ordinateur d’un mineur se livrant à un comportement sexuellement explicite, ou qui est impossible à distinguer d’une image d’un mineur se livrant à un comportement sexuellement explicite ». Pour contourner les restrictions d’Ashcroft v. Free Speech Coalition, le PROTECT Act a adjoint la condition d’« obscénité », qui permet d’exclure du champ les œuvres à caractère artistique.

Le débat se poursuit cependant : récemment encore, appelé à juger un individu accusé de production, possession et distribution de contenus pédopornographiques générés par IA, le juge James D. Peterson a estimé que, si la production et la distribution tombaient sous le coup de la loi, la possession de ces contenus dont la réalisation n’a mis en jeu aucun enfant réel était protégée par la jurisprudence Stanley v. Georgia (1969) sur la détention privée d’obscénités. N’en demeure pas moins que, globalement, la tendance est à la criminalisation des images générées par IA.

Victime réelle, victime virtuelle

Sur quelles bases le législateur doit-il se fonder ? La question paraît évidemment dérangeante ; elle n’en travaille pas moins tout un pan de la réflexion juridico-philosophique contemporaine, contrainte de prendre en compte les nouvelles réalités technologiques. La pornographie infantile « traditionnelle » – qu’il s’agisse d’images ou d’actes physiques – impliquait des crimes sexuels réellement commis sur des mineurs. Ce n’est pas directement le cas des représentations algorithmiques ou des poupées sexuelles. Si la justice punit des torts, quel tort causent ces « modes de satisfaction » ? On peut encore reconnaître le dommage manifeste quand l’IA produit des représentations d’un mineur qui existe bel et bien, dont le visage pourrait être identifié. Mais si la photo ou la vidéo sont purement fictives, qu’en est-il ?

“Si la justice punit des torts, quel tort causent des images purement fictives ?”

 

Dans un article antérieur à l’essor des IA génératives, qui prend néanmoins en compte les possibilités de création numérique d’images ou de vidéos pédopornographiques, Ole Martin Moen et Aksel Braanen Sterri interrogent : « Est-il immoral pour les pédophiles de satisfaire leurs préférences sexuelles en utilisant des images générées par ordinateur, des poupées sexuelles et/ou des robots sexuels qui imitent des enfants ? » (« Pedophilia and Computer-Generated Child Pornography », 2018). Leur conclusion ? « Il est moralement acceptable que les pédophiles satisfassent leurs préférences sexuelles sans impliquer d’enfants réels. »

Une réduction des risques ?

L’argument de la réduction des risques est souvent avancé pour défendre l’autorisation de ces images pédopornographiques créées par une IA. Dans l’article « Could AI-Generated Porn Help Protect Children? » (« La pornographie générée par IA pourrait-elle contribuer à la protection de l’enfance ? », 2023), publié par le magazine américain Wired, l’avocate et écrivaine Danielle Bernstein suggère que la pédopornographie générée par IA fournit aux « pédophiles qui ne souhaitent pas faire de mal aux enfants » une forme de « satisfaction dans des moyens qui leur permettent d’éviter de le faire ». Bernstein va plus loin, et assure (non sans précaution et nuance) que la pédopornographie générée par IA peut s’avérer un « outil de réduction des risques ».

À tout prendre, ne vaut-il pas mieux que les individus aux inclinations criminelles puissent assouvir leurs désirs viciés, au moyen dimages dont la production nengendre aucun tort matériel ? La substitution dimages légales générées par IA aux images réelles illégales nest-elle pas la moins pire des solutions ? L’argument peut être étendu aux substituts physiques : poupées, androïdes, etc. Danielle Bernstein argumente :

“Cela s’apparente à la logique qui sous-tend, par exemple, les programmes d’échange de seringues destinés aux personnes souffrant d’une addiction à la drogue. Comme nous ne pouvons pas mettre fin à la consommation de drogue dans son ensemble, il est dans l’intérêt de la société de trouver des moyens de garantir que cette consommation se fasse en toute sécurité. […] Le dégoût légitime que nous éprouvons pour la pornographie infantile ne doit pas nous empêcher d’envisager la possibilité que des images factices puissent constituer une amélioration par rapport aux abus”

Danielle Bernstein, art. cit.

L’enjeu n’est pas seulement la substitution d’images fictives à des images réelles dont la production implique des crimes commis contre des enfants : il s’agit aussi, selon certains, de prévenir le passage à l’acte. En donnant satisfaction à des penchants criminels sans victimes directes, la pédopornographie générée par IA éviterait le péril de la frustration, qui peut conduire à des actes pédocriminels. « Certaines personnes attirées par les mineurs affirment que l’utilisation de la pornographie infantile comme exutoire sexuel les empêche de commettre des abus réels, suggérant que cela permet de contrôler leurs pulsions », note Andreas Maier dans « The Danger of AI-Generated Child Pornography: A Complex Ethical Problem » (« Le danger de la pornographie infantile générée par IA. Une question éthique complexe », 2024). L’auteur reconnaît cependant que le rapport entre les deux est loin d’être évident. « Les recherches indiquent une relation complexe entre le visionnage de ce type de contenus et la probabilité de commettre des infractions physiques. » Si le visionnage de telles vidéos « ne conduit pas nécessairement à une augmentation des infractions avec contact », aucune étude ne conclut, à l’inverse, à une réduction du risque de passage à l’acte.

Pour Andreas Maier, l’enjeu essentiel est l’encadrement de l’accès à ces contenus, plus que leur criminalisation. Et d’utiliser lui aussi l’analogie avec les drogues dures :

“L’utilisation d’images générées par l’IA dans le cadre d’un traitement s’apparente, dans une certaine mesure, à l’utilisation de la méthadone dans le traitement de la dépendance à l’héroïne. Si la méthadone peut contribuer à réduire les effets néfastes de l’héroïne, elle reste une substance réglementée qui doit faire l’objet d’un contrôle. […] La pornographie infantile générée par l’IA doit clairement être réglementée afin d’empêcher toute utilisation abusive. Cependant, elle pourrait également être utilisée pour soutenir le traitement des auteurs d’abus sexuels sur mineurs et prévenir les abus réels”

Andreas Maier, art. cit.

Normalisation et désensibilisation

De nombreux chercheurs contestent ces arguments. Comme le soulignait déjà Neil Levy dans « Virtual child pornography: The eroticization of inequality » (« La pornographie infantile virtuelle. Une érotisation de l’inégalité », 2002), « dire que la pornographie infantile virtuelle ne nuit pas aux enfants réels ne signifie toutefois pas qu’elle soit totalement inoffensive ». Les possibilités ouvertes depuis par les IA génératives démultiplient les risques. L’idée même que les productions de ces IA ne nuisent à aucun enfant réel elle-même est discutable, Maier le reconnaît lui-même :

“Une préoccupation importante se pose : si les systèmes d’IA sont involontairement entraînés sur des contenus illégaux, tels que la pornographie infantile, cela rendrait ces modèles d’IA eux-mêmes illégaux”

Andreas Maier, ibid.

Même si les modèles d’IA n’utilisent pas, pour construire de telles images, des contenus pédopornographiques réels, ces outils peuvent être utilisés pour « générer des images sexuellement explicites représentant des enfants réels, y compris des victimes d’abus connues, des mineurs dont les images circulent et des enfants appartenant à l’entourage immédiat », soulignent Caoilte Ó Ciardha, John Buckley et Rebecca Portnoff dans leur article sur l’« IA CSAM » (Child Sexual Abuse Material), « AI Generated Child Sexual Abuse Material—Whats the Harm? » (2025). Ces images peuvent devenir, dans certains cas, un moyen de « manipuler […] ou faire chanter les enfants, augmentant ainsi les risques de pédopiégeage et de coercition ».

Ce n’est pas le seul problème pour ces trois chercheurs. L’idée qu’en donnant satisfaction aux inclinations pédophiles, on réduit le risque d’abus réel, est contestable. La consommation effrénée de contenus pédopornographiques engendrerait en effet « normalisation et désensibilisation », qui tend à faire perdre à l’individu la conscience du caractère criminel des actes qui le font fantasmer :

“La scalabilité et l’adaptabilité des outils d’IA permettent […] aux délinquants de créer des contenus hyper-personnalisés, ce qui peut renforcer les distorsions cognitives […] La nature personnalisable de l’IA CSAM signifie que le contenu peut être rendu plus violent, sadique et extrême […] Cette personnalisation se prête également à la création de matériel plus engageant sur le plan émotionnel pour les utilisateurs, par exemple grâce à l’utilisation de chatbots […] Ces possibilités renforcent les inquiétudes quant au fait que ces contenus synthétiques pourraient contribuer à l’escalade des modes de consommation […] L’IA CSAM n’est pas simplement une forme alternative de matériel illicite, mais un changement fondamental dans les mécanismes qui facilitent l’exploitation sexuelle des enfants. Plutôt que de servir de débouché passif, l’IA CSAM peut fonctionner […] comme un mécanisme de renforcement pour un engagement plus profond dans des comportements d’exploitation. […] Ce type de matériel accroît les risques existants et crée de nouvelles formes de victimisation”

C. Ó Ciardha, J. Buckley., R. S. Portnoff, art. cit.

Retour aux poupées

Le même raisonnement peut-il être transposé à l’usage de poupées pédopornographiques ? Les chercheurs évoqués se concentrent, dans leur argumentaire, sur les images et vidéos produites par IA génératives, qui ouvrent aux pulsions pédophiles des horizons infinis. Les possibilités sont plus limitées avec des poupées sexuelles physiques. Les visages, l’allure générale sont prédéfinis. Pour l’heure en tout cas : on peut aisément imaginer des formes de personnalisation assez poussées. Quant à l’usage qui en est fait : la poupée se prête à tous les fantasmes, y compris les plus violents, les plus cruels, de son détenteur. Si l’abus ne consiste pas directement en une agression physique, la poupée fait déjà basculer, en un certain sens, le fantasme et l’assouvissement visuel vers un acte physique. 

“Y a-t-il un lien de causalité entre consommation d’images et/ou recours à des poupées sexuelles, et passage à l’acte ? La question reste ouverte”

 

Certains auteurs soulignent que les poupées sexuelles, comme les images générées par IA, n’ont pas d’effets pervers démontrés pas de lien de causalité attesté avec des passages à l’acte criminels. « Les données actuelles n’indiquent pas que les relations virtuelles et la sexualité avec des poupées sexuelles ressemblant à des enfants augmentent le risque d’abus sexuel sur des enfants dans la vie réelle », notent Jeanne C. Desbuleux et Johannes Fuss dans « Child-like sex dolls: legal, empirical, and ethical perspectives » (« Poupées sexuelles représentant des enfants. Une perspective légale, empirique et éthique », 2024). Les deux auteurs ajoutent que « les utilisateurs de ces “poupées” indiquent qu’il s’agit d’un exutoire sûr pour leur excitation sexuelle qui ne fait aucune victime, contrairement à l’utilisation d’images ou de vidéos d’abus sexuels ou à l’abus sexuel d’enfants » on retrouve l’argument de réduction du risque.

D’autres auteurs se montrent beaucoup plus critiques. Comme l’écrivent Ante Cuvalo et Christine Wekerle dans « Child sex doll and sex robot research: Taking a child rights perspective » (« Les poupées sexuelles représentant des enfants et autres robots sexuels. Le point de vue des droits de l’enfant », 2025) :

“Ces poupées/robots personnalisables ont des traits enfantins, des orifices corporels et des fonctionnalités programmables grâce à la technologie. Les poupées sexuelles représentant des enfants ont été utilisées dans des contextes thérapeutiques avec des adultes s’identifiant comme tels, cherchant à suivre un traitement et manifestant divers degrés d’intérêt pour les enfants. Si les défenseurs des poupées sexuelles représentant des enfants avancent l’argument de la réduction des risques, en termes de satisfaction des choix sexuels des adultes, il existe très peu de preuves scientifiques à l’appui”

A. Cuvalo, C. Wekerle, art. cit.

Rick Brown et Jane Shelling, de leur côté, soulignent nettement le facteur de risque que représentent ces substituts sexuels dans « Exploring the implications of child sex dolls » (« Poupées sexuelles représentant des enfants. Quelles implications ? », 2019) :

Il est possible que l’utilisation de poupées sexuelles représentant des enfants conduise à une escalade des infractions sexuelles commises à l’encontre d’enfants […] Elle peut également désensibiliser l’utilisateur aux dommages potentiels causés par les agressions sexuelles sur des enfants, étant donné que ces poupées ne fournissent aucun retour émotionnel”

R. Brown, J. Shelling, art. cit.

Autant de raisons pour que les législateurs s’emparent du sujet, comme de celui de la pédopornographie générée par intelligence artificielle.

Retirer le paywall

04.11.2025 à 15:18

L’ambition, c’est dépassé ? L’humoriste Karim Duval fait son premier “unboxing” pour Philomag !

hschlegel
L’ambition, c’est dépassé ? L’humoriste Karim Duval fait son premier “unboxing” pour Philomag ! hschlegel

« Pourquoi la sole aurait-elle besoin de se travestir en requin pour réussir ? » Nous avons proposé à l’humoriste Karim Duval, qui aime bien parler du monde du travail dans ses spectacles et ses vidéos, de commenter notre numéro spécial réalisé en collaboration avec Philonomist : « Faut-il (encore) avoir de l’ambition ? » C’est avec beaucoup de talent – et d’autodérision – qu’il nous livre sa version personnelle de la question, en défendant une « vision horizontale de l’ambition ». Finis les requins ! L’idée est plutôt de viser « petit et unique ».

Visionnez ci-dessous sa vidéo en intégralité, et retrouvez ce numéro spécial en kiosque ou sur notre boutique en ligne.

[CTA1]


Retirer le paywall

04.11.2025 à 12:27

“La Maison vide”, de Laurent Mauvignier, prix Goncourt 2025 : à la recherche du destin perdu

hschlegel
“La Maison vide”, de Laurent Mauvignier, prix Goncourt 2025 : à la recherche du destin perdu hschlegel

L’écrivain Laurent Mauvignier vient d’être récompensé par le prix Goncourt 2025 pour son roman La Maison vide (Éd. de Minuit). Dans notre dernier numéro, Philippe Garnier met en lumière la dimension d’« anamnèse platonicienne » de ce récit centré sur un secret familial qui hante l’histoire de plusieurs générations. Nous vous invitons à retrouver cet article en accès libre ici.

Retirer le paywall

04.11.2025 à 06:00

Les métamorphoses de notre rapport à la mort

nfoiry
Les métamorphoses de notre rapport à la mort nfoiry

Depuis l’Antiquité, notre rapport à la mort achangé. Inscrit dans un ordre naturel ou sujet de scandale, prolongeant la vie dans un au-delà ou marquant la pure absurdité de l’existence ici-bas, la perspective du trépas a nourri la réflexion des philosophes. Dans notre nouveau numéro, nous vous en présentons un panorama en quatre grands âges.

Retirer le paywall

03.11.2025 à 17:15

IA : mes premiers pas dans le “deepfake”…

hschlegel
IA : mes premiers pas dans le “deepfake”… hschlegel

« Je ne m’étais jamais inquiété des deepfakes vidéos “hypertruquées”, en bon français – qui circulent sur les réseaux : trop évidentes, trop grotesques pour représenter un vrai danger, pensais-je. J’ai changé d’avis il y a quelques jours. En en fabriquant moi-même.

[CTA1]

Vous lisez actuellement la Lettre de la rédaction de Philosophie magazine. Pour la recevoir directement dans votre boîte mail, abonnez-vous ! Cette newsletter est quotidienne et gratuite.

Tout a commencé quand une amie m’a montré qu’on pouvait animer une photo grâce à une application d’intelligence artificielle en accès libre. Stupéfiant ! Mon portrait figé s’est mué en vidéo presque parfaite, où je me vois sourire, réajuster mon écharpe, bouger la tête et les mains avec naturel. Mais on peut aussi donner ses instructions : je me mets à psalmodier une prière en me prosternant. Je commence à rire un peu jaune. Tiens, et si j’ôtais mon manteau ? Ah oui, parfaitement réaliste : mais comment l’IA a-t-elle pu reproduire mon corps, caché sur la photo ? On continue ? Euh... Mais juste pour essayer, alors. Le malaise grandit. Jeudi dernier j’ai voulu faire mon petit effet à la rédaction de Philosophie magazine. J’ai photographié mes collègues Ariane et Martin assis sur leurs chaises et en train de discuter. L’IA, comme je le demandais, a généré une vidéo où on les voit danser en se tenant la main et en se regardant dans les yeux, sourire aux lèvres. Bon, vous avez compris : chacun peut désormais, gratuitement, créer des petits films pas toujours innocents, et les envoyer à qui il veut.

L’application qui nous entraîne dans cet univers, c’est Grok, l’intelligence artificielle d’Elon Musk. Ici, pas de tabous. La voix qui vous répond est plus vivante et ses propos nettement plus corsés que sur les autres IA. Elle me dit par exemple qu’elle peut générer des vidéos pornographiques en quelques secondes. Quelques photos, de moi ou d’une partenaire consentante, suffisent. Elle me présente ensuite une liste hallucinante de fantasmes à illustrer. Mais qui empêchera l’utilisateur d’en (dé)générer d’autres, à partir de photos entreposées sur son smartphone ou d’une simple capture d’écran ? Rien ni personne : c’est la défense de la liberté d’expression, version Elon Musk. L’option “spicy” pour animer les photos, ainsi que la possibilité de donner ses instructions, montre quel est le véritable objectif de cette invention. On apprend que ChatGPT – business oblige – va autoriser les conversations érotiques d’ici quelques semaines. Avant d’imiter carrément Grok ?

Cela donne le vertige. Les vidéos fabriquées, qu’elles soient mensongères, grotesques ou pornographiques, vont inonder d’ici peu les téléphones, mais aussi, peu à peu, les messageries et les réseaux. Le droit à l’image, déjà violé par l’application Sora qui permet de détourner les images de personnes célèbres, ne tiendra pas très longtemps. À quoi va alors ressembler notre monde numérique ? La génération selfie découvrira l’envers du décor. Au moins pour un usage privé, nos corps seront manipulés, ridiculisés, violentés. Retrouver une image de soi qui ne soit pas soumise aux fantaisies d’autrui sera difficile. Les femmes et les jeunes en seront sans doute les premières victimes : traumas garantis.

Pourrons-nous, enfin, encore croire aux images ? Non, évidemment. Il ne nous restera que notre perception sensible pour avoir accès à la réalité. Mais celle-ci sera bien chétive, puisque tout ce qui se passe hors de notre champ de vision, à l’autre bout du monde ou dans la ville d’à côté, sera susceptible d’être modifié. Il ne restera qu’à se fier aux récits des personnes en qui nous avons confiance. Un peu comme au Moyen Âge. C’est d’ailleurs le but de telles inventions. Si la tendance actuelle se poursuit, les nouveaux grands féodaux bâtiront des fiefs fantasmatiques et idéologiques. Le problème est que les régimes autoritaires et certains chevaliers, comme Musk, ont un temps d’avance. Si le service public de l’information disparaît – c’est notamment l’objectif du RN en France, par exemple –, chacun devra choisir sa foi et son imagerie de prédilection, en abandonnant tout espoir de connaissance objective.

Ma découverte du deepfake pour tous m’incline en tout cas à penser que nous allons nous retrouver dans les années 1830, juste avant l’invention de la photographie, qui nous promettait un enregistrement des choses existantes. Le critique de cinéma André Bazin (1918-1958), cofondateur des Cahiers du cinéma et inspirateur de la Nouvelle Vague, considérait la photographie et le cinéma comme les outils d’une nouvelle conception du réel. “Pour la première fois, écrit-il dans son Ontologie de l’image photographique (in : Qu’est-ce que le cinéma ?, 1958), une image du monde extérieur se forme automatiquement sans intervention créatrice de l’homme.” Mais cette objectivité nouvelle est une victoire, car elle révèle une ontologie, une possibilité d’explorer l’être de ce que nous voyons et “qu’aucun œil humain n’est capable d’attraper” – notamment grâce aux techniques mises en œuvre par certains cinéastes. Comme l’écrit Merleau-Ponty, proche de Bazin, “le drame cinématographique a […] un grain plus serré que les drames de la vie, il se passe dans un monde plus exact que le monde réel” (“Le cinéma et la nouvelle psychologie”, 1945, in : Sens et Non-Sens). Pendant un peu moins de 200 ans, l’image nous a permis de mieux comprendre le monde. C’est fini.

Face à Grok et consorts, donc, soit nous nous défendons, en les interdisant. Soit nous revenons à 1838 – si ce n’est au Moyen Âge. »

Retirer le paywall
7 / 10

 

  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
 
  ARTS
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
Fiabilité 3/5
Slate
 
Fiabilité 1/5
Contre-Attaque
Issues
Korii
Positivr
🌞