LePartisan - 235 vues
MEDIAS REVUES BLOGS
URL du flux RSS

▸ les 25 dernières parutions

16.04.2026 à 16:28

« Toute une civilisation disparaîtra cette nuit » : pourquoi les mots de Trump préparent les esprits à l’impensable

Stephanie A. (Sam) Martin, Frank and Bethine Church Endowed Chair of Public Affairs, Boise State University
La violence des propos de Donald Trump face à l’Iran est sans précédent. Ils répondent à un objectif politique précis. Analyse.
Texte intégral (1970 mots)
Le discours du président Donald Trump au fur et à mesure du temps s’est fait de plus en plus virulent. Wildpixel/iStock via Getty Images Plus

Le 7 avril 2026, Donald Trump a menacé l’Iran : « Ouvrez ce foutu détroit, bande de tarés, ou vous vivrez en enfer », puis il a ajouté : « Toute une civilisation disparaîtra cette nuit. » Cette rhétorique a un but politique : préparer les esprits à une escalade de violence.


L’un des aspects les plus déroutants du langage de Donald Trump, c’est qu’il est à la fois choquant et anesthésiant. En effet, lorsque le président étatsunien déclare quelque chose de scandaleux, le pays se recroqueville sur lui-même, mais ensuite, ce qui a choqué se banalise et devient familier.

En qualité de chercheur spécialiste de la rhétorique présidentielle, je sais que cet enchaînement a des effets délétères. Il conditionne le public à absorber la transgression. Ce qui jadis aurait constitué un séisme politique ou à une violation des normes constitutionnelles apparaît désormais comme ordinaire. Les derniers discours de Trump et leur démagogie extrême méritent qu’on s’y attarde parce que la rhétorique de Trump à propos de l’Iran est devenue incendiaire. Sur son réseau Truth Social début avril, il a utilisé un langage truffé de grossièretés, menaçant d’attaquer les infrastructures du pays :

« Ouvrez ce foutu détroit, bande de tarés, ou vous vivrez en enfer. »

Il a appelé les Iraniens à se soulever contre leur gouvernement. Il a averti qui si l’Iran ne se conformait pas aux exigences américaines :

« Toute une civilisation disparaîtra cette nuit. »

L’agence Associated Press a commenté ces propos comme une escalade du conflit en cours, et pas comme un simple excès de langage : « Alors que le conflit est entré dans son deuxième mois, Trump a intensifié ses avertissements de bombarder les infrastructures iraniennes. » Le Comité international de la Croix-Rouge a rappelé, de manière inhabituelle, que les règles de la guerre devaient être respectées « dans les paroles comme dans les actes », suggérant que cette rhétorique était aussi une partie du problème.

Ces remarques de Trump étaient-elles réellement différentes des précédentes ? Je pense que c’est le cas. En effet, depuis des années, la rhétorique de Trump repose sur l’insulte, la moquerie, la menace et le mépris. Il a ainsi rabaissé ses adversaires et contribué à dégrader le niveau de la vie publique états-unienne.

Mais ce qui semble différent dans ses propos du début du mois d’avril 2026, c’est l’ampleur de la violence exprimée par son langage. Ses déclarations sur l’Iran ont dépassé les attaques personnelles ou le nationalisme bravache pour évoquer une punition collective et une destruction civilisationnelle. Le style était familier, l’horizon des dommages ne l’était pas.

Un message publié sur les réseaux sociaux par le président Donald Trump, dans lequel il menace de détruire la civilisation iranienne
Le message publié par le président Donald Trump sur les réseaux sociaux le 7 avril 2026, dans lequel il menaçait de détruire « toute une civilisation », en référence à l’Iran. Truth Social

La politique de la peur

La rhétorique présidentielle relève plus de la permission que de la persuasion. Les présidents ne se contentent pas d’argumenter, ils envoient des signaux. À travers ces signaux, ils indiquent au public quelle est la situation, quel danger se joue, quelles réponses sont raisonnables. En ce sens, le président a un rôle de déclencheur. Ses mots orientent les journalistes, les législateurs, ses alliés politiques et ses partisans pour qualifier les événements avant même qu’ils ne soient vraiment compris et analysés.

Les travaux du théoricien politique Corey Robin sur la politique de la peur offrent une grille de lecture utile pour comprendre ce qui se joue à travers la rhétorique violente de Trump. Selon Robin, la peur n’est pas simplement un sentiment qui surgit naturellement face au danger. Elle est politiquement construite. Le pouvoir apprend aux individus ce qu’ils doivent craindre, comment nommer le danger et vers où diriger leur inquiétude. La rhétorique présidentielle est un outil essentiel pour ce travail.

Ainsi, un président ne se contente pas de décrire une menace. Il lui donne aussi une forme et une échelle. Il indique au public son ampleur, sa proximité et les types de réponses raisonnables.

Un bon exemple s’est produit après les attentats du 11 septembre 2001, lorsque, en visitant Ground Zero à New York, George W. Bush a déclaré : « Je vous entends. Le reste du monde vous entend. Et ceux qui ont fait tomber ces bâtiments nous entendront bientôt. » Par cette phrase, Bush reconnaissait la gravité des événements, tout en promettant de riposter contre les terroristes et de rendre la justice.

Face à des déclarations comme de Trump à propos de l’Iran, le problème n’est pas simplement qu’un président ait tenu des propos extrêmes, mais dans les effets produits par ce langage extrême.

L’hyperbole politique abaisse le seuil de ce que le public peut imaginer comme légitime, comme acceptable. Lorsque des présidents profèrent des menaces comme celles de Trump, la souffrance de masse devient imaginable. Les mots du président et ses publications sur les réseaux sociaux testent notre capacité à percevoir ce langage comme une transgression, ou à l’intégrer comme une tactique de négociation parmi d’autres.

À Ground Zero après les attentats du 11-Septembre, le président George W. Bush a reconnu la gravité des faits tout en promettant de riposter.

Façonner la réalité

La rhétorique présidentielle importe pour des raisons qui dépassent la persuasion ou le style. Elle contribue à organiser la réalité. Elle indique au public ce qui est grave, qui est dangereux, quelles souffrances comptent et quelles formes de violence peuvent être conçues comme nécessaires. Le président Barack Obama l’a montré en 2012, lors d’une veillée en hommage aux victimes de la fusillade de l’école primaire Sandy Hook, déclarant :

« Nous portons une responsabilité envers chaque enfant, parce que nous comptons sur les autres pour veiller sur les nôtres. »

Il ajoutait :

« Nous sommes tous des parents ; ce sont tous nos enfants. »

Par ces mots, Obama appelait chacun à ressentir la perte de 20 enfants tués et à œuvrer pour une solution face à la violence armée.

Trump profite d’un public usé par la répétition. Chaque nouvelle transgression est accompagnée du souvenir des précédentes. Les individus finissent par douter de leurs propres réactions. Ils se disent « C’est choquant, mais c’est ce qu’il fait sans cesse ». Ce sentiment paradoxal fait partie du problème. L’affaiblissement des normes rend les escalades de violence plus difficiles à identifier et à juger.

Pour autant, le dégoût ressenti par de nombreuses personnes face aux déclarations de Trump demeure important. Malgré des années de transgression de ce qui était considéré comme normal, certaines limites restent présentes.

Aujourd’hui, il ne suffit pas de se dire que Trump a changé. Il faut comprendre ce que sa présidence produit dans l’opinion. Le danger le plus grave réside dans le monde que sa rhétorique nous prépare à accepter.

The Conversation

Stephanie A. (Sam) Martin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

16.04.2026 à 16:28

Quand la politique n’est pas une affaire d’idées mais d’identité

Lee-Ann d'Alexandry, doctorante, Aix-Marseille Université (AMU)
Fabien Girandola, Professeur de Psychologie Sociale, Aix-Marseille Université (AMU)
Lionel Souchet, Maître de Conférences en Communication et Psychologie Sociale, Aix-Marseille Université (AMU)
Les mécanismes d’identification et de conformisme au groupe façonnent la vie politique ordinaire. Un facteur qui explique la montée des extrémismes ?
Texte intégral (2279 mots)

Pourquoi est-il si difficile de s’écarter de l’opinion de son groupe politique, au point de parfois défendre l’indéfendable ? La psychologie sociale révèle que nos choix politiques sont davantage guidés par l’identité de groupe et le conformisme que par les idées, transformant le débat démocratique en affrontement identitaire.


Un repas de famille écourté, une discussion WhatsApp qui dérape, un silence gêné au travail après une élection présidentielle : la politique est parfois une affaire d’appartenance plus que d’idées. Dans ces situations, exprimer un doute ou changer d’avis peut sembler risqué, presque comme une trahison. Pourquoi est-il si difficile de s’écarter de l’opinion de « son » groupe politique ? Et pourquoi en vient-on parfois à détester des personnes que l’on ne connaît pas, simplement parce qu’elles votent différemment ?

En 2016, lors d’un meeting dans l’Iowa, Donald Trump affirmait pouvoir « tirer sur quelqu’un au milieu de la Cinquième Avenue sans perdre un seul électeur ». Provocation ? Sans doute. Mais aussi révélatrice d’un mécanisme central : lorsque l’identité de groupe domine, loyalisme et conformité peuvent pousser à tolérer des comportements jugés inacceptables.

Loin de se limiter aux provocations de Donald Trump, ces mécanismes d’identification et de conformisme au groupe façonnent la vie politique ordinaire.

Comment expliquer la très forte poussée des votes des extrêmes ? En France, la part des électeurs votant pour un parti populiste au premier tour de l’élection présidentielle est passée d’environ 10 % dans les années 1980 à près de la moitié des électeurs en 2022, selon une analyse du Pew Research Center.

Dans quelle mesure le suivisme et la conformité au groupe peuvent-ils contribuer à expliquer la banalisation, voire l’acceptation massive, de partis et d’idées politiques perçus comme inacceptables il y a quelques décennies à peine ?

L’identité sociale : pourquoi le groupe guide nos choix

La théorie de l’identité sociale, formulée à la fin des années 1970 par Tajfel et Turner, psychologues sociaux, repose sur une idée simple mais cruciale : une partie de ce que nous sommes se construit à travers les groupes auxquels nous appartenons, communauté, cercle d’amis ou parti politique. Cette appartenance fournit des repères cognitifs et émotionnels au quotidien, c’est-à-dire des cadres pour interpréter la réalité et éprouver un sentiment de sécurité et de reconnaissance.

Sans ancrage collectif clair, les individus deviennent plus vulnérables au stress, incertains, et peinent à s’orienter dans un monde social complexe, comme le montre la recherche sur le besoin fondamental d’appartenance.

Lorsque l’identification à un groupe devient centrale, nous avons tendance à favoriser ses membres et jugeons plus sévèrement les outsiders, un phénomène appelé biais pro-endogroupe. Ces comportements apparaissent parfois dès l’enfance, quand on apprend à identifier les membres de notre communauté plus fiables que les autres.

Le poids identitaire de la politique

En politique, certaines opinions qui semblent absurdes pour un observateur extérieur paraissent parfaitement normales à ceux qui partagent la même identité de groupe. Par exemple, lors de l’affaire des emplois fictifs de François Fillon en 2017, une partie de ses soutiens a continué à nier les faits ou leur gravité, là où des observateurs extérieurs voyaient une atteinte à la probité publique. Comme le notait Barack Obama en 2010, « nous sommes plus enclins à accepter les informations qui favorisent notre parti et à rejeter celles qui le menacent ».

Mais l’identité sociale en politique ne se limite pas au parti. La politiste Lilliana Mason montre que l’appartenance politique peut parfois l’emporter sur d’autres dimensions de l’identité sociale (raciale, religieuse, géographique ou culturelle) pour former une méga-identité, lorsque la politique constitue le dernier refuge d’un sentiment d’appartenance fort – alors que d’autres liens sociaux, comme la religion ou les syndicats – ont perdu leur poids mobilisateur.

Être démocrate ou républicain, c’est rejoindre un univers complet, où les identités multiples de l’individu sont alignées. Être démocrate, par exemple, signifie souvent être urbain, diplômé et favorable à l’écologie ; une convergence qui transforme les désaccords en conflits identitaires. Une étude publiée dans Nature Human Behaviour montre que les dîners de Thanksgiving réunissant des personnes aux opinions partisanes opposées duraient de trente à cinquante minutes de moins que ceux où tous partageaient la même affiliation.

En France aussi, les clivages, notamment autour du Rassemblement national, sont souvent à l’origine de conflits plus fréquents au sein des familles ou des cercles proches, car les désaccords ne touchent plus seulement des programmes mais des valeurs profondément identitaires.

La méga-identité partisane ne façonne pas seulement nos relations sociales : elle transforme la polarisation elle-même. La polarisation affective – la haine du camp adverse – peut dépasser la polarisation idéologique : on se déteste souvent sans vraiment savoir pourquoi. Aux États-Unis, l’animosité envers le parti opposé a plus que doublé entre 2000 et 2016. En France, près de 40 % des citoyens disent éprouver des sentiments négatifs envers les électorats d’autres partis, illustrant une polarisation affective mesurable au‑delà des clivages idéologiques.

Dans ce contexte, l’identité partisane structure non seulement les attitudes, mais aussi les comportements. Une fois l’identité de camp solidement établie, un autre mécanisme entre en jeu : le conformisme.

Se taire ou suivre : le prix social du désaccord

Comment en vient-on à adopter l’opinion du collectif, parfois même contre son propre jugement ? La psychologie sociale s’appuie sur deux expériences devenues classiques : celles de Solomon Asch (expérience des lignes, in H. Guetzkow, 1951, p.177) et de Muzafer Sherif (effet autocinétique, 1935).

Dans les travaux de Sherif, face à une situation ambiguë, les individus tendent à se rallier progressivement à une norme collective, même lorsque celle-ci est arbitraire. Chez Asch, le participant finit souvent par se conformer à un consensus erroné alors que la réponse est évidente, montrant que la pression du groupe peut l’emporter sur le jugement individuel.

Dans l’expérience de Solomon Asch, un groupe de personnes doit identifier laquelle des trois lignes (A, B ou C) est de même longueur que la référence (à gauche). Tous les participants sont complices de l’expérimentateur, sauf un. Résultat : 75 % des personnes testées se conforment au moins une fois à l’opinion du groupe, même lorsque celle-ci est très visiblement erronée. Par Fred the Oyster, CC BY

Ces résultats mettent en lumière deux ressorts universels du conformisme : le besoin de se forger une opinion quand l’information est incertaine, et le besoin d’être accepté quand la pression sociale est forte. Autrement dit, nous ne suivons pas toujours le groupe parce que nous croyons qu’il a raison, mais aussi parce que s’en écarter a un coût social.

En France, ce conformisme apparaît souvent lors des séquences électorales ou des débats très médiatisés, où les positions internes à un même camp se resserrent rapidement : exprimer un désaccord interne devient risqué. Se taire, suivre ou répéter la ligne du groupe est souvent la stratégie la plus sûre pour préserver son appartenance.

Likes, partages et loyauté partisane

Ce mécanisme de conformisme se manifeste aussi en ligne, où la visibilité des positions d’un leader ou d’un groupe peut inciter la majorité des partisans à relayer ou défendre une opinion, même sans y adhérer pleinement.

Dans une méta-analyse de plus de 50 expériences impliquant plus de 18 000 participants, environ la moitié des personnes ajustent leur jugement pour rester en phase avec leur camp, même face à des informations factuelles, confirmant que ce type de dynamique de groupe est puissant et répandu.

On a souvent l’impression de vivre dans un pays profondément divisé. Pourtant, cette perception est largement façonnée par un prisme médiatique qui met en avant les positions les plus extrêmes et crée une fausse norme. La recherche de Bail (2021) valide cette vision. Au-delà du concept classique de chambre d’écho – des espaces où l’on ne reçoit que des informations et opinions conformes à ses propres croyances, renforçant ses idées et limitant l’exposition à des points de vue divergents – il montre que la polarisation visible sur les réseaux sociaux est souvent trompeuse : les opinions les plus radicales, très présentes en ligne, ne représentent en réalité qu’une minorité active – environ 5 à 10 % des utilisateurs. Alors que la majorité des citoyens reste modérée, cette minorité produit une grande partie du contenu politique, donnant l’illusion que ces positions extrêmes sont majoritaires.

Quand défendre son camp l’emporte sur la vérité

En pratique, nos choix politiques sont souvent guidés par l’identité de groupe plus que par l’idéologie. Se conformer à son camp façonne les opinions, les comportements et, plus largement, la vie démocratique : lorsqu’on juge les informations selon qu’elles favorisent notre camp, le débat devient difficile, voire impossible. Le risque ? L’émergence de « tribus » séparées, qui ne partagent plus de réalité commune. Ainsi, plus une position semble largement partagée au sein d’un groupe, plus elle tend à s’imposer comme une norme à suivre.

Pour autant, ces logiques ne sont pas irréversibles. La psychologie sociale montre que les identités restent malléables : des contacts positifs et répétés entre groupes peuvent réduire les préjugés et favoriser une évaluation plus nuancée des arguments. C’est ce que soulignait dès les années 1950 Gordon Allport, psychologue américain, montrant que des interactions coopératives entre groupes peuvent atténuer les oppositions et les stéréotypes. La difficulté réside aujourd’hui dans la raréfaction de ces espaces de rencontre, car les échanges passent de plus en plus par des filtres partisans.

Au final, la question reste entière : si nos choix sont d’abord ceux de notre camp, comment construire une démocratie où les faits, et non seulement l’appartenance, guident réellement nos décisions ?

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

15.04.2026 à 16:58

« Cold case » : Comprendre le profil de la victime pour retrouver le meurtrier

Magalie Sabot, Psychocriminologue à l'Office central pour la répression des violences aux personnes, Université Paris Cité
Quarante ans après un homicide, quels indices peuvent encore émerger pour résoudre une affaire criminelle ?
Texte intégral (2321 mots)

Les enquêtes sur les cold cases, ces meurtres non résolus depuis des décennies, reposent sur des méthodes souvent méconnues. L’analyse victimologique et la connaissance du cercle proche des victimes permettent de faire émerger de nouveaux indices. Récit d’une enquête portant sur le meurtre d’une adolescente, survenu il y a quarante ans.


Lorsque les policiers arrivent sur son lieu de travail, Anne ne peut imaginer que c’est pour elle qu’ils font le déplacement. De l’annonce, elle ne retient que quelques mots, secs et hachurés : sa fille unique de 16 ans a été tuée de plusieurs coups de couteau au sein du domicile familial. Malgré le choc, les proches sont rapidement entendus : la famille, puis les amis, les camarades et les voisins.

Nous sommes dans les années 1980, l’enquête sur le meurtre de Sophie ne fait que débuter (le prénom de la victime et certains éléments ont volontairement été modifiés).

À l’époque, l’ADN n’est pas encore au cœur des investigations criminelles et aucune trace génétique ne sera collectée. Alors, quand l’Office central pour la répression des violences aux personnes (OCRVP) reprend l’affaire quarante ans plus tard, il faut mobiliser d’autres leviers pour retrouver le meurtrier.

L’unité d’analyse comportementale (UACP), formée de trois psychocriminologues, constitue l’un des outils mis à la disposition des enquêteurs pour reprendre ces affaires complexes restées irrésolues.

L’entourage : premier suspect

L’annonce d’un décès dans des circonstances criminelles constitue, pour les proches, une épreuve émotionnelle. Elle les confronte à une réalité brutale susceptible d’altérer temporairement leurs capacités de compréhension, de réaction et d’expression. Si certaines manifestations sont attendues (pleurs, cris, colère), d’autres réponses, telles que la sidération, la distanciation ou une apparente froideur, peuvent également survenir. Ces réactions ne sauraient être interprétées comme une absence d’affect : elles relèvent fréquemment d’un état de choc. Il importe, dès lors, de ne pas assimiler ces mécanismes défensifs à des indices de dissimulation.

Cependant, cette lecture clinique ne peut occulter les réalités de l’enquête criminelle qui conduit souvent à orienter les investigations vers l’entourage de la victime. Les statistiques criminologiques montrent en effet que, dans de nombreux homicides, l’auteur appartient au cercle familial ou relationnel.

D’après les données du ministère de l’intérieur, en 2023, sur les 996 personnes décédées à la suite d’un homicide en France, environ une sur quatre l’a été dans un cadre familial. Et lorsque l’on considère spécifiquement les victimes féminines, plus d’une sur deux a été tuée dans un contexte intrafamilial.

À l’échelle internationale, les recherches criminologiques menées à partir d’homicides résolus montrent que les meurtres commis par des auteurs totalement inconnus de leurs victimes restent rares. Ils représentent en moyenne entre 9 % et 20 % des cas, selon les pays et les périodes étudiées. Une recherche menée en 2021 en Algérie confirme encore ces résultats : dans plus de 80 % des homicides étudiés, un lien de connaissance existe entre la victime et son meurtrier (dans 21 % des cas il s’agit d’un membre de la famille, dans 12 % d’une relation intime, dans 28 % d’un voisin, dans 14 % d’un ami, dans 6 % d’une relation professionnelle).

S’agissant du meurtre de Sophie, un facteur de vulnérabilité spécifique doit aussi être intégré à l’analyse : l’adolescence. Des travaux menés en 2024 en Italie indiquent que, entre 13 et 18 ans, les jeunes femmes sont tuées par un partenaire intime dans neuf cas sur dix (62 % par le partenaire actuel, 26 % par un ancien partenaire).

Lorsque l’auteur est identifié, le profil correspond à celui d’un jeune homme légèrement plus âgé que la victime (environ + 3,9 ans). Dans plus de la moitié des situations, le passage à l’acte s’inscrit dans un contexte de rupture ou de conflit amoureux.

Au vu de ces éléments, les enquêteurs procèdent dès que possible à l’audition de l’entourage de la victime, afin de mieux cerner quelles étaient ses préoccupations, ses dynamiques relationnelles et ses histoires adolescentes. Si l’on en croit ces données chiffrées, le criminel serait juste là, caché dans son cercle de connaissance.

Les biais cognitifs dans les enquêtes

Les parents endeuillés sont-ils vraiment des témoins fiables ? Tandis que l’enquête vise à objectiver le profil d’une victime, les parents évoquent avant tout leur enfant, investi d’une forte charge affective. Cette proximité favorise l’émergence de biais cognitifs lors des déclarations initiales : idéalisation post-mortem, minimisation des conflits, biais de loyauté familiale ainsi que des mécanismes défensifs liés à la honte ou à la culpabilité. En relisant les premières auditions, cela transparaît souvent dans certaines formules récurrentes des proches, telles que « Elle n’aurait jamais fréquenté de mauvaises personnes », « Elle était appréciée de tous » ou encore « J’aurais dû être au domicile ce jour-là ».

S’y ajoutent des phénomènes de contamination intertémoins, les échanges intrafamiliaux contribuant à l’élaboration d’un récit homogénéisé. Il en résulte fréquemment la construction d’un portrait lissé : famille sans difficulté, adolescente sans problème, dans lequel certains aspects de la vie intime restent dans l’ombre.


À lire aussi : Trois mythes sur les biais cognitifs, ces raccourcis mentaux qui peuvent nous induire en erreur


Afin de limiter les effets des biais cognitifs dans la conduite des enquêtes, les services de police recourent à des grilles structurées d’exploration victimologique. Ces outils méthodologiques visent à examiner de manière systématique l’ensemble des dimensions de la vie de la victime : sphère affective et sexuelle, relations sociales et professionnelles, vulnérabilités, habitudes de vie ainsi que d’éventuels changements récents de comportement.

La structuration des informations recueillies permet ensuite une mise en perspective comparative des données, faisant apparaître les convergences, les divergences, les zones d’ombre ou encore les éléments susceptibles d’avoir été tus. Dans le cadre de la réouverture d’un dossier ancien, ces portraits victimologiques constituent un appui essentiel aux nouvelles auditions : ils orientent les investigations vers les éléments demeurés lacunaires, insuffisamment explorés ou précédemment passés sous silence, et favorisent ainsi une reprise d’enquête plus exhaustive et méthodologiquement sécurisée.


À lire aussi : « Cold case » : Comment élucider un crime effacé par le temps ?


Dans l’affaire criminelle du meurtre de Sophie, l’analyse conduite au sein de l’OCRVP a mis en évidence une période de remaniement identitaire marquée, où la contestation des normes parentales et les conduites transgressives s’inscrivaient dans un processus adolescent classique.

Les auditions des amies se révèlent, à cet égard, particulièrement fécondes. Elles font émerger des éléments souvent ignorés du cercle familial : des expériences affectives et sexuelles, l’usage de cannabis et d’alcool en soirée et, un projet de fugue pour rejoindre celui qu’elle pensait être son grand amour.

Toutefois, l’examen psychocriminologique suggère également l’existence d’un décalage possible entre les récits livrés au groupe de pairs et la réalité des conduites de Sophie : certaines expériences semblent avoir été enjolivées pour se donner une image plus téméraire, plus audacieuse. Dès lors, l’enjeu analytique ne réside pas seulement dans l’accumulation d’informations factuelles, mais aussi dans l’appréhension des écarts entre les différentes représentations sociales de la victime afin de cerner, au plus près, la dynamique identitaire à l’œuvre.

L’analyse victimologique

L’analyse victimologique, dans le cadre de l’enquête criminelle, est l’étude de la victime permettant de déduire les circonstances de sa sélection par l’auteur et la dynamique du crime. À l’OCRVP, cette analyse est réalisée par les psychologues de l’Unité d’analyse comportementale psychocriminologique.

Cependant, cette discipline a longtemps occupé une place secondaire au profit du profilage criminel, focalisé quasi exclusivement sur le criminel recherché. Le profilage s’est, en effet, historiquement construit à partir de l’analyse des traces comportementales laissées sur la scène de crime (mode opératoire, signature, mise en scène), à partir desquelles les enquêteurs tentaient d’inférer les caractéristiques du suspect.

Pourtant, les travaux de criminologues spécialisés dans l’analyse comportementale, comme Wayne Petherick ou Brent Turvey, soulignent le rôle central de la connaissance de la victime dans la compréhension du processus criminel. C’est en croisant l’analyse victimologique et le profilage criminel du suspect que l’on peut éclairer trois aspects essentiels de l’enquête : le contexte du crime, les liens éventuels entre auteur et victime, et les pistes d’investigation à privilégier.

Le lieu dans lequel se trouvait la victime, sa vulnérabilité et sa capacité à se défendre donnent des indices sur la façon dont le meurtrier a agi. Celui-ci choisit souvent sa victime en fonction de ce qu’elle lui permet de réaliser : satisfaire des fantasmes, répondre à ses pulsions ou simplement profiter d’une opportunité donnée. L’analyse victimologique, articulée aux éléments objectivés sur la scène de crime, permet ainsi d’inférer le mode d’approche, le mode d’attaque, les risques assumés et, dans une certaine mesure, le mobile.

L’analyse victimologique du meurtre de Sophie éclaire plusieurs traits du comportement de l’auteur. L’adolescente n’ouvrait pas la porte aux inconnus, suggérant une approche par ruse mobilisant certaines compétences sociales. Le crime survient alors qu’elle est seule à son domicile, dans le cadre d’une activité routinière, laissant penser à un repérage préalable et à une capacité d’anticipation.

Son caractère « calme », sa petite corpulence et ses faibles capacités de résistance physique indiquent de la part de l’agresseur une violence disproportionnée et une perte de contrôle émotionnel, suggérant un auteur colérique et impulsif. L’autopsie révèle également que Sophie n’a pas été violée, ce qui nous oriente vers un mobile non sexuel. Enfin, le corps n’a pas été déplacé et la scène n’a fait l’objet d’aucune mise en scène, ce qui laisse penser à un départ précipité.

Affaire à suivre

La reprise du dossier par les enquêteurs de l’OCRVP ouvrira la voie à l’exploration de nouvelles hypothèses, notamment par la réaudition des témoins de l’époque. Leur mémoire sera-t-elle altérée par les années ? Ou le temps deviendra-t-il un allié ?

Certains dossiers traités au sein de l’OCRVP enseignent que les années passées peuvent transformer les dynamiques psychologiques et relationnelles des témoins. L’éloignement émotionnel, la maturation individuelle ou la reconfiguration des liens interpersonnels sont susceptibles de lever d’anciennes inhibitions et de délier certains secrets.

Ces remaniements psychiques favorisent parfois l’émergence d’éléments demeurés tus au moment des faits : un terrain d’analyse privilégié pour les psychocriminologues.


Créé en 2023, le Centre de recherche de la police nationale pilote la recherche appliquée au sein de la police nationale. Il coordonne l’activité des opérateurs scientifiques pour développer des connaissances, des outils et des méthodes au service de l’action opérationnelle et stratégique.

The Conversation

Magalie Sabot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.04.2026 à 16:35

IA : le piège d’un langage statistique qui ressemble au nôtre

Mazarine Pingeot, Professeure de philosophie, Sciences Po Bordeaux
L’intelligence artificielle générative (ChatGPT et consorts) produit du texte cohérent sans perception, sans corps, sans vécu et sans conscience. Telle est la nouveauté radicale qu’il s’agit de penser.
Texte intégral (2055 mots)

L’intelligence artificielle générative, telle que ChatGPT et consorts, produit du texte cohérent sans perception, sans corps, sans vécu et sans conscience. Telle est la nouveauté radicale qu’il s’agit de penser.


Lorsqu’on questionne ChatGPT, Claude ou autre « Chat » sur n’importe quel sujet, il répond comme s’il était un interlocuteur omniscient. Pourtant, ce langage est produit de façon statistique, en intégrant la multiplicité des contextes – ce qui lui permet de répondre de façon adéquate et à chaque fois différente, en fonction du contexte d’énonciation –, en agrégeant d’immenses masses de données (les large langage models ou LLM). Cette spécificité introduit une nouvelle dimension : si la machine parle comme l’humain, alors même que le langage était perçu par un certain nombre de philosophes, au premier rang desquels René Descartes, comme l’indice de la pensée, et donc de la reconnaissance chez l’autre de son « humanité », comment distinguer l’humain de la machine ?

Cette question, à la base du test de Turing, pourrait paraître rhétorique, pourtant, nombreuses sont les pratiques qui attestent de cette confusion, l’intelligence artificielle (IA) générative étant parfois utilisée comme assistant, comme ami, et pouvant faire éventuellement fonction de psychologue. Ne serait-ce que dans notre manière de lui poser des questions, nous nouons avec elle un dialogue et sommes donc victimes d’une projection anthropomorphique fort naturelle dès lors que l’autre – machine ou humain – nous répond. La façon dont nous nous adressons à notre « chat » en témoigne : nous lui parlons parfois avec politesse, en utilisant souvent la deuxième personne du singulier « Tu ».

Comment repenser alors le langage s’il n’est plus l’indice d’une pensée consciente ? Et comment distinguer le langage humain du langage de la machine ? Dans sa structure, sa syntaxe, sa cohérence, il est identique.

Pourtant, le fait que les textes produits par l’IA générative soient bientôt majoritairement issus non plus de textes écrits par des humains, mais d’autres textes générés par l’IA pose un premier problème de référentialité.

Une production statistique déconnectée de la vérité

On le sait depuis les travaux du linguiste Roman Jakobson, le langage a plusieurs fonctions (informer, entrer en contact, créer du lien, de la beauté, etc.). La fonction référentielle est celle qui lie le langage au réel et qui en fait le lieu de la vérité au sens d’une adéquation entre un énoncé et la réalité dont il parle. C’est là, la fameuse définition de Thomas d’Aquin (env. 1225-1274) « Veritas est adaequatio rei et intellectus » (« La vérité est l’adéquation de la chose et de l’intellect »). Ainsi, « seuls des énoncés peuvent être vrais ou faux. Les choses, quant à elles, même si, par un abus de langage, il arrive qu’on les qualifie de “vraies” ou de “fausses”, sont réelles ou irréelles, authentiques ou artificielles. Mais elles ne sauraient être “vraies"» », peut-on lire dans l’article de l’Encyclopédie Universalis sur la vérité au sens général.

Ainsi, l’énoncé « il fait beau » a du sens s’il fait beau, et il est censé donner une information sur le temps qu’il fait, à des fins multiples (organiser sa journée, choisir de prendre ou non son vélo, etc.). À quoi sert de dire « il fait beau » si ce n’est pour communiquer cette information, ou pour créer un lien avec un autre du seul fait que je m’adresse à lui (on parle alors de fonction phatique du langage.

Certes, l’écriture va médiatiser l’idée même de communication mais elle demeure le vecteur d’un savoir, d’une information, d’une relation entre celui qui lit, celui qui écrit, et ce sur quoi porte l’écrit.

Voici que le langage pourtant s’émancipe de ses fonctions référentielle et phatique.

La production du langage s’autonomise de la réalité

L’énoncé produit par l’intelligence artificielle générative ne fait plus signe vers une extériorité, et ce de façon structurelle, puisqu’elle fonctionne de façon statistique, en prenant en compte le contexte, à partir de bases de données numériques. La médiation risque d’être exponentielle, si les textes produits par l’IA finissent par remplacer ceux produits par l’humain. L’IA générative produit à partir d’elle-même et de façon algorithmique un énoncé qui n’a, par définition, aucune intention communicative. Il est le fruit d’un calcul.

Quel enseignement en tirer ? Que la structure même de la production du langage s’autonomise de la réalité : on ne peut pas en vouloir à la machine de ne pas lever les yeux au ciel pour confirmer qu’il fait beau.

Ainsi c’est la condition même de la vérité qui est évacuée. Dans « Vérité et politique », la philosophe Hannah Arendt distingue la « vérité de fait » et la « vérité de raison », renvoyant cette dernière à la vérité scientifique, et la première à « ce qui a eu lieu », autrement dit un réel minimal, condition du commun. Or, c’est cette vérité que les idéologies totalitaires ont remise en question, substituant à la réalité un système plus au moins cohérent d’idées ou de croyances. Mais les démocraties de masse ne sont pas en reste : pour Arendt, la publicité propose elle aussi un substitut au réel.

Aujourd’hui, l’idéologie n’est plus nécessaire pour substituer au rapport au monde un discours délié du monde. C’est la condition même d’énonciation qui rend caduque la catégorie de « vérité de fait » puisque l’intelligence artificielle générative, dans son fonctionnement même, ne se réfère pas au réel pour produire du langage, même si un lien au second degré demeure, puisque la production statistique de LLM part d’énoncés produits hors LLM. La déliaison est consommée entre produire du langage (qui est pourtant supposé être le lieu de la vérité), et le réel sur lequel porte le langage.

Ainsi la post-vérité dans laquelle nous vivons désormais est structurellement consolidée : il ne s’agit pas seulement d’une indifférence à la vérité, il s’agit d’une production de contenu délié, ou indépendant de la possibilité même du vrai ou du faux, même si un grand nombre de textes qui nourrissent les LLM proviennent encore des humains. L’idéologie n’est pas dans ce qui est dit, produit, écrit : elle est dans l’émancipation d’une production du langage par rapport au réel et à l’idée même de référentialité. L’intelligence artificielle générative n’a pas inventé la post-vérité, mais par son fonctionnement, elle en consolide la structure.

Un langage formaté en amont par des entreprises privées ?

À cela s’ajoute le fait que cette production est le monopole d’entreprises privées. Nous vivons dans un monde capitaliste, nul ne l’ignore, dont le principe est que les moyens de production sont concentrés entre les mains de quelques-uns. C’est ce que Marx appelait l’infrastructure, la superstructure désignant toutes les autres sphères – la politique, la culture. Or, aujourd’hui, l’infrastructure produit du langage. Et le langage est sous-jacent à toutes les superstructures : comme le dit le linguiste Klemperer, il est le moyen de propagande le plus public et le plus secret à la fois. Public, puisque nous ne pouvons nous passer du langage pour vivre en société ; secret, parce que nous ne nous rendons pas compte à quel point le langage est traversé par des normes qui nous façonnent plus que nous les façonnons et que nous véhiculons à notre tour en parlant.

« À chaque époque correspondent des techniques de reproduction bien déterminées » écrivait Walter Benjamin. La technique influe sur l’usage de la langue : au XIXᵉ siècle, la presse de masse transformait la manière d’écrire, entraînant un nouveau genre littéraire – le roman – que Benjamin dans le Raconteur oppose au récit, mais aussi la prolifération d’une presse à sensation, s’intéressant aux faits divers et proposant une « narration » attractive.

Le langage serait donc de plus en plus inféodé à ses moyens de production techniques. Certes, on peut considérer qu’il l’était déjà dans son usage public, mais c’est désormais le cas également des usages intimes, professionnels, amicaux, autrement dit de quasiment tous les usages, y compris lorsqu’on n’a nul besoin de la technologie pour communiquer : il nous arrive de correspondre par mail lorsqu’on partage le même bureau, d’assister à des réunions en visioconférence alors que quelques mètres nous séparent, de communiquer par Instagram assis côté à côte… Ce qui a des conséquences décisives notamment sur la politique, et plus spécifiquement sur la démocratie, dont le matériau premier est précisément le langage et les différents droits qui lui sont associés.

« Être politique, écrit Hannah Arendt, vivre dans une polis, cela signifiait que toutes choses se décidaient par la parole et la persuasion et non pas par la force ni la violence. » Elle ajoutait que c’est en apparaissant aux yeux de tous que la parole devenait politique. Il fallait donc un espace pour que celle-ci soit entendue, un espace « public » pour « une parole politique ».

Mais qu’est-ce qu’un espace public et qu’une parole politique, lorsque le langage s’émancipe dans sa production, à la fois du réel, et du sujet d’énonciation ? En étant productrice autonome de langage sans référentialité, l’IA générative accomplit techniquement le fantasme d’une énonciation sans sujet.

Que le langage ne soit plus ce qui distingue la machine de l’humain a ainsi des conséquences à la fois politiques et métaphysiques. Le rapport au réel est en train de se transformer au profit de médiations invisibles qui privatisent le langage : celui-ci ne permet plus de reconnaître dans le destinateur ou le destinataire un « autrui ». Pourtant, le langage n’a de sens qu’à être adressé à un autre être humain. Pour la machine, il est asémantique. Sauver le sens du langage, c’est sauver l’idée même de sujet. C’est à cette condition qu’il gardera ses vertus émancipatrices.


Mazarine M. Pingeot est l’autrice d’Inappropriable. Ce que l’IA fait à l’humain, (Flammarion, février 2026).

The Conversation

Mazarine Pingeot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

13.04.2026 à 16:44

Intelligence artificielle : quels sont les apports concrets de la régulation européenne ?

Chloé Dornbierer, Docteure en droit et Professeure à Kedge Business School, Kedge Business School
En matière d’IA, quels sont les apports de la régulation européenne et ses limites ? Protège-t-elle les citoyens ? Risque-t-elle de freiner l’innovation et de détourner les acteurs économiques du marché européen ?
Texte intégral (2350 mots)

L’intelligence artificielle s’impose désormais au cœur de décisions qui engagent directement la vie, la santé et les droits des citoyens européens. Dans des entreprises, des administrations, des hôpitaux ou sur des plateformes numériques, des algorithmes trient, évaluent, recommandent et parfois décident. Face à cette automatisation croissante, une question centrale se pose : la réponse de l’Union européenne pour encadrer l’intelligence artificielle est-elle à la hauteur des risques qu’elle prétend prévenir ?


Imaginons qu’une entreprise décide d’utiliser une intelligence artificielle (IA) pour automatiser son processus de recrutement. L’algorithme, conçu pour analyser des milliers de CV, est entraîné sur les données RH de l’entreprise des dix dernières années. Or, les profils recrutés durant cette période sont majoritairement masculins. L’algorithme déduit alors de ces données que les candidats masculins sont préférables et exclut de fait les profils féminins.

Ce scénario n’est pas fictif : il s’inspire directement du cas d’Amazon, dont l’outil de recrutement par IA a dû être abandonné après la révélation de ces biais eu égard aux risques juridiques qu’ils engendraient. Cet exemple illustre précisément les risques que le législateur entend prévenir : erreurs algorithmiques, atteintes aux droits fondamentaux, captation et fuite de données, dépendance technologique.

En réponse, l’Union européenne a bâti depuis plusieurs années un arsenal juridique ambitieux, allant du Règlement général sur la protection des données (RGPD) au Règlement sur l’intelligence artificielle (RIA). Ces textes doivent relever un défi de taille : concilier innovation et protection, réguler les acteurs internationaux sans les éloigner du marché européen, et garantir les droits fondamentaux sans censure – le tout face à des technologies transversales, opaques et en constante évolution. Cet ensemble de règles constitue-t-il une réponse satisfaisante ?

Pas de régulation de l’IA, sans régulation des données

La régulation de l’intelligence artificielle ne saurait être envisagée indépendamment d’une politique structurée de la donnée. La donnée constitue en effet le carburant indispensable au développement et au perfectionnement des systèmes d’intelligence artificielle. En cela, la quantité de données compte tout autant que leur qualité.

C’est pourquoi, le législateur européen a d’abord cherché à réguler la donnée avant de réguler l’IA : d’une part avec le RGPD dont la finalité est de protéger les données à caractère personnel (les informations concernant une personne physique identifiée ou identifiable, comme un numéro de téléphone ou une adresse postale).

D’autre part avec une série de textes portant sur la régulation des données non personnelles (les informations ne se rapportant à aucune personne identifiable, comme une statistique ou un nombre d’accidents sur une autoroute visée). Ceux-ci comprennent le DSA, le DMA, le DGA, le Data Act et visent notamment à limiter la domination des géants du numérique et organiser le partage et l’accès de certaines données entre plateformes, entreprises, administrations publiques et utilisateurs, condition indispensable au développement de l’IA.

Ces textes relatifs aux données ont été le préalable à l’élaboration de la première réglementation générale au monde sur l’intelligence artificielle : le RIA.

Quelles sont les obligations imposées aux entreprises par le RIA ?

Contrairement aux États-Unis, qui privilégient une approche dérégulée, et à la Chine, qui encadre principalement certains usages ciblés, l’Union européenne a fait le choix d’un cadre juridique général et contraignant, s’appliquant à l’ensemble des secteurs et des systèmes d’intelligence artificielle, afin de poser les bases d’un véritable droit commun de l’IA au sein du marché européen depuis son entrée en vigueur le 1er août 2024.

Son objectif est d’encadrer

« le développement, la mise sur le marché et l’utilisation de systèmes d’intelligence artificielle, qui peuvent poser des risques pour la santé, la sécurité ou les droits fondamentaux ».

Pour atteindre cet objectif, le RIA commence par définir précisément le champ des technologies qu’il entend encadrer. Il distingue : les systèmes d’intelligence artificielle, qui correspondent aux applications concrètes utilisées par les utilisateurs (ex : un outil de tri de candidatures, ChatGPT) et les modèles d’intelligence artificielle à usage général, qui constituent le socle technologique sur lequel reposent ces applications, comme GPT-4 pour ChatGPT.

Pour assurer un équilibre entre protection des personnes et innovation, le RIA classe les systèmes d’intelligence artificielle en quatre niveaux de risque :

  • le risque inacceptable (ex : système de notation sociale des citoyens, présentant un risque d’une atteinte grave aux droits fondamentaux) impliquant l’interdiction du système d’IA.

  • le risque élevé (ex : une IA utilisée pour évaluer des salariés, présentant un risque d’atteinte au droit du travail et à la vie privée) imposant des obligations comme celle de réaliser des audits ou celle d’entraîner le système sur des données qualitatives et exemptes de biais.

  • le risque limité (ex : assistant conversationnel d’un service client, présentant le risque d’une collecte de données sans consentement éclairé) obligeant notamment les opérateurs à informer les utilisateurs de l’usage de l’IA.

  • le risque minimal (ex : IA intégrée dans un jeu vidéo) dont ne découle aucune obligation spécifique.

Pour chaque niveau de risque, des obligations spécifiques et proportionnées sont donc édictées en fonction de leurs effets potentiels sur les droits fondamentaux, la sécurité et la santé des personnes. Ces obligations s’imposent à différents opérateurs selon le moment où ils interviennent dans la chaîne de valeur de l’IA : fournisseur, mandataire, importateur, distributeur…

Par exemple, un système d’IA utilisé pour l’analyse d’images médicales, qualifié de système à risque élevé, est soumis à des obligations spécifiques qui varient selon l’opérateur concerné : le fournisseur doit concevoir le système en conformité avec les exigences de sécurité et de gestion des risques comme s’assurer qu’il ne peut pas y avoir de faux positif ou de faux négatif dans le diagnostic mais également que le système ne présente pas de biais du fait d’une sous-représentation de certains groupes ethniques ou de genre, l’importateur et le distributeur doivent vérifier que cette conformité a été respectée, et l’hôpital qui déploie le système doit s’assurer qu’il est utilisé correctement et sous supervision humaine.

Concernant les modèles d’IA à usage général (ex : GPT-4, algorithme sur lequel repose ChatGPT), le législateur européen a édicté différentes règles selon qu’ils présentent ou non un risque systémique.

L’article 3 § 65 du RIA définissant le risque systémique comme :

« un risque spécifique aux capacités à fort impact des modèles d’IA à usage général, ayant une incidence significative sur le marché de l’Union en raison de leur portée ou d’effets négatifs réels ou raisonnablement prévisibles sur la santé publique, la sûreté, la sécurité publique, les droits fondamentaux ou la société dans son ensemble, pouvant être propagé à grande échelle tout au long de la chaîne de valeur ».

Ce risque est évalué selon la puissance de calcul du modèle. Les modèles d’IA à usage général qui présentent un risque systémique doivent notamment signaler les incidents graves (des biais, des faux positifs, une cyberattaque), prendre d’importantes mesures de cybersécurité ou encore tester le modèle et atténuer les risques systémiques identifiés (grâce à des audits, des mesures de protection contre les piratages ou encore des mesures de détection de biais). Plusieurs autorités ont été désignées pour contrôler la bonne application du règlement, c’est le cas notamment du comité européen de l’intelligence artificielle au niveau européen, et de la CNIL au niveau national.

Les limites du RIA

Le RIA a suscité des critiques des experts du droit et du monde professionnel à propos de sa mise en œuvre. Ainsi, 46 dirigeants d’entreprise ont dénoncé, dans une lettre ouverte destinée à la présidente de la Commission européenne, « des règlementations européennes peu claires, qui se chevauchent et deviennent de plus en plus complexes ». La technicité du RIA conjuguée à la complexité des algorithmes compliquent l’application du texte, en particulier pour les obligations de transparence – incompatibles avec l’opacité des algorithmes – et pour l’identification des responsabilités, les entreprises peinant à déterminer quelles obligations leur incombent selon leur position dans la chaîne de valeur et le niveau de risque du système.

En découle alors une autre problématique, le risque de freiner les acteurs français et européens, comme Orasio, H Company ou DeepL, qui tentent de concurrencer les géants américains de l’intelligence artificielle qui ont davantage de moyens (juridiques, technologiques, financiers) pour mettre en œuvre les obligations du RIA.

À cet égard, il convient de relever que le législateur européen a finalement renoncé, le 11 février 2025, à adopter une législation spécifique relative à la responsabilité civile des acteurs de l’intelligence artificielle, dont la finalité était d’harmoniser les règles de responsabilité civile pour les dommages causés par l’IA, afin de protéger les victimes et d’unifier le cadre juridique au sein de l’UE. Cet abandon est intervenu suite à une opposition de certains États membres, notamment la France, mais aussi des critiques formulées par le lobbying de grandes entreprises technologiques qui dénonçaient un risque de surrégulation et une insécurité juridique susceptible de freiner l’innovation. En l’absence d’un tel cadre spécifique, ce sont donc les règles de droit positif de responsabilité civile qui demeurent applicables aux dommages causés par les systèmes d’intelligence artificielle.

Les enjeux de la régulation

En combinant protection des données, encadrement des usages et obligations pesant sur les acteurs les plus puissants, l’Union européenne a posé les bases d’un véritable droit commun de l’IA unique au monde.

Cependant, cette réponse n’est satisfaisante qu’à une condition : que son application ne transforme pas la régulation en barrière à l’entrée pour les acteurs européens tels que Mistral AI, NEURA Robotics ou Dust. En effet, le risque est de renforcer la domination des géants américains et chinois plutôt que de la combattre. D’autant que cette domination ne se limite pas au plan économique : elle s’exerce également sur le plan politique. Un rapport de Corporate Europe Observatory et LobbyControl, deux ONG spécialisées dans la surveillance du lobbying, montre ainsi que les Big Tech auraient une influence significative sur la rédaction des Codes de bonnes pratiques prévus par le RIA notamment en parvenant à affaiblir certaines obligations.

La véritable réussite de la régulation européenne ne se mesurera donc pas seulement à la protection des citoyens, mais à sa capacité à faire émerger une intelligence artificielle européenne, à la fois éthique, compétitive et souveraine.

The Conversation

Chloé Dornbierer ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

13 / 25

 

  GÉNÉRALISTES
Ballast
Fakir
Interstices
Issues
Korii
Lava
La revue des médias
Time [Fr]
Mouais
Multitudes
Positivr
Regards
Slate
Smolny
Socialter
UPMagazine
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
À Contretemps
Alter-éditions
Contre-Attaque
Contretemps
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
 
  ARTS
L'Autre Quotidien
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
Gauche.Media
CETRI
ESSF
Inprecor
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
🌞