LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

▸ Les 25 dernières parutions

15.04.2026 à 16:58

« Cold case » : Comprendre le profil de la victime pour retrouver le meurtrier

Magalie Sabot, Psychocriminologue à l'Office central pour la répression des violences aux personnes, Université Paris Cité

Quarante ans après un homicide, quels indices peuvent encore émerger pour résoudre une affaire criminelle ?
Texte intégral (2319 mots)

Les enquêtes sur les cold cases, ces meurtres non résolus depuis des décennies, reposent sur des méthodes souvent méconnues. L’analyse victimologique et la connaissance du cercle proche des victimes permettent de faire émerger de nouveaux indices. Récit d’une enquête portant sur le meurtre d’une adolescente, survenu il y a quarante ans.


Lorsque les policiers arrivent sur son lieu de travail, Anne ne peut imaginer que c’est pour elle qu’ils font le déplacement. De l’annonce, elle ne retient que quelques mots, secs et hachurés : sa fille unique de 16 ans a été tuée de plusieurs coups de couteau au sein du domicile familial. Malgré le choc, les proches sont rapidement entendus : la famille, puis les amis, les camarades et les voisins.

Nous sommes dans les années 1980, l’enquête sur le meurtre de Sophie ne fait que débuter (le prénom de la victime et certains éléments ont volontairement été modifiés).

À l’époque, l’ADN n’est pas encore au cœur des investigations criminelles et aucune trace génétique ne sera collectée. Alors, quand l’Office central pour la répression des violences aux personnes (OCRVP) reprend l’affaire quarante ans plus tard, il faut mobiliser d’autres leviers pour retrouver le meurtrier.

L’unité d’analyse comportementale (UACP), formée de trois psychocriminologues, constitue l’un des outils mis à la disposition des enquêteurs pour reprendre ces affaires complexes restées irrésolues.

L’entourage : premier suspect

L’annonce d’un décès dans des circonstances criminelles constitue, pour les proches, une épreuve émotionnelle. Elle les confronte à une réalité brutale susceptible d’altérer temporairement leurs capacités de compréhension, de réaction et d’expression. Si certaines manifestations sont attendues (pleurs, cris, colère), d’autres réponses, telles que la sidération, la distanciation ou une apparente froideur, peuvent également survenir. Ces réactions ne sauraient être interprétées comme une absence d’affect : elles relèvent fréquemment d’un état de choc. Il importe, dès lors, de ne pas assimiler ces mécanismes défensifs à des indices de dissimulation.

Cependant, cette lecture clinique ne peut occulter les réalités de l’enquête criminelle qui conduit souvent à orienter les investigations vers l’entourage de la victime. Les statistiques criminologiques montrent en effet que, dans de nombreux homicides, l’auteur appartient au cercle familial ou relationnel.

D’après les données du ministère de l’intérieur, en 2023, sur les 996 personnes décédées à la suite d’un homicide en France, environ une sur quatre l’a été dans un cadre familial. Et lorsque l’on considère spécifiquement les victimes féminines, plus d’une sur deux a été tuée dans un contexte intrafamilial.

À l’échelle internationale, les recherches criminologiques menées à partir d’homicides résolus montrent que les meurtres commis par des auteurs totalement inconnus de leurs victimes restent rares. Ils représentent en moyenne entre 9 % et 20 % des cas, selon les pays et les périodes étudiées. Une recherche menée en 2021 en Algérie confirme encore ces résultats : dans plus de 80 % des homicides étudiés, un lien de connaissance existe entre la victime et son meurtrier (dans 21 % des cas il s’agit d’un membre de la famille, dans 12 % d’une relation intime, dans 28 % d’un voisin, dans 14 % d’un ami, dans 6 % d’une relation professionnelle).

S’agissant du meurtre de Sophie, un facteur de vulnérabilité spécifique doit aussi être intégré à l’analyse : l’adolescence. Des travaux menés en 2024 en Italie indiquent que, entre 13 et 18 ans, les jeunes femmes sont tuées par un partenaire intime dans neuf cas sur dix (62 % par le partenaire actuel, 26 % par un ancien partenaire).

Lorsque l’auteur est identifié, le profil correspond à celui d’un jeune homme légèrement plus âgé que la victime (environ + 3,9 ans). Dans plus de la moitié des situations, le passage à l’acte s’inscrit dans un contexte de rupture ou de conflit amoureux.

Au vu de ces éléments, les enquêteurs procèdent dès que possible à l’audition de l’entourage de la victime, afin de mieux cerner quelles étaient ses préoccupations, ses dynamiques relationnelles et ses histoires adolescentes. Si l’on en croit ces données chiffrées, le criminel serait juste là, caché dans son cercle de connaissance.

Les biais cognitifs dans les enquêtes

Les parents endeuillés sont-ils vraiment des témoins fiables ? Tandis que l’enquête vise à objectiver le profil d’une victime, les parents évoquent avant tout leur enfant, investi d’une forte charge affective. Cette proximité favorise l’émergence de biais cognitifs lors des déclarations initiales : idéalisation post-mortem, minimisation des conflits, biais de loyauté familiale ainsi que des mécanismes défensifs liés à la honte ou à la culpabilité. En relisant les premières auditions, cela transparaît souvent dans certaines formules récurrentes des proches, telles que « Elle n’aurait jamais fréquenté de mauvaises personnes », « Elle était appréciée de tous » ou encore « J’aurais dû être au domicile ce jour-là ».

S’y ajoutent des phénomènes de contamination intertémoins, les échanges intrafamiliaux contribuant à l’élaboration d’un récit homogénéisé. Il en résulte fréquemment la construction d’un portrait lissé : famille sans difficulté, adolescente sans problème, dans lequel certains aspects de la vie intime restent dans l’ombre.


À lire aussi : Trois mythes sur les biais cognitifs, ces raccourcis mentaux qui peuvent nous induire en erreur


Afin de limiter les effets des biais cognitifs dans la conduite des enquêtes, les services de police recourent à des grilles structurées d’exploration victimologique. Ces outils méthodologiques visent à examiner de manière systématique l’ensemble des dimensions de la vie de la victime : sphère affective et sexuelle, relations sociales et professionnelles, vulnérabilités, habitudes de vie ainsi que d’éventuels changements récents de comportement.

La structuration des informations recueillies permet ensuite une mise en perspective comparative des données, faisant apparaître les convergences, les divergences, les zones d’ombre ou encore les éléments susceptibles d’avoir été tus. Dans le cadre de la réouverture d’un dossier ancien, ces portraits victimologiques constituent un appui essentiel aux nouvelles auditions : ils orientent les investigations vers les éléments demeurés lacunaires, insuffisamment explorés ou précédemment passés sous silence, et favorisent ainsi une reprise d’enquête plus exhaustive et méthodologiquement sécurisée.


À lire aussi : « Cold case » : Comment élucider un crime effacé par le temps ?


Dans l’affaire criminelle du meurtre de Sophie, l’analyse conduite au sein de l’OCRVP a mis en évidence une période de remaniement identitaire marquée, où la contestation des normes parentales et les conduites transgressives s’inscrivaient dans un processus adolescent classique.

Les auditions des amies se révèlent, à cet égard, particulièrement fécondes. Elles font émerger des éléments souvent ignorés du cercle familial : des expériences affectives et sexuelles, l’usage de cannabis et d’alcool en soirée et, un projet de fugue pour rejoindre celui qu’elle pensait être son grand amour.

Toutefois, l’examen psychocriminologique suggère également l’existence d’un décalage possible entre les récits livrés au groupe de pairs et la réalité des conduites de Sophie : certaines expériences semblent avoir été enjolivées pour se donner une image plus téméraire, plus audacieuse. Dès lors, l’enjeu analytique ne réside pas seulement dans l’accumulation d’informations factuelles, mais aussi dans l’appréhension des écarts entre les différentes représentations sociales de la victime afin de cerner, au plus près, la dynamique identitaire à l’œuvre.

L’analyse victimologique

L’analyse victimologique, dans le cadre de l’enquête criminelle, est l’étude de la victime permettant de déduire les circonstances de sa sélection par l’auteur et la dynamique du crime. À l’OCRVP, cette analyse est réalisée par les psychologues de l’Unité d’analyse comportementale psychocriminologique.

Cependant, cette discipline a longtemps occupé une place secondaire au profit du profilage criminel, focalisé quasi exclusivement sur le criminel recherché. Le profilage s’est, en effet, historiquement construit à partir de l’analyse des traces comportementales laissées sur la scène de crime (mode opératoire, signature, mise en scène), à partir desquelles les enquêteurs tentaient d’inférer les caractéristiques du suspect.

Pourtant, les travaux de criminologues spécialisés dans l’analyse comportementale, comme Wayne Petherick ou Brent Turvey, soulignent le rôle central de la connaissance de la victime dans la compréhension du processus criminel. C’est en croisant l’analyse victimologique et le profilage criminel du suspect que l’on peut éclairer trois aspects essentiels de l’enquête : le contexte du crime, les liens éventuels entre auteur et victime, et les pistes d’investigation à privilégier.

Le lieu dans lequel se trouvait la victime, sa vulnérabilité et sa capacité à se défendre donnent des indices sur la façon dont le meurtrier a agi. Celui-ci choisit souvent sa victime en fonction de ce qu’elle lui permet de réaliser : satisfaire des fantasmes, répondre à ses pulsions ou simplement profiter d’une opportunité donnée. L’analyse victimologique, articulée aux éléments objectivés sur la scène de crime, permet ainsi d’inférer le mode d’approche, le mode d’attaque, les risques assumés et, dans une certaine mesure, le mobile.

L’analyse victimologique du meurtre de Sophie éclaire plusieurs traits du comportement de l’auteur. L’adolescente n’ouvrait pas la porte aux inconnus, suggérant une approche par ruse mobilisant certaines compétences sociales. Le crime survient alors qu’elle est seule à son domicile, dans le cadre d’une activité routinière, laissant penser à un repérage préalable et à une capacité d’anticipation.

Son caractère « calme », sa petite corpulence et ses faibles capacités de résistance physique indiquent de la part de l’agresseur une violence disproportionnée et une perte de contrôle émotionnel, suggérant un auteur colérique et impulsif. L’autopsie révèle également que Sophie n’a pas été violée, ce qui nous oriente vers un mobile non sexuel. Enfin, le corps n’a pas été déplacé et la scène n’a fait l’objet d’aucune mise en scène, ce qui laisse penser à un départ précipité.

Affaire à suivre

La reprise du dossier par les enquêteurs de l’OCRVP ouvrira la voie à l’exploration de nouvelles hypothèses, notamment par la réaudition des témoins de l’époque. Leur mémoire sera-t-elle altérée par les années ? Ou le temps deviendra-t-il un allié ?

Certains dossiers traités au sein de l’OCRVP enseignent que les années passées peuvent transformer les dynamiques psychologiques et relationnelles des témoins. L’éloignement émotionnel, la maturation individuelle ou la reconfiguration des liens interpersonnels sont susceptibles de lever d’anciennes inhibitions et de délier certains secrets.

Ces remaniements psychiques favorisent parfois l’émergence d’éléments demeurés tus au moment des faits : un terrain d’analyse privilégié pour les psychocriminologues.


Créé en 2023, le Centre de recherche de la police nationale pilote la recherche appliquée au sein de la police nationale. Il coordonne l’activité des opérateurs scientifiques pour développer des connaissances, des outils et des méthodes au service de l’action opérationnelle et stratégique.

The Conversation

Magalie Sabot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

14.04.2026 à 16:35

IA : le piège d’un langage statistique qui ressemble au nôtre

Mazarine Pingeot, Professeure de philosophie, Sciences Po Bordeaux

L’intelligence artificielle générative (ChatGPT et consorts) produit du texte cohérent sans perception, sans corps, sans vécu et sans conscience. Telle est la nouveauté radicale qu’il s’agit de penser.
Texte intégral (2053 mots)

L’intelligence artificielle générative, telle que ChatGPT et consorts, produit du texte cohérent sans perception, sans corps, sans vécu et sans conscience. Telle est la nouveauté radicale qu’il s’agit de penser.


Lorsqu’on questionne ChatGPT, Claude ou autre « Chat » sur n’importe quel sujet, il répond comme s’il était un interlocuteur omniscient. Pourtant, ce langage est produit de façon statistique, en intégrant la multiplicité des contextes – ce qui lui permet de répondre de façon adéquate et à chaque fois différente, en fonction du contexte d’énonciation –, en agrégeant d’immenses masses de données (les large langage models ou LLM). Cette spécificité introduit une nouvelle dimension : si la machine parle comme l’humain, alors même que le langage était perçu par un certain nombre de philosophes, au premier rang desquels René Descartes, comme l’indice de la pensée, et donc de la reconnaissance chez l’autre de son « humanité », comment distinguer l’humain de la machine ?

Cette question, à la base du test de Turing, pourrait paraître rhétorique, pourtant, nombreuses sont les pratiques qui attestent de cette confusion, l’intelligence artificielle (IA) générative étant parfois utilisée comme assistant, comme ami, et pouvant faire éventuellement fonction de psychologue. Ne serait-ce que dans notre manière de lui poser des questions, nous nouons avec elle un dialogue et sommes donc victimes d’une projection anthropomorphique fort naturelle dès lors que l’autre – machine ou humain – nous répond. La façon dont nous nous adressons à notre « chat » en témoigne : nous lui parlons parfois avec politesse, en utilisant souvent la deuxième personne du singulier « Tu ».

Comment repenser alors le langage s’il n’est plus l’indice d’une pensée consciente ? Et comment distinguer le langage humain du langage de la machine ? Dans sa structure, sa syntaxe, sa cohérence, il est identique.

Pourtant, le fait que les textes produits par l’IA générative soient bientôt majoritairement issus non plus de textes écrits par des humains, mais d’autres textes générés par l’IA pose un premier problème de référentialité.

Une production statistique déconnectée de la vérité

On le sait depuis les travaux du linguiste Roman Jakobson, le langage a plusieurs fonctions (informer, entrer en contact, créer du lien, de la beauté, etc.). La fonction référentielle est celle qui lie le langage au réel et qui en fait le lieu de la vérité au sens d’une adéquation entre un énoncé et la réalité dont il parle. C’est là, la fameuse définition de Thomas d’Aquin (env. 1225-1274) « Veritas est adaequatio rei et intellectus » (« La vérité est l’adéquation de la chose et de l’intellect »). Ainsi, « seuls des énoncés peuvent être vrais ou faux. Les choses, quant à elles, même si, par un abus de langage, il arrive qu’on les qualifie de “vraies” ou de “fausses”, sont réelles ou irréelles, authentiques ou artificielles. Mais elles ne sauraient être “vraies"» », peut-on lire dans l’article de l’Encyclopédie Universalis sur la vérité au sens général.

Ainsi, l’énoncé « il fait beau » a du sens s’il fait beau, et il est censé donner une information sur le temps qu’il fait, à des fins multiples (organiser sa journée, choisir de prendre ou non son vélo, etc.). À quoi sert de dire « il fait beau » si ce n’est pour communiquer cette information, ou pour créer un lien avec un autre du seul fait que je m’adresse à lui (on parle alors de fonction phatique du langage.

Certes, l’écriture va médiatiser l’idée même de communication mais elle demeure le vecteur d’un savoir, d’une information, d’une relation entre celui qui lit, celui qui écrit, et ce sur quoi porte l’écrit.

Voici que le langage pourtant s’émancipe de ses fonctions référentielle et phatique.

La production du langage s’autonomise de la réalité

L’énoncé produit par l’intelligence artificielle générative ne fait plus signe vers une extériorité, et ce de façon structurelle, puisqu’elle fonctionne de façon statistique, en prenant en compte le contexte, à partir de bases de données numériques. La médiation risque d’être exponentielle, si les textes produits par l’IA finissent par remplacer ceux produits par l’humain. L’IA générative produit à partir d’elle-même et de façon algorithmique un énoncé qui n’a, par définition, aucune intention communicative. Il est le fruit d’un calcul.

Quel enseignement en tirer ? Que la structure même de la production du langage s’autonomise de la réalité : on ne peut pas en vouloir à la machine de ne pas lever les yeux au ciel pour confirmer qu’il fait beau.

Ainsi c’est la condition même de la vérité qui est évacuée. Dans « Vérité et politique », la philosophe Hannah Arendt distingue la « vérité de fait » et la « vérité de raison », renvoyant cette dernière à la vérité scientifique, et la première à « ce qui a eu lieu », autrement dit un réel minimal, condition du commun. Or, c’est cette vérité que les idéologies totalitaires ont remise en question, substituant à la réalité un système plus au moins cohérent d’idées ou de croyances. Mais les démocraties de masse ne sont pas en reste : pour Arendt, la publicité propose elle aussi un substitut au réel.

Aujourd’hui, l’idéologie n’est plus nécessaire pour substituer au rapport au monde un discours délié du monde. C’est la condition même d’énonciation qui rend caduque la catégorie de « vérité de fait » puisque l’intelligence artificielle générative, dans son fonctionnement même, ne se réfère pas au réel pour produire du langage, même si un lien au second degré demeure, puisque la production statistique de LLM part d’énoncés produits hors LLM. La déliaison est consommée entre produire du langage (qui est pourtant supposé être le lieu de la vérité), et le réel sur lequel porte le langage.

Ainsi la post-vérité dans laquelle nous vivons désormais est structurellement consolidée : il ne s’agit pas seulement d’une indifférence à la vérité, il s’agit d’une production de contenu délié, ou indépendant de la possibilité même du vrai ou du faux, même si un grand nombre de textes qui nourrissent les LLM proviennent encore des humains. L’idéologie n’est pas dans ce qui est dit, produit, écrit : elle est dans l’émancipation d’une production du langage par rapport au réel et à l’idée même de référentialité. L’intelligence artificielle générative n’a pas inventé la post-vérité, mais par son fonctionnement, elle en consolide la structure.

Un langage formaté en amont par des entreprises privées ?

À cela s’ajoute le fait que cette production est le monopole d’entreprises privées. Nous vivons dans un monde capitaliste, nul ne l’ignore, dont le principe est que les moyens de production sont concentrés entre les mains de quelques-uns. C’est ce que Marx appelait l’infrastructure, la superstructure désignant toutes les autres sphères – la politique, la culture. Or, aujourd’hui, l’infrastructure produit du langage. Et le langage est sous-jacent à toutes les superstructures : comme le dit le linguiste Klemperer, il est le moyen de propagande le plus public et le plus secret à la fois. Public, puisque nous ne pouvons nous passer du langage pour vivre en société ; secret, parce que nous ne nous rendons pas compte à quel point le langage est traversé par des normes qui nous façonnent plus que nous les façonnons et que nous véhiculons à notre tour en parlant.

« À chaque époque correspondent des techniques de reproduction bien déterminées » écrivait Walter Benjamin. La technique influe sur l’usage de la langue : au XIXᵉ siècle, la presse de masse transformait la manière d’écrire, entraînant un nouveau genre littéraire – le roman – que Benjamin dans le Raconteur oppose au récit, mais aussi la prolifération d’une presse à sensation, s’intéressant aux faits divers et proposant une « narration » attractive.

Le langage serait donc de plus en plus inféodé à ses moyens de production techniques. Certes, on peut considérer qu’il l’était déjà dans son usage public, mais c’est désormais le cas également des usages intimes, professionnels, amicaux, autrement dit de quasiment tous les usages, y compris lorsqu’on n’a nul besoin de la technologie pour communiquer : il nous arrive de correspondre par mail lorsqu’on partage le même bureau, d’assister à des réunions en visioconférence alors que quelques mètres nous séparent, de communiquer par Instagram assis côté à côte… Ce qui a des conséquences décisives notamment sur la politique, et plus spécifiquement sur la démocratie, dont le matériau premier est précisément le langage et les différents droits qui lui sont associés.

« Être politique, écrit Hannah Arendt, vivre dans une polis, cela signifiait que toutes choses se décidaient par la parole et la persuasion et non pas par la force ni la violence. » Elle ajoutait que c’est en apparaissant aux yeux de tous que la parole devenait politique. Il fallait donc un espace pour que celle-ci soit entendue, un espace « public » pour « une parole politique ».

Mais qu’est-ce qu’un espace public et qu’une parole politique, lorsque le langage s’émancipe dans sa production, à la fois du réel, et du sujet d’énonciation ? En étant productrice autonome de langage sans référentialité, l’IA générative accomplit techniquement le fantasme d’une énonciation sans sujet.

Que le langage ne soit plus ce qui distingue la machine de l’humain a ainsi des conséquences à la fois politiques et métaphysiques. Le rapport au réel est en train de se transformer au profit de médiations invisibles qui privatisent le langage : celui-ci ne permet plus de reconnaître dans le destinateur ou le destinataire un « autrui ». Pourtant, le langage n’a de sens qu’à être adressé à un autre être humain. Pour la machine, il est asémantique. Sauver le sens du langage, c’est sauver l’idée même de sujet. C’est à cette condition qu’il gardera ses vertus émancipatrices.


Mazarine M. Pingeot est l’autrice d’Inappropriable. Ce que l’IA fait à l’humain, (Flammarion, février 2026).

The Conversation

Mazarine Pingeot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

13.04.2026 à 16:44

Intelligence artificielle : quels sont les apports concrets de la régulation européenne ?

Chloé Dornbierer, Docteure en droit et Professeure à Kedge Business School, Kedge Business School

En matière d’IA, quels sont les apports de la régulation européenne et ses limites ? Protège-t-elle les citoyens ? Risque-t-elle de freiner l’innovation et de détourner les acteurs économiques du marché européen ?
Texte intégral (2348 mots)

L’intelligence artificielle s’impose désormais au cœur de décisions qui engagent directement la vie, la santé et les droits des citoyens européens. Dans des entreprises, des administrations, des hôpitaux ou sur des plateformes numériques, des algorithmes trient, évaluent, recommandent et parfois décident. Face à cette automatisation croissante, une question centrale se pose : la réponse de l’Union européenne pour encadrer l’intelligence artificielle est-elle à la hauteur des risques qu’elle prétend prévenir ?


Imaginons qu’une entreprise décide d’utiliser une intelligence artificielle (IA) pour automatiser son processus de recrutement. L’algorithme, conçu pour analyser des milliers de CV, est entraîné sur les données RH de l’entreprise des dix dernières années. Or, les profils recrutés durant cette période sont majoritairement masculins. L’algorithme déduit alors de ces données que les candidats masculins sont préférables et exclut de fait les profils féminins.

Ce scénario n’est pas fictif : il s’inspire directement du cas d’Amazon, dont l’outil de recrutement par IA a dû être abandonné après la révélation de ces biais eu égard aux risques juridiques qu’ils engendraient. Cet exemple illustre précisément les risques que le législateur entend prévenir : erreurs algorithmiques, atteintes aux droits fondamentaux, captation et fuite de données, dépendance technologique.

En réponse, l’Union européenne a bâti depuis plusieurs années un arsenal juridique ambitieux, allant du Règlement général sur la protection des données (RGPD) au Règlement sur l’intelligence artificielle (RIA). Ces textes doivent relever un défi de taille : concilier innovation et protection, réguler les acteurs internationaux sans les éloigner du marché européen, et garantir les droits fondamentaux sans censure – le tout face à des technologies transversales, opaques et en constante évolution. Cet ensemble de règles constitue-t-il une réponse satisfaisante ?

Pas de régulation de l’IA, sans régulation des données

La régulation de l’intelligence artificielle ne saurait être envisagée indépendamment d’une politique structurée de la donnée. La donnée constitue en effet le carburant indispensable au développement et au perfectionnement des systèmes d’intelligence artificielle. En cela, la quantité de données compte tout autant que leur qualité.

C’est pourquoi, le législateur européen a d’abord cherché à réguler la donnée avant de réguler l’IA : d’une part avec le RGPD dont la finalité est de protéger les données à caractère personnel (les informations concernant une personne physique identifiée ou identifiable, comme un numéro de téléphone ou une adresse postale).

D’autre part avec une série de textes portant sur la régulation des données non personnelles (les informations ne se rapportant à aucune personne identifiable, comme une statistique ou un nombre d’accidents sur une autoroute visée). Ceux-ci comprennent le DSA, le DMA, le DGA, le Data Act et visent notamment à limiter la domination des géants du numérique et organiser le partage et l’accès de certaines données entre plateformes, entreprises, administrations publiques et utilisateurs, condition indispensable au développement de l’IA.

Ces textes relatifs aux données ont été le préalable à l’élaboration de la première réglementation générale au monde sur l’intelligence artificielle : le RIA.

Quelles sont les obligations imposées aux entreprises par le RIA ?

Contrairement aux États-Unis, qui privilégient une approche dérégulée, et à la Chine, qui encadre principalement certains usages ciblés, l’Union européenne a fait le choix d’un cadre juridique général et contraignant, s’appliquant à l’ensemble des secteurs et des systèmes d’intelligence artificielle, afin de poser les bases d’un véritable droit commun de l’IA au sein du marché européen depuis son entrée en vigueur le 1er août 2024.

Son objectif est d’encadrer

« le développement, la mise sur le marché et l’utilisation de systèmes d’intelligence artificielle, qui peuvent poser des risques pour la santé, la sécurité ou les droits fondamentaux ».

Pour atteindre cet objectif, le RIA commence par définir précisément le champ des technologies qu’il entend encadrer. Il distingue : les systèmes d’intelligence artificielle, qui correspondent aux applications concrètes utilisées par les utilisateurs (ex : un outil de tri de candidatures, ChatGPT) et les modèles d’intelligence artificielle à usage général, qui constituent le socle technologique sur lequel reposent ces applications, comme GPT-4 pour ChatGPT.

Pour assurer un équilibre entre protection des personnes et innovation, le RIA classe les systèmes d’intelligence artificielle en quatre niveaux de risque :

  • le risque inacceptable (ex : système de notation sociale des citoyens, présentant un risque d’une atteinte grave aux droits fondamentaux) impliquant l’interdiction du système d’IA.

  • le risque élevé (ex : une IA utilisée pour évaluer des salariés, présentant un risque d’atteinte au droit du travail et à la vie privée) imposant des obligations comme celle de réaliser des audits ou celle d’entraîner le système sur des données qualitatives et exemptes de biais.

  • le risque limité (ex : assistant conversationnel d’un service client, présentant le risque d’une collecte de données sans consentement éclairé) obligeant notamment les opérateurs à informer les utilisateurs de l’usage de l’IA.

  • le risque minimal (ex : IA intégrée dans un jeu vidéo) dont ne découle aucune obligation spécifique.

Pour chaque niveau de risque, des obligations spécifiques et proportionnées sont donc édictées en fonction de leurs effets potentiels sur les droits fondamentaux, la sécurité et la santé des personnes. Ces obligations s’imposent à différents opérateurs selon le moment où ils interviennent dans la chaîne de valeur de l’IA : fournisseur, mandataire, importateur, distributeur…

Par exemple, un système d’IA utilisé pour l’analyse d’images médicales, qualifié de système à risque élevé, est soumis à des obligations spécifiques qui varient selon l’opérateur concerné : le fournisseur doit concevoir le système en conformité avec les exigences de sécurité et de gestion des risques comme s’assurer qu’il ne peut pas y avoir de faux positif ou de faux négatif dans le diagnostic mais également que le système ne présente pas de biais du fait d’une sous-représentation de certains groupes ethniques ou de genre, l’importateur et le distributeur doivent vérifier que cette conformité a été respectée, et l’hôpital qui déploie le système doit s’assurer qu’il est utilisé correctement et sous supervision humaine.

Concernant les modèles d’IA à usage général (ex : GPT-4, algorithme sur lequel repose ChatGPT), le législateur européen a édicté différentes règles selon qu’ils présentent ou non un risque systémique.

L’article 3 § 65 du RIA définissant le risque systémique comme :

« un risque spécifique aux capacités à fort impact des modèles d’IA à usage général, ayant une incidence significative sur le marché de l’Union en raison de leur portée ou d’effets négatifs réels ou raisonnablement prévisibles sur la santé publique, la sûreté, la sécurité publique, les droits fondamentaux ou la société dans son ensemble, pouvant être propagé à grande échelle tout au long de la chaîne de valeur ».

Ce risque est évalué selon la puissance de calcul du modèle. Les modèles d’IA à usage général qui présentent un risque systémique doivent notamment signaler les incidents graves (des biais, des faux positifs, une cyberattaque), prendre d’importantes mesures de cybersécurité ou encore tester le modèle et atténuer les risques systémiques identifiés (grâce à des audits, des mesures de protection contre les piratages ou encore des mesures de détection de biais). Plusieurs autorités ont été désignées pour contrôler la bonne application du règlement, c’est le cas notamment du comité européen de l’intelligence artificielle au niveau européen, et de la CNIL au niveau national.

Les limites du RIA

Le RIA a suscité des critiques des experts du droit et du monde professionnel à propos de sa mise en œuvre. Ainsi, 46 dirigeants d’entreprise ont dénoncé, dans une lettre ouverte destinée à la présidente de la Commission européenne, « des règlementations européennes peu claires, qui se chevauchent et deviennent de plus en plus complexes ». La technicité du RIA conjuguée à la complexité des algorithmes compliquent l’application du texte, en particulier pour les obligations de transparence – incompatibles avec l’opacité des algorithmes – et pour l’identification des responsabilités, les entreprises peinant à déterminer quelles obligations leur incombent selon leur position dans la chaîne de valeur et le niveau de risque du système.

En découle alors une autre problématique, le risque de freiner les acteurs français et européens, comme Orasio, H Company ou DeepL, qui tentent de concurrencer les géants américains de l’intelligence artificielle qui ont davantage de moyens (juridiques, technologiques, financiers) pour mettre en œuvre les obligations du RIA.

À cet égard, il convient de relever que le législateur européen a finalement renoncé, le 11 février 2025, à adopter une législation spécifique relative à la responsabilité civile des acteurs de l’intelligence artificielle, dont la finalité était d’harmoniser les règles de responsabilité civile pour les dommages causés par l’IA, afin de protéger les victimes et d’unifier le cadre juridique au sein de l’UE. Cet abandon est intervenu suite à une opposition de certains États membres, notamment la France, mais aussi des critiques formulées par le lobbying de grandes entreprises technologiques qui dénonçaient un risque de surrégulation et une insécurité juridique susceptible de freiner l’innovation. En l’absence d’un tel cadre spécifique, ce sont donc les règles de droit positif de responsabilité civile qui demeurent applicables aux dommages causés par les systèmes d’intelligence artificielle.

Les enjeux de la régulation

En combinant protection des données, encadrement des usages et obligations pesant sur les acteurs les plus puissants, l’Union européenne a posé les bases d’un véritable droit commun de l’IA unique au monde.

Cependant, cette réponse n’est satisfaisante qu’à une condition : que son application ne transforme pas la régulation en barrière à l’entrée pour les acteurs européens tels que Mistral AI, NEURA Robotics ou Dust. En effet, le risque est de renforcer la domination des géants américains et chinois plutôt que de la combattre. D’autant que cette domination ne se limite pas au plan économique : elle s’exerce également sur le plan politique. Un rapport de Corporate Europe Observatory et LobbyControl, deux ONG spécialisées dans la surveillance du lobbying, montre ainsi que les Big Tech auraient une influence significative sur la rédaction des Codes de bonnes pratiques prévus par le RIA notamment en parvenant à affaiblir certaines obligations.

La véritable réussite de la régulation européenne ne se mesurera donc pas seulement à la protection des citoyens, mais à sa capacité à faire émerger une intelligence artificielle européenne, à la fois éthique, compétitive et souveraine.

The Conversation

Chloé Dornbierer ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF
7 / 25
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Issues
Korii
Lava
La revue des médias
Time [Fr]
Mouais
Multitudes
Positivr
Regards
Slate
Smolny
Socialter
UPMagazine
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
À Contretemps
Alter-éditions
Contre-Attaque
Contretemps
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
 
  ARTS
L'Autre Quotidien
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
Gauche.Media
CETRI
ESSF
Inprecor
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
🌓