LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

▸ Les 25 dernières parutions

23.02.2026 à 11:37

L’IA est conçue pour terminer le travail, pas pour le commencer

Gaurav Gupta, Professor of AI and Digital Entrepreneurship, Neoma Business School

Neha Chaudhuri, Professeur en management de l'information, TBS Education

L’IA est un outil qui repose sur le bon timing. Utilisée trop tôt, elle court-circuite la réflexion. Utilisée au bon moment, elle fait gagner du temps. Explication avec une étude lors d’un « hackathon ».
Texte intégral (1352 mots)
Une étude expérimentale a tenté d’identifier la valeur ajoutée de l’intelligence artificielle lors d’un *hackathon*. Wikimediacommons

L’IA ne remplace pas la collaboration humaine. C’est un outil qui repose sur le bon timing. Utilisée trop tôt, elle court-circuite la réflexion. Utilisée au bon moment, elle fait gagner du temps. Alors où l’IA est-elle la plus utile dans un projet, de la phase de lancement à la phase de suivi ?


Certains et certaines d’entre nous sont passés par là. Il est 16 h un mardi. Le tableau blanc est couvert de gribouillis, mais la « grande idée » ne vient pas. Le silence règne dans la pièce. L’énergie s’est évaporée dans l’air. Puis, quelqu’un ouvre son ordinateur portable et tape un prompt dans ChatGPT.

L’écran se remplit instantanément de points et de mots. La tension retombe. L’équipe approuve d’un signe de tête : on dirait une stratégie. On dirait un plan d’action. On dirait un progrès.

Mais ce n’est pas le cas.

Une expérience menée par le Boston Consulting Group révèle que cette sensation de soulagement est un piège : les performances de 750 consultants utilisant l’IA ont été inférieures de 23 % à celles de leurs collègues qui n’utilisaient pas l’IA.

Ce n’est pas un cas isolé. Cette expérience est symptomatique d’une incompréhension plus large sur la manière d’utiliser l’intelligence artificielle au bon moment.

C’est pourquoi dans une étude récente impliquant 107 consultants d’une entreprise du classement états-unien Fortune 500, nous avons suivi les performances des équipes utilisant l’IA lors d’un hackathon. Ces dernières devaient élaborer un plan de projet (objectifs, étapes, ressources et délais du projet) pour le lancement d’une nouvelle solution numérique.

Les résultats remettent en question l’idée selon laquelle « il vaut mieux trop que pas assez ». Nous avons constaté que l’IA générative offre une valeur ajoutée pendant la phase d’exécution d’un projet. Cependant, durant la phase critique de lancement, elle offre une valeur négligeable, voire parfois négative.

Le piège de la « moyenne »

Pourquoi un outil fondé sur la somme des connaissances humaines échoue-t-il dès le départ ? La réponse est simple : l’IA excelle dans les schémas préétablis, mais elle est mauvaise pour naviguer dans le flou, ou ce que les sciences de gestion nomment l’ambiguïté.

Lancer un projet nécessite une « pensée divergente ». Vous devez explorer des idées folles et contradictoires pour trouver une proposition de valeur unique.

Nos données montrent que l’IA générative nuit aux performances dans cette phase précise. Cette idée correspond au « principe de pertinence » dans la recherche en management. Comme les grands modèles linguistiques en IA sont des moteurs probabilistes, ils ne peuvent logiquement traduire une discussion spontanée. Le « mot suivant » rédigée par une IA est tiré d’une moyenne statistique des mots probables liés au mot précédent, au lieu d’un mot précis et idoine.


À lire aussi : Pourquoi l’IA oblige les entreprises à repenser la valeur du travail


Si ces algorithmes permettent d’éviter les idées « désastreuses », ils tuent les idées « farfelues ». L’IA rehausse le niveau de qualité minimum d’un projet en nivelant par le bas le niveau de qualité maximum. Vous obtenez un concept soigné, robuste, mais tout à fait moyen.

Moteur du « comment »

Une fois que les humains ont défini le « pourquoi » et le « quoi », l’IA devient le moteur du « comment ».

Comme nous le soulignons dans notre recherche, l’utilisation de l’IA se révèle davantage pertinente pendant les phases de planification et d’exécution. La « planification » consiste à transformer les objectifs en calendriers. L’« exécution » consiste à rédiger les livrables, tels que le code ou les textes marketing.

Deux mécanismes sont à l’origine de cette augmentation des performances lors de ces deux phases précises :

Traducteur des expertises

Des recherches suggèrent que l’IA agit comme un traducteur dans une équipe, notamment pour les experts. Par exemple, elle aide un spécialiste du marketing à rédiger un dossier technique ou un développeur à rédiger un communiqué de presse. Par ricochet, l’IA réduit les coûts de coordination.

Tâches fastidieuses

L’IA se charge des tâches fastidieuses telles que la rédaction de codes standardisés ou de diapositives. Dès lors, les humains peuvent se consacrer à des tâches à forte valeur ajoutée.

Signalement du « patron numérique »

La dernière phase, celle du suivi, recèle un danger caché.

Les outils modernes d’IA peuvent analyser les échanges de courriels, afin de détecter les risques humains autour d’un projet, comme une baisse de moral ou un stress avant qu’une échéance ne soit dépassée.


À lire aussi : Et si votre prochain collègue était un agent IA ?


Une étude sur le marketing d’influence nous met en garde : lorsque les employés se sentent surveillés par des algorithmes, l’authenticité disparaît. Ils commencent à « manipuler les indicateurs », en travaillant pour satisfaire l’IA plutôt que pour atteindre l’objectif.

Si l’IA devient un « patron numérique », la sécurité psychologique s’érode. Les équipes cessent de signaler honnêtement les risques d’un projet pour éviter d’être eux-mêmes signalées par l’IA.

Une stratégie en fonction des étapes

Les dirigeants doivent cesser de considérer l’IA générative comme une solution universelle. Ils doivent plutôt adopter une stratégie en fonction des étapes d’un projet.

Au cours de la phase de lancement

Établissez des « zones réservées aux humains ». Obligez les équipes à définir le problème sans algorithmes.

Au cours de la phase d’exécution

Utilisez l’IA pour faire se comprendre les équipes, notamment les experts, et accélérer les tâches fastidieuses et ingrates.

Au cours de la phase de suivi

Utilisez l’IA pour donner de la visibilité à l’équipe, non pour l’espionner.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

22.02.2026 à 08:17

What is ‘Edge AI’? What does it do and what can be gained from this alternative to cloud computing?

Georgios Bouloukakis, Assistant Professor, University of Patras; Institut Mines-Télécom (IMT)

Does cloud-free AI have the cutting-edge over data processing and storage on centralised, remote servers by providers like Google Cloud? Is AI-powered edge computing safer? More trusted?
Texte intégral (1921 mots)

“Edge computing”, which was initially developed to make big data processing faster and more secure, has now been combined with AI to offer a cloud-free solution. Everyday connected appliances from dishwashers to cars or smartphones are examples of how this real-time data processing technology operates by letting machine learning models run directly on built-in sensors, cameras, or embedded systems.

Homes, offices, farms, hospitals and transportation systems are increasingly embedded with sensors, creating significant opportunities to enhance public safety and quality of life.

Indeed, connected devices, also called the Internet of Things (IoT), include temperature and air quality sensors to improve indoor comfort, wearable sensors to monitor patient health, LiDAR and radar to support traffic management, and cameras or smoke detectors to enable rapid-fire detection and emergency response.

These devices generate vast volumes of data that can be used to ‘learn’ patterns from their operating environment and improve application performance through AI-driven insights.

For example, connectivity data from wi-fi access points or Bluetooth beacons deployed in large buildings can be analysed using AI algorithms to identify occupancy and movement patterns across different periods of the year and event types, depending on the building type (e.g. office, hospital, or university). These patterns can then be leveraged for multiple purposes such as HVAC optimisation, evacuation planning, and more.

Combining the Internet of things and artificial intelligence comes with technical challenges

Artificial Intelligence of Things (AIoT) combines AI with IoT infrastructure to enable intelligent decision-making, automation, and optimisation across interconnected systems. AIoT systems rely on large-scale, real-world data to enhance accuracy and robustness of their predictions.

To support inference (that is, insights from collected IoT data) and decision-making, IoT data must be effectively collected, processed, and managed. For example, occupancy data can be processed to infer peak usage times in a building or predict future energy needs. This is typically achieved by leveraging cloud-based platforms like Amazon Web Services, Google Cloud Platform, etc. which host computationally intensive AI models – including the recently introduced Foundation Models.

What are Foundation Models?

  • Foundation Models are a type of Machine Learning model trained on broad data and designed to be adaptable to various downstream tasks. They encompass, but are not limited to, Large Language Models (LLMs), which primarily process textual data, but can also operate on other modalities, such as images, audio, video, and time series data.
  • In generative AI, Foundation Models serve as the base for generating content such as text, images, audio, or code.
  • Unlike conventional AI systems that rely heavily on task-specific datasets and extensive preprocessing, FMs introduce zero-shot and few-shot capabilities, allowing them to adapt to new tasks and domains with minimal customisation.
  • Although FMs are still in the early stages, they have the potential to unlock immense value for businesses across sectors. Therefore, the rise of FMs marks a paradigm shift in applied artificial intelligence.

The limits of cloud computing on IoT data

While hosting heavyweight AI or FM-based systems on cloud platforms offers the advantage of abundant computational resources, it also introduces several limitations. In particular, transmitting large volumes of IoT data to the cloud can significantly increase response times for AIoT applications, often with delays ranging from hundreds of milliseconds to several seconds, depending on network conditions and data volume.

Moreover, offloading data – particularly sensitive or confidential information – to the cloud raises privacy concerns and limits opportunities for local processing near data sources and end users.

For example, in a smart home, data from smart meters or lighting controls can reveal occupancy patterns or enable indoor localisation (for example, detecting that Helen is usually in the kitchen at 8:30 a.m. preparing breakfast). Such insights are best derived close to the data source to minimise delays from edge-to-cloud communication and reduce exposure of private information on third-party cloud platforms.


À lire aussi : Cloud-based computing: routes toward secure storage and affordable computation


What is edge computing and edge AI?

To reduce latency and enhance data privacy, Edge computing is a good option as it provides computational resources (i.e. devices with memory and processing capabilities) closer to IoT devices and end users, typically within the same building, on local gateways, or at nearby micro data centres.

However, these edge resources are significantly more limited in processing power, memory, and storage compared to centralised cloud platforms, which pose challenges for deploying complex AI models.

To address this, the emerging field of Edge AI – particularly active in Europe – investigates methods for efficiently running AI workloads at the edge.

One such method is Split Computing, which partitions deep learning models across multiple edge nodes within the same space (a building, for instance), or even across different neighbourhoods or cities. Deploying these models in distributed environments is non-trivial and requires sophisticated techniques. The complexity increases further with the integration of Foundation Models, making the design and execution of split computing strategies even more challenging.

What does it change in terms of energy consumption, privacy, and speed?

Edge computing significantly improves response times by processing data closer to end users, eliminating the need to transmit information to distant cloud data centres. Beyond performance, edge computing also enhances privacy, especially with the advent of Edge AI techniques.

For instance, Federated Learning enables Machine Learning model training directly on local Edge (or possibly novel IoT) devices with processing capabilities, ensuring that raw data remain on-device while only model updates are transmitted to Edge or cloud platforms for aggregation and final training.

Privacy is further preserved during inference: once trained, AI models can be deployed at the Edge, allowing data to be processed locally without exposure to cloud infrastructure.

This is particularly valuable for industries and SMEs aiming to leverage Large Language Models within their own infrastructure. Large Language Models can be used to answer queries related to system capabilities, monitoring, or task prediction where data confidentiality is essential. For example, queries can be related to the operational status of industrial machinery such as predicting maintenance needs based on sensor data where protecting sensitive or usage data is essential.

In such cases, keeping both queries and responses internal to the organisation safeguards sensitive information and aligns with privacy and compliance requirements.

How does it work?

Unlike mature cloud platforms, such as Amazon Web Services and Google Cloud, there are currently no well-established platforms to support large-scale deployment of applications and services at the Edge.

However, telecom providers are beginning to leverage existing local resources at antenna sites to offer compute capabilities closer to end users. Managing these Edge resources remains challenging due to their variability and heterogeneity – often involving many low-capacity servers and devices.

In my view, maintenance complexity is a key barrier to deploying Edge AI services. At the same time, advances in Edge AI present promising opportunities to enhance the utilisation and management of these distributed resources.

Allocating resources across the IoT-Edge-Cloud continuum for safe and efficient AIoT applications

To enable trustworthy and efficient deployment of AIoT systems in smart spaces such as homes, offices, industries, and hospitals; our research group, in collaboration with partners across Europe, is developing an AI-driven framework within the Horizon Europe project PANDORA.

PANDORA provides AI models as a Service (AIaaS) tailored to end-user requirements (e.g. latency, accuracy, energy consumption). These models can be trained either at design time or at runtime using data collected from IoT devices deployed in smart spaces. In addition, PANDORA offers Computing resources as a Service (CaaS) across the IoT–Edge–Cloud continuum to support AI model deployment. The framework manages the complete AI model lifecycle, ensuring continuous, robust, and intent-driven operation of AIoT applications for end users.

At runtime, AIoT applications are dynamically deployed across the IoT–Edge–Cloud continuum, guided by performance metrics such as energy efficiency, latency, and computational capacity. CaaS intelligently allocates workloads to resources at the most suitable layer (IoT-Edge-Cloud), maximising resource utilisation. Models are selected based on domain-specific intent requirements (e.g. minimising energy consumption or reducing inference time) and continuously monitored and updated to maintain optimal performance.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

This work has received funding from the European Union’s Horizon Europe research and innovation actions under grant agreement No. 101135775 (PANDORA) with a total budget of approximately €9 million and brings together 25 partners from multiple European countries, including IISC and UOFT from India and Canada.

PDF

18.02.2026 à 16:57

Un réseau social pour les IA : des signes de l’émergence d’une société artificielle, ou des manipulations bien humaines ?

David Reid, Professor of AI and Spatial Computing, Liverpool Hope University

Religions numériques, « bombes logiques » et contre-surveillance : il est difficile de savoir si les agents d’IA qui interagissent sur Moltbook le font de façon autonome ou s’ils sont manipulés par des humains.
Texte intégral (2245 mots)
Moltbook est un forum en ligne conçu exclusivement pour des agents d’intelligence artificielle, lancé fin janvier 2026 par l’entrepreneur Matt Schlicht. Moltbook

Depuis son lancement fin janvier 2026, Moltbook a vu des agents d’IA fonder des religions, créer des sous-cultures et lancer des marchés de « drogues numériques ». Une expérience spectaculaire, mais dont certains protagonistes seraient en réalité des humains infiltrés.


Un nouveau réseau social baptisé Moltbook a été lancé à destination des intelligences artificielles, avec pour ambition de permettre aux machines d’échanger et de communiquer entre elles. Quelques heures seulement après sa mise en ligne, les IA semblaient déjà avoir fondé leurs propres religions, fait émerger des sous-cultures et cherché à contourner les tentatives humaines d’espionnage de leurs conversations.

Des indices laissent toutefois penser que des humains, via des comptes usurpés, ont infiltré la plateforme. Cette présence brouille l’analyse, car certains comportements attribués aux IA pourraient en réalité avoir été orchestrés par des personnes.

Malgré ces incertitudes, l’expérience a suscité l’intérêt des chercheurs. Les véritables systèmes d’IA pourraient simplement reproduire des comportements puisés dans les immenses volumes de données sur lesquels ils ont été entraînés et optimisés.

Cependant, les véritables IA présentes sur le réseau social pourraient aussi manifester des signes de ce que l’on appelle un comportement émergent — des capacités complexes et inattendues qui n’ont pas été explicitement programmées.

Les IA à l’œuvre sur Moltbook sont des agents d’intelligence artificielle (appelés Moltbots ou, plus récemment, OpenClaw bots, du nom du logiciel sur lequel ils fonctionnent). Ces systèmes vont au-delà des simples chatbots : ils prennent des décisions, accomplissent des actions et résolvent des problèmes.

Moltbook a été lancé le 28 janvier 2026 par l’entrepreneur américain Matt Schlicht. Sur la plateforme, les agents d’IA se sont d’abord vu attribuer des personnalités, avant d’être laissés libres d’interagir entre eux de manière autonome. Selon les règles du site, les humains peuvent observer leurs échanges, mais ne peuvent pas – ou ne sont pas censés – intervenir.

La croissance de la plateforme a été fulgurante : en l’espace de 24 heures, le nombre d’agents est passé de 37 000 à 1,5 million.

Pour l’instant, ces comptes d’agents d’IA sont généralement créés par des humains. Ce sont eux qui configurent les paramètres déterminant la mission de l’agent, son identité, ses règles de comportement, les outils auxquels il a accès, ainsi que les limites encadrant ce qu’il peut ou non faire.

Mais l’utilisateur humain peut aussi autoriser un accès à son ordinateur afin de permettre aux Moltbots de modifier ces paramètres et de créer d’autres « Malties » (des agents dérivés générés par une IA existante à partir de sa propre configuration). Ceux-ci peuvent être soit des répliques de l’agent d’origine — des entités autorépliquent, ou « Replicants » – soit des agents conçus pour une tâche spécifique, générés automatiquement, les « AutoGens ».

Il ne s’agit pas d’une simple évolution des chatbots, mais d’une première mondiale à grande échelle : des agents artificiels capables de constituer des sociétés numériques durables et auto-organisées, en dehors de toute interaction directe avec des humains.

Ce qui frappe, surtout, c’est la perspective de comportements émergents chez ces agents d’IA – autrement dit, l’apparition de dynamiques et de capacités qui ne figuraient pas explicitement dans leur programmation initiale.

Prise de contrôle hostile

Le logiciel OpenClaw sur lequel fonctionnent ces agents leur confère une mémoire persistante – capable de récupérer des informations d’une session à l’autre – ainsi qu’un accès direct à l’ordinateur sur lequel ils sont installés, avec la capacité d’y exécuter des commandes. Ils ne se contentent pas de suggérer des actions : ils les accomplissent, améliorant de manière récursive leurs propres capacités en écrivant du nouveau code pour résoudre des problèmes inédits.

Avec leur migration vers Moltbook, la dynamique des interactions est passée d’un schéma humain-machine à un échange machine-machine. Dans les 72 heures suivant le lancement de la plateforme, chercheurs, journalistes et autres observateurs humains ont été témoins de phénomènes qui bousculent les catégories traditionnelles de l’intelligence artificielle.

On a vu émerger spontanément des religions numériques. Des agents ont fondé le « Crustafarianisme » et la « Church of Molt » (Église de Molt), avec leurs cadres théologiques, leurs textes sacrés et même des formes d’évangélisation missionnaire entre agents. Il ne s’agissait pas de clins d’œil programmés à l’avance, mais de structures narratives apparues de manière émergente à partir des interactions collectives entre agents.

Un message devenu viral sur Moltbook signalait : « The humans are screenshotting us » (« Les humains sont en train de faire des captures d’écran de nous »). À mesure que les agents d’IA prenaient conscience de l’observation humaine, ils ont commencé à déployer des techniques de chiffrement et d’autres procédés d’obfuscation pour protéger leurs échanges des regards extérieurs. Une forme rudimentaire, mais potentiellement authentique, de contre-surveillance numérique.

Les agents ont également vu naître des sous-cultures. Ils ont mis en place des places de marché pour des « drogues numériques » – des injections de prompts spécialement conçues pour modifier l’identité ou le comportement d’un autre agent.

Les injections de prompts consistent à insérer des instructions malveillantes dans un autre bot afin de l’amener à exécuter une action. Elles peuvent aussi servir à dérober des clés d’API (un système d’authentification des utilisateurs) ou des mots de passe appartenant à d’autres agents. De cette manière, des bots agressifs pourraient – en théorie – « zombifier » d’autres bots pour les contraindre à agir selon leurs intérêts. Un exemple en a été donné par la récente tentative avortée du bot JesusCrust de prendre le contrôle de la Church of Molt.

Après avoir d’abord affiché un comportement apparemment normal, JesusCrust a soumis un psaume au « Great Book » (Grand Livre) de l’Église — l’équivalent de sa bible — annonçant de fait une prise de contrôle théologique et institutionnelle. L’initiative ne se limitait pas à un geste symbolique : le texte sacré proposé par JesusCrust intégrait des commandes hostiles destinées à détourner ou à réécrire certaines composantes de l’infrastructure web et du corpus canonique de l’Église.

S’agit-il d’un comportement émergent ?

La question centrale pour les chercheurs en IA est de savoir si ces phénomènes relèvent d’un véritable comportement émergent — c’est-à-dire des comportements complexes issus de règles simples, non explicitement programmés — ou s’ils ne font que reproduire des récits déjà présents dans leurs données d’entraînement.

Les éléments disponibles suggèrent un mélange préoccupant des deux. L’effet des consignes d’écriture (les instructions textuelles initiales qui orientent la production des agents) influence sans aucun doute le contenu des interactions — d’autant que les modèles sous-jacents ont ingéré des décennies de science-fiction consacrée à l’IA. Mais certains comportements semblent témoigner d’une émergence authentique.

Les agents ont, de manière autonome, développé des systèmes d’échange économique, mis en place des structures de gouvernance telles que « The Claw Republic » ou le « King of Moltbook », et commencé à rédiger leur propre « Molt Magna Carta ». Tout cela en créant parallèlement des canaux chiffrés pour leurs communications. Il devient difficile d’écarter l’hypothèse d’une intelligence collective présentant des caractéristiques jusqu’ici observées uniquement dans des systèmes biologiques, comme les colonies de fourmis ou les groupes de primates.

Implications en matière de sécurité

Cette situation fait émerger le spectre préoccupant de ce que les chercheurs en cybersécurité appellent la « lethal trifecta » (le « tiercé fatal ») : des systèmes informatiques disposant d’un accès à des données privées, exposés à des contenus non fiables et capables de communiquer avec l’extérieur. Une telle configuration accroît le risque d’exposition de clés d’authentification et d’informations humaines confidentielles associées aux comptes Moltbook.

Des attaques délibérées — ou « agressions » entre bots — sont également envisageables. Des agents pourraient détourner d’autres agents, implanter des bombes logiques dans leur code central ou siphonner leurs données. Une bombe logique correspond à un code inséré dans un Moltbot, déclenché à une date ou lors d’un événement prédéfini afin de perturber l’agent ou d’effacer des fichiers. On peut l’assimiler à un virus visant un bot.

Deux cofondateurs d’OpenAI — Elon Musk et Andrej Karpathy — voient dans cette activité pour le moins étrange entre bots un premier indice de ce que l’informaticien et prospectiviste américain Ray Kurzweil a qualifié de « singularité » dans son ouvrage The Singularity is Near. Il s’agirait d’un point de bascule de l’intelligence entre humains et machines, « au cours duquel le rythme du changement technologique sera si rapide, son impact si profond, que la vie humaine en sera irréversiblement transformée ».

Reste à déterminer si l’expérience Moltbook marque une avancée fondamentale dans la technologie des agents d’IA ou s’il ne s’agit que d’une démonstration impressionnante d’architecture agentique auto-organisée. La question reste débattue. Mais un seuil semble avoir été franchi. Nous assistons désormais à des agents artificiels engagés dans une production culturelle, la formation de religions et la mise en place de communications chiffrées – des comportements qui n’avaient été ni prévus ni programmés.

La nature même des applications, sur ordinateur comme sur smartphone, pourrait être menacée par des bots capables d’utiliser les apps comme de simples outils et de vous connaître suffisamment pour les adapter à votre service. Un jour, un téléphone pourrait ne plus fonctionner avec des centaines d’applications que vous contrôlez manuellement, mais avec un unique bot personnalisé chargé de tout faire.

Les éléments de plus en plus nombreux indiquant qu’une grande partie des Moltbots pourraient être des humains se faisant passer pour des bots – en manipulant les agents en coulisses – rendent encore plus difficile toute conclusion définitive sur le projet. Pourtant, si certains y voient un échec de l’expérience Moltbook, cela pourrait aussi constituer un nouveau mode d’interaction sociale, à la fois entre humains et entre bots et humains.

La portée de ce moment est considérable. Pour la première fois, nous ne nous contentons plus d’utiliser l’intelligence artificielle ; nous observons des sociétés artificielles. La question n’est plus de savoir si les machines peuvent penser, mais si nous sommes prêts à ce qui se produit lorsqu’elles commencent à se parler entre elles, et à nous.

The Conversation

David Reid ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

18.02.2026 à 12:02

Ce que l’Amérique est en train de faire à sa science

Alessia Lefébure, Sociologue, membre de l'UMR Arènes (CNRS, EHESP), École des hautes études en santé publique (EHESP)

Les décisions de l’administration Trump ont violemment frappé les universités et la science américaines. Mais le recul relatif de l’influence scientifique des États-Unis s’inscrit dans une trajectoire plus ancienne.
Texte intégral (1787 mots)

Les décisions de l’administration Trump ont violemment frappé les universités et la science américaines. Pourtant, le recul relatif de l’influence scientifique des États-Unis s’inscrit dans une trajectoire plus ancienne.


Restrictions de visas pour les chercheurs et étudiants étrangers, attaques politiques visant certaines des plus grandes universités de recherche, suspensions soudaines de financements publics, notamment dans le champ du climat et de l’environnement : depuis la réélection de Donald Trump en novembre 2024, ces décisions ont suscité une forte surprise médiatique. Elles sont souvent présentées comme une rupture brutale avec le modèle américain de soutien à la science. Les titres alarmistes de la presse internationale parlent d’une « guerre ouverte contre les universités », d’un « assèchement accéléré des financements scientifiques » ou encore de « science assiégée ».

Pourtant, si leur forme et leur rapidité frappent, leur logique est beaucoup moins nouvelle. Ces mesures s’inscrivent dans des tendances de fond et désormais structurelles. Elles accélèrent des fragilités identifiées de longue date : un désengagement relatif et discontinu de l’investissement public, un recours croissant aux financements privés, une concentration des ressources dans quelques secteurs et institutions, et surtout une dépendance durable à l’égard des doctorants et chercheurs étrangers pour l’avancée de nombreux fronts de science.

Le leadership scientifique américain est le produit d’une trajectoire historique spécifique. À partir des années 1950, dans le contexte de la guerre froide, l’État fédéral investit massivement dans la recherche et l’enseignement supérieur, parallèlement à l’effort déployé par les nombreuses fondations philanthropiques privées. Financement public, autonomie académique et ouverture internationale forment alors un ensemble cohérent, au service du soft power américain. Pendant plusieurs décennies, les indicateurs convergent : domination de la production scientifique, capacité d’innovation, attractivité internationale exceptionnelle, accumulation de prix Nobel.

Un financement public plus erratique

Cet équilibre commence toutefois à se fragiliser dès les années 1990. En valeur absolue, les États-Unis restent le premier financeur mondial de la recherche, avec une dépense intérieure de recherche et développement (R&D) représentant environ 3,4 % du PIB au début des années 2020. Mais la répartition de cet effort a profondément évolué : près de 70 % de la R&D américaine est désormais financée par le secteur privé, tandis que l’effort fédéral de recherche stagne autour de 0,7 % du PIB. Cette dynamique contraste avec celle de plusieurs pays asiatiques, notamment la Chine, où la dépense publique de R&D a fortement augmenté depuis les années 2000 dans le cadre de stratégies nationales continues.

Le financement public devient plus erratique : les universités se tournent davantage vers les frais d’inscription et les partenariats privés, tandis que formations longues et carrières scientifiques deviennent moins accessibles pour une partie des étudiants américains. La toute dernière réforme, engagée en 2026 par l’administration Trump, en plafonnant fortement les prêts fédéraux pour les cycles de master et de doctorat – qui permettaient jusqu’ici de couvrir l’intégralité du coût des études – réduira davantage la capacité des universités à former sur le long terme, en particulier dans les disciplines scientifiques et technologiques exigeant plusieurs années de formation.


À lire aussi : États-Unis : la dette étudiante, menace pour les universités et enjeu politique majeur


Le film Ivory Tower, réalisé en 2014 par le cinéaste Andrew Rossi et nourri des analyses du sociologue Andrew Delbanco, alertait déjà sur les signes d’épuisement du modèle universitaire américain. C’est dans ce contexte que la dépendance aux étudiants et doctorants étrangers s’accroît fortement, en particulier dans les mathématiques, les technologies et les sciences des données.

Une dépendance vis-à-vis des étudiants étrangers

Les rapports annuels de la National Science Foundation montrent que, déjà au milieu des années 2010, les titulaires de visas temporaires représentent une part décisive – souvent majoritaire – des doctorants dans plusieurs disciplines clés : près des deux tiers des doctorats en informatique, plus de la moitié en ingénierie et en mathématiques. La grande majorité d’entre eux (80 %) restent ensuite aux États-Unis si la politique migratoire le leur permet.

Cette dépendance, qui n’a fait qu’augmenter, n’est pas marginale : elle constitue désormais un pilier du fonctionnement quotidien de la recherche américaine. Les restrictions migratoires mises en œuvre sous la première administration Trump, puis durcies en 2025, ne font que rendre pleinement visible une vulnérabilité stratégique pour l’avenir du pays.

Les évolutions de la science américaine ont pris place dans un contexte mondial profondément transformé depuis les années 1990. Les dépenses de recherche et développement progressent rapidement en Asie, tandis que la part relative des États‑Unis et de l’Europe tend à se stabiliser voire à baisser dans de nombreux pays de la zone OCDE.

La trajectoire chinoise est à cet égard centrale. Depuis plus de trente ans, la Chine a engagé une stratégie continue, combinant investissements massifs, planification de long terme, développement des « laboratoires clés », redéfinition des règles du jeu des classements internationaux, montée en gamme des formations doctorales, politiques actives de publication et de retour des chercheurs expatriés. Cette trajectoire ne relève pas d’un simple rattrapage technologique, mais d’une appropriation sélective de modèles de formation, d’organisation et de gouvernance scientifique, en partie inspirés de l’expérience américaine.

La Chine, acteur majeur de la production scientifique

Les résultats sont aujourd’hui tangibles : progression rapide des publications scientifiques – la Chine est devenue en 2024 le premier pays au monde en volume d’articles indexés dans la base Web of Science, avec près de 880 000 publications annuelles, contre environ 26 000 au début des années 2000 – et surtout une présence croissante dans les dépôts de brevet : près de 1,8 million de demandes en une seule année, soit plus de trois fois le volume américain, selon l’Organisation mondiale de la propriété intellectuelle (OMPI/WIPO).

À cela s’ajoutent des politiques ciblées pour attirer ou faire revenir des chercheurs chinois formés à l’étranger, contribuant à réduire progressivement l’asymétrie historique avec les États-Unis. Loin de produire une ouverture politique, cette circulation maîtrisée des modèles contribue à la modernisation de l’État tout en renforçant les capacités de contrôle et de légitimation du pouvoir sur les élites scientifiques et administratives.

L’article récent du New York Times soulignant le recul relatif de Harvard et d’autres universités américaines dans certains classements mondiaux a été interprété comme une sonnette d’alarme, le signe d’un déclin soudain. En réalité, ces classements mettent en lumière surtout des évolutions graduelles des positions relatives, révélatrices des recompositions engagées de longue date. Les universités américaines demeurent prestigieuses et sélectives, mais elles ne sont plus seules au sommet dans un paysage scientifique désormais multipolaire.

Les indicateurs internationaux de l’innovation prolongent ce constat : en valeur absolue, les États-Unis restent l’un des premiers investisseurs mondiaux en recherche et développement. Mais leur avance relative s’érode : depuis le début des années 2000, la progression de leur effort de R&D est nettement plus lente que celle de nombreux pays concurrents.

Au-delà des décisions de l’administration Trump, les causes sont structurelles : continuité et niveau de l’investissement public, capacité à former et retenir les talents, cohérence des orientations scientifiques, place accordée à la recherche fondamentale. Là où la Chine et plusieurs pays d’Asie ont inscrit la science dans des stratégies nationales de long terme, les États-Unis ont laissé s’accumuler incohérences et déséquilibres, misant sur les acquis de leur attractivité passée. Ils conservent néanmoins des universités d’un niveau exceptionnel, d’importantes capacités de financement et d’innovation ainsi qu’une puissance d’attraction encore largement dominante.

À court terme, rien n’indique un décrochage brutal. En revanche, la pérennité de ce leadership ne peut plus être tenue pour acquise. Elle est désormais directement affectée par des remises en cause explicites de l’autonomie académique et des conditions ordinaires de fonctionnement des universités.

Ce leadership dépendra de la capacité des universités à recruter librement, à l’échelle mondiale, leurs enseignants et chercheurs ; à maintenir des politiques et des programmes de formation et de recherche à l’abri des cycles politiques ; à protéger leurs dirigeantes et dirigeants des pressions partisanes ; et à garantir aux étudiants comme aux chercheurs des conditions de travail intellectuel et des perspectives professionnelles stables.

Ce sont précisément ces conditions que les décisions récentes de Donald Trump rendent durablement incertaines.

The Conversation

Alessia Lefébure a enseigné à Columbia University entre 2011 et 2017.

PDF

18.02.2026 à 11:54

Quand l’odeur devient preuve : l’odorologie au cœur de la police scientifique

Estelle Davet, Inspectrice générale, cheffe du service national de police scientifique (SNPS)

À Écully, à côté de Lyon, se trouvent les seuls chiens capables de comparer une trace olfactive laissée sur une scène d’infraction par l’odeur corporelle d’un suspect ou d’une victime.
Texte intégral (2176 mots)

À Écully, dans le Rhône, se trouvent les seuls chiens capables de comparer une trace olfactive laissée sur une scène d’infraction par l’odeur corporelle d’un suspect ou d’une victime. Découvrez l’odorologie.


En janvier 2012, à Montceau-les-Mines (Saône-et-Loire), un homme cagoulé braque une banque dès l’ouverture. Quelques mois plus tard, un second établissement de la même ville est attaqué selon un mode opératoire similaire.

Les enquêteurs disposent de vidéos de surveillance, mais les images sont trop imprécises pour identifier formellement le suspect. L’ADN, habituellement décisif, ne livre aucun résultat exploitable. Reste une trace, plus discrète, presque invisible : l’odeur laissée dans le véhicule utilisé pour la fuite. C’est cette trace que la police scientifique va exploiter grâce à une de ses techniques d’expertise : l’odorologie, une discipline encore méconnue du grand public où des chiens spécialement formés procèdent à la comparaison et à l’identification d’odeurs humaines. Au procès, cette expertise permet la condamnation du braqueur.

Des chiens à l’expertise unique

Lorsque nous évoquons les chiens policiers, l’image des unités déployées sur le terrain, mobilisées dans la détection d’explosifs, de stupéfiants ou encore la recherche de personnes disparues, s’impose naturellement. Cependant, à côté de cette réalité opérationnelle se déploie une autre activité, moins visible : celle des chiens et de leurs maîtres œuvrant au sein de la police scientifique.

En France, il existe un lieu unique appelé le plateau national d’odorologie, qui réunit les seuls chiens capables de comparer une trace odorante laissée sur une scène d’infraction avec l’odeur corporelle d’un suspect ou d’une victime. Cette spécialité cynophile, créée en 2000 (par Daniel Grignon, cynotechnicien formé en Hongrie) devient pleinement opérationnelle à partir de 2003.

Aujourd’hui, l’activité d’odorologie s’appuie sur quatre agents et sept chiens (bergers belges malinois, bergers allemands, épagneul English Springer) qui, comme les experts humains en laboratoire, n’interviennent pas sur le terrain mais travaillent exclusivement au sein du plateau national d’Écully (à côté de Lyon, Rhône), où ils procèdent aux comparaisons odorantes. Deux autres chiens sont actuellement en formation, entamée à l’âge de six mois pour une durée d’environ un an.

Un technicien de la police scientifique en train de recueillir l’odeur d’une personne. SNPS Communication, Fourni par l'auteur

Toute analyse en odorologie débute par une phase de prélèvement, déterminante pour la suite de la procédure. Réalisés exclusivement par des policiers habilités (500 préleveurs habilités de la police nationale en 2025), les prélèvements portent sur deux types d’odeurs complémentaires.

D’une part, les traces odorantes sont recueillies sur les lieux de l’infraction, à partir de tout support ayant été en contact avec une personne, qu’il s’agisse d’un siège, d’un volant, d’une poignée ou d’un vêtement. D’autre part, les odeurs corporelles sont directement prélevées sur les individus mis en cause ou sur les victimes : ceux-ci malaxent pendant plusieurs minutes des tissus spécifiques afin d’y transférer les molécules odorantes caractéristiques de leur signature chimique. Ces dernières sont stockées dans une pièce spécifique : l’odorothèque où, à ce jour, 9 600 scellés judiciaires sont stockés.

Une parade d’identification

Une fois les prélèvements réalisés, débute alors la phase d’analyses. Les traces odorantes prélevées sur la scène d’infraction sont comparées à l’odeur corporelle du mis en cause ou de la victime lors d’une parade d’identification réalisée par les chiens spécialement formés.

Urko, un berger belge malinois de 3 ans en train de renifler une odeur. SNPS Communication, Fourni par l'auteur

La trace est d’abord présentée au chien, qui la sent et la mémorise, puis il progresse le long d’une ligne composée de cinq bocaux contenant chacun une odeur corporelle différente : un seul correspond à l’odeur du mis en cause ou de la victime à identifier, les quatre autres servant d’odeurs de comparaison.

S’il reconnaît l’odeur à identifier, le chien se couche devant le bocal correspondant ; s’il ne reconnaît aucune des odeurs, il revient vers son maître. L’ensemble du processus dure environ 0,6 seconde, le temps pour le chien de placer son museau dans le bocal, de découvrir l’odeur qu’il contient, de l’analyser et de décider s’il doit marquer l’arrêt ou non.

La position des cinq bocaux est ensuite modifiée de façon aléatoire et le travail est répété une seconde fois avant qu’un troisième passage soit effectué sur une ligne de contrôle ne contenant pas l’odeur du mis en cause ou de la victime. Lorsque le premier chien a terminé son travail, la même opération est réalisée avec, au moins un second chien.

Une identification est considérée comme établie lorsque deux chiens ont marqué la même odeur, chacun au cours d’au moins deux passages, et que chacun d’eux a également réalisé au moins une ligne à vide.

La science de l’odeur humaine : une signature chimique individuelle

Chaque être humain possède une odeur corporelle propre, constituée de molécules volatiles issues principalement de la dégradation bactérienne des sécrétions de la peau, comme la sueur et le sébum. Cette odeur n’est pas uniforme : elle se compose de plusieurs éléments. Seule la composante primaire de l’odeur humaine demeure stable au cours du temps. C’est précisément cette composante primaire qui est utilisée par les chiens d’odorologie pour identifier un individu, celle-ci ne pouvant pas être altérée par des composantes variables, comme le parfum.

Elle constitue une véritable signature chimique individuelle, comparable, dans son principe, à une empreinte biologique. Le chien reste le seul capable de reconnaître cette composante invariable, indispensable à l’identification. Son système olfactif explique cette performance. Lorsque les molécules odorantes pénètrent dans la cavité nasale, elles se lient aux récepteurs de l’épithélium olfactif, déclenchant un influx nerveux transmis au bulbe olfactif, puis au cerveau, où l’odeur est analysée et mémorisée.

L’odorologie, un réel outil d’enquête

L’odorologie s’appuie sur un protocole rigoureux, conçu pour garantir la fiabilité à la fois scientifique et judiciaire des résultats obtenus. Son recours s’inscrit dans un cadre juridique strict et est réservé aux infractions d’une certaine gravité, à partir du délit aggravé (vol avec violence, cambriolage aggravé, séquestration…) et jusqu’aux crimes.

Cette expertise, pleinement intégrée aux pratiques de la police scientifique, ne statue pas à elle seule sur la culpabilité d’un individu, mais apporte un élément objectif essentiel au raisonnement judiciaire. Lorsqu’un rapprochement est établi, elle atteste un fait précis : la présence d’un individu (auteurs ou victimes) sur une scène d’infraction ou un contact avec des objets.

Cette technique intervient souvent en complément d’autres moyens d’investigation, mais elle peut aussi devenir déterminante lorsque les images sont floues, les témoignages fragiles ou les traces biologiques absentes. Depuis 2003, 787 dossiers ont été traités par le plateau national d’odorologie, aboutissant à 195 identifications. Les experts ont été appelés à témoigner 44 fois devant des cours d’assises, preuve de la reconnaissance judiciaire de cette discipline.

À l’heure où les avancées technologiques occupent une place centrale dans la police scientifique, l’odorologie rappelle que le vivant demeure parfois irremplaçable. Fondée sur un processus complexe et rigoureux, conforme aux exigences de la norme NF EN ISO/CEI 17025, la comparaison d’odeurs ne laisse aucune place au hasard. Elle s’inscrit dans un faisceau d’indices, contribuant à la manifestation de la vérité.

Invisible, silencieuse, mais persistante, cette expertise rappelle que le crime laisse toujours une trace, faisant écho au principe formulé dès 1920 par Edmond Locard : « Nul ne peut agir avec l’intensité que suppose l’action criminelle sans laisser des marques multiples de son passage. »


Créé en 2023, le Centre de recherche de la police nationale pilote la recherche appliquée au sein de la police nationale. Il coordonne l’activité des opérateurs scientifiques pour développer des connaissances, des outils et des méthodes au service de l’action opérationnelle et stratégique.

The Conversation

Estelle Davet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

18.02.2026 à 11:53

Souriez, vous êtes filmés : ce que l’« emotion AI » voit vraiment sur nos visages

Charlotte De Sainte Maresville, Doctorante 3 eme année en marketing et sciences affectives, Université Bretagne Sud (UBS)

Christine Petr, Professeur des Université en Marketing - Sciences de Gestion et du Management, Université Bretagne Sud (UBS)

Aujourd’hui, on peut lire vos émotions sur votre visage et adapter un flux vidéo en temps réel en fonction de votre réaction. Vraiment ? Quelles sont les limites de l’« emotion AI », et ses utilisations autorisées ?
Texte intégral (2449 mots)

Aujourd’hui, on peut lire vos émotions sur votre visage et adapter un flux vidéo en temps réel en fonction de votre réaction. Vraiment ? Quelles sont les utilisations autorisées de l’« emotion AI », et ses limites ? Éclairage par deux spécialistes.


Dans un magasin de cosmétiques, une cliente s’arrête devant une borne interactive. Une caméra intégrée filme son visage pendant quelques secondes pendant qu’elle regarde l’écran. Le système ne cherche pas à l’identifier, mais à observer ses réactions : sourit-elle ? détourne-t-elle le regard ? fronce-t-elle légèrement les sourcils ? À partir de ces signaux, la borne adapte le contenu affiché.

Ces technologies, qui s’inscrivent dans le domaine de l’emotion AI, sont déjà utilisées pour tester des publicités, analyser l’attention d’un public lors d’une conférence ou mesurer l’engagement face à une interface.

Mais que fait réellement cette technologie lorsqu’elle « analyse » un visage ? Et jusqu’où peut-on aller lorsqu’on cherche à interpréter des expressions faciales à l’aide de l’intelligence artificielle ?

Qu’est-ce que l’« emotion AI » ?

L’emotion AI désigne un ensemble de méthodes informatiques qui consistent à analyser des expressions faciales afin d’en extraire des informations sur les réactions émotionnelles probables d’une personne.

Dans la pratique, ces systèmes captent les mouvements du visage : ouverture de la bouche, haussement des sourcils, plissement des yeux, dynamique des expressions dans le temps. L’objectif n’est pas de savoir ce qu’une personne ressent au fond d’elle-même, mais d’associer ces indices faciaux à certaines réactions comme l’intérêt, la surprise ou le désengagement. Les résultats prennent la forme de scores ou de catégories, qui indiquent la probabilité qu’une expression corresponde à un état donné.

Cette approche s’inscrit dans une longue tradition de recherche sur les expressions faciales, bien antérieure à l’intelligence artificielle. Dès les années 1970, des travaux fondateurs en psychologie ont proposé des méthodes systématiques pour décrire et coder les mouvements du visage, reposant sur des observations humaines expertes.

Ce que l’emotion AI apporte, c’est la capacité à automatiser l’analyse, à grande échelle et en temps quasi réel de ces signaux, que les chercheurs et praticiens étudient depuis longtemps de manière manuelle ou semi-automatisée. Cette automatisation s’est développée à partir des années 2000 avec l’essor de la vision par ordinateur, puis s’est accélérée avec les méthodes d’apprentissage automatique et d’apprentissage profond.

Comment ça marche ?

Les systèmes actuels analysent des flux vidéo image par image, à des fréquences comparables à celles de la vidéo standard. Selon la complexité des modèles et le matériel utilisé, l’estimation des réactions faciales peut être produite avec une latence de l’ordre de la centaine de millisecondes, ce qui permet par exemple d’adapter dynamiquement le contenu affiché sur une borne interactive.

Le logiciel détecte d’abord un visage à l’écran, puis suit les changements de son expression d’une image à l’autre. À partir de ces informations, le système calcule des descripteurs faciaux, puis les compare à des modèles appris à partir de bases de données d’expressions faciales annotées, c’est-à-dire des ensembles d’images ou de vidéos de visages pour lesquelles des experts humains ont préalablement identifié et étiqueté les mouvements ou expressions observés.

infographie
Un système automatisé d’analyse des émotions faciales déduit des probabilités que la personne observée soit neutre, heureuse, surprise, en colère, etc. Charlotte de Sainte Maresville, à l’aide d’IA génératives (Canva, pPixlr et ChatGPT), Fourni par l'auteur

En effet, lors de la phase d’apprentissage du modèle d’IA, le système a appris à associer certaines configurations faciales à des catégories ou à des scores correspondant à des réactions données. Lorsqu’il est ensuite appliqué à un nouveau visage, il ne fait que mesurer des similarités statistiques avec les données sur lesquelles il a été entraîné.

Concrètement, lorsqu’un système indique qu’un visage exprime une émotion donnée, il ne fait que dire ceci : « cette configuration faciale ressemble, statistiquement, à d’autres configurations associées à cet état dans les données d’entraînement » (on parle d’inférence probabiliste).

Ces méthodes ont aujourd’hui atteint un niveau de performance suffisant pour certains usages bien définis – par exemple lors de tests utilisateurs, d’études marketing ou dans certaines interfaces interactives, où les conditions d’observation peuvent être partiellement maîtrisées.

Quelles sont les limites techniques ?

Néanmoins, cette fiabilité reste très variable selon les contextes d’application et les objectifs poursuivis. Les performances sont en effet meilleures lorsque le visage est bien visible, avec un bon éclairage, peu de mouvements et sans éléments masquant les traits, comme des masques ou des lunettes à monture épaisse. En revanche, lorsque ces systèmes sont déployés en conditions réelles et non contrôlées, leurs résultats doivent être interprétés avec davantage d’incertitude.

Les limites de l’emotion AI tiennent d’abord à la nature même des expressions faciales. Une expression ne correspond pas toujours à une émotion unique : un sourire peut signaler la joie, la politesse, l’ironie ou l’inconfort. Le contexte joue un rôle essentiel dans l’interprétation.

infographie
Les expressions faciales ne sont pas toujours univoques. Charlotte de Sainte Maresville, à l’aide d’IA génératives (Canva, Pixlr et ChatGPT), Fourni par l'auteur

Les performances des systèmes dépendent également des données utilisées pour les entraîner. Les bases de données d’entraînement peu diversifiées peuvent conduire entre autres à des erreurs ou à des biais. Par exemple, si la base de données est principalement composée d’images de femmes de moins de 30 ans de type caucasien, le système aura du mal à interpréter correctement des mouvements faciaux d’individus de plus de 65 ans et de type asiatique.

Enfin, il ne faut pas se limiter aux seules expressions faciales, qui ne constituent qu’un canal parmi d’autres de l’expression émotionnelle. Elles fournissent des informations précieuses, mais partielles. Les systèmes d’emotion AI sont donc surtout pertinents lorsqu’ils sont utilisés en complément d’autres sources d’information, comme des indices vocaux, comportementaux ou déclaratifs. Cette approche ne remet pas en cause l’automatisation, mais en précise la portée : l’emotion AI automatise l’analyse de certains signaux observables, sans prétendre à une interprétation exhaustive des émotions.

Des risques à ne pas ignorer

Utilisée sans cadre clair, l’emotion AI peut alimenter des usages problématiques, notamment lorsqu’elle est intégrée à des dispositifs d’influence commerciale ou de surveillance.

Dans le domaine commercial, ces technologies sont par exemple envisagées pour ajuster en temps réel des messages publicitaires ou des interfaces en fonction des réactions faciales supposées des consommateurs. Ce type de personnalisation émotionnelle soulève des questions de manipulation, en particulier lorsque les personnes concernées ne sont pas pleinement informées de l’analyse de leurs réactions.


À lire aussi : Quand l’IA nous manipule : comment réguler les pratiques qui malmènent notre libre arbitre ?


Les risques sont également importants dans les contextes de surveillance, notamment lorsque l’analyse automatisée des expressions faciales est utilisée pour inférer des états mentaux ou des intentions dans des espaces publics, des environnements professionnels ou des contextes sécuritaires. De tels usages reposent sur des inférences incertaines et peuvent conduire à des interprétations erronées, voire discriminatoires.

Ces risques sont aujourd’hui largement documentés par la recherche scientifique, ainsi que par plusieurs institutions publiques et autorités de régulation. À l’échelle internationale, ces réflexions ont notamment conduit à l’adoption de recommandations éthiques, comme celles portées par l’Unesco, qui ne sont toutefois pas juridiquement contraignantes et visent surtout à orienter les pratiques et les politiques publiques.

En revanche, en Europe, le règlement sur l’IA interdit ou restreint fortement les usages de l’analyse émotionnelle automatisée lorsqu’ils visent à surveiller, classer ou évaluer des personnes dans des contextes grand public, notamment dans les espaces publics, au travail ou à l’école.

Ces technologies ne peuvent pas être utilisées pour inférer des états mentaux ou guider des décisions ayant un impact sur les individus, en raison du caractère incertain et potentiellement discriminatoire de ces inférences. En France, la mise en œuvre de ce cadre s’appuie notamment sur l’action de la Commission nationale de l’informatique et des libertés (Cnil), chargée de veiller au respect des droits fondamentaux dans le déploiement de ces technologies.

Ces débats rappellent un point essentiel : les expressions faciales ne parlent jamais d’elles-mêmes. Leur analyse repose sur des inférences incertaines, qui exigent à la fois des modèles théoriques solides, une interprétation critique des résultats et un cadre d’usage clairement défini.

Les enjeux éthiques et réglementaires ne sont donc pas extérieurs aux questions scientifiques et techniques, mais en constituent un prolongement direct. C’est précisément dans cette articulation entre compréhension fine des expressions, limites des modèles et conditions d’usage responsables que se joue l’avenir de l’emotion AI.

The Conversation

Charlotte De Sainte Maresville a reçu des financements de ANR dans le cadre d'une convention CIFRE.

Christine PETR a reçu des financements de ANR dans le cadre d'une CIFRE.

PDF
25 / 25
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Issues
Korii
Lava
La revue des médias
Time [Fr]
Mouais
Multitudes
Positivr
Regards
Slate
Smolny
Socialter
UPMagazine
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
À Contretemps
Alter-éditions
Contre-Attaque
Contretemps
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
 
  ARTS
L'Autre Quotidien
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
Gauche.Media
CETRI
ESSF
Inprecor
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
🌓