ACCÈS LIBRE UNE Politique International Environnement Technologies Culture
18.03.2025 à 16:30
Quand les IA font des rapprochements trompeurs
Texte intégral (1952 mots)

Connaissez-vous les « corrélations fallacieuses » ? Si les humains apprennent à ne pas se laisser berner par ces liens logiques apparents, les IA ont plus de mal.
Et si les ventes de dictionnaires en Allemagne étaient liées au nombre d’inscriptions à des cours de natation au Japon ? Et si la production d’énergie solaire à Taïwan influençait le cours en bourse de Netflix ?
On apprend très tôt qu’il y a une distinction entre corrélation et causalité : un lien n’explique toujours pas une cause. Notre cerveau cherche malgré tout un sens et des explications logiques lorsqu’il analyse des données : des lignes qui suivent la même inclinaison, des barres qui s’élèvent ensemble, ou encore des points qui se regroupent dans un diagramme. Instinctivement, il semble peu probable que la consommation de chocolat par habitant d’un pays soit corrélée au nombre de ses lauréats du prix Nobel : il s’agit là d’une « corrélation fallacieuse ».
Une équipe de recherche d’Apple a publié en septembre 2024 un article illustrant comment une banale modification de prénoms ou d’attributs des personnages d’un énoncé mathématique diminuait jusqu’à 10 % la part de réponses correctes fournies par diverses intelligences artificielles génératives. Ces liens, apparemment logiques, entraînent des corrélations fallacieuses. Imaginez un peu demander à une IA : « Adam a une pomme et Eve en a deux, combien ont-ils de pommes ? », puis lui demander ensuite : « Ada a une pomme et Evan en a deux, combien ont-ils de pommes ? » et obtenir des réponses différentes ! Pour un enfant, il parait clair que la présence d’Adam plutôt qu’Ada dans l’énoncé du problème ne change pas la réponse. Pour une IA, ce n’est pas si simple.
Comment se fait-il que nous arrivions à comprendre instantanément qu’il s’agit là de corrélations fallacieuses, là où les IA peuvent manifestement se laissent berner ?
Ce problème n’est pas anecdotique, puisque certains types d’IA sujettes à ces méprises logiques sont utilisés pour des systèmes critiques de sécurité informatique. Elles sont vulnérables à un type d’attaque appelé parfois apprentissage antagoniste ou « adversarial attacks ».
Pour pallier ce problème, les chercheurs développent des méthodes qui permettent de corriger les processus d’apprentissage des IA en identifiant les caractéristiques parasites qui mènent à des corrélations fallacieuses.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Comment les IA de type « GPT » apprennent-elles des corrélations fallacieuses ?
Pour comprendre comment les « GPT », ces IA qui semblent si prometteuses, se prennent les pieds dans le tapis des corrélations fallacieuses, il faut comprendre comment elles fonctionnent.
Parmi les modèles évalués dans la publication de septembre 2024 d’Apple, il y a GPT-4o, alors dernière création de la société OpenAI. Derrière le succès du GPT-4o, il y a un réseau de neurones Transformeur-Génératif-Pré-entraîné (les fameux GPT).
Génératif car il vise à générer du texte, préentraîné car il peut être réentraîné pour traiter des corpus documentaires spécialisés : contrats, composition mathématique ou analyse de code logiciel par exemple.
Les GPT appartiennent une plus grande famille de modèles appelés grands modèles de langage (LLM pour Large Language Model). Les LLM ont contribué à transformer les interactions humain-machines. Ils permettent à l’utilisateur d’interagir avec la machine via des instructions en langage naturel, appelées « prompts ». Ainsi, « écris-moi un article pour The Conversation sur le thème de l’IA Générative » est une instruction valide. En retour, le LLM répondra lui aussi en langage naturel, mais l’article en question ne serait pas publié car cela serait contraire à la charte éditoriale de The Conversation !
Pour préentraîner, les modèles, les chercheurs d’OpenIA ont utilisé un jeu de séquences de texte (de l’ordre du trillion de mots). Puis, à la manière d’un jeu de devinette, le transformeur doit analyser les séquences dont une partie est masquée, et prédire le contenu manquant. À chaque essai, les paramètres du modèle sont réajustés pour corriger la prédiction, c’est l’apprentissage.
Après l’entraînement, les paramètres appris permettent de représenter numériquement les relations sémantiques entre les mots (c’est le modèle de langage). Pour répondre à un utilisateur (c’est l’inférence), c’est le même processus : analyser la séquence (le prompt), prédire le mot suivant, puis le suivant, puis le suivant, etc.
Pour un utilisateur étranger au mécanisme à l’œuvre, le résultat sera bluffant, mais une fois encore, il ne s’agit que d’intelligence simulée par une machine. La syntaxe semble exacte, le raisonnement logique, les applications infinies : mathématiques, littérature, histoire ou géographie. Il ne faudra pas longtemps pour que les LLM se mettent à générer les copies des élèves, les mémoires des étudiants, ou soulager les chercheurs dans l’exécution de tâches fastidieuses.
Pourquoi est-ce dangereux en pratique ?
S’il existe des liens fallacieux dans les séquences d’entraînement, ces derniers seront intégrés lors de la phase d’apprentissage et régénérés dans la phase d’inférence. Ce phénomène de « corrélation fallacieuse » ne concerne pas que les LLM, mais plus globalement les réseaux de neurones profonds utilisant de grandes quantités de données à l’entraînement.
Dans le domaine de la sécurité informatique, des chercheurs avaient déjà alerté en janvier 2024 sur des symptômes similaires pour des LLM spécialisés dans la recherche de vulnérabilités logicielles : leur recherche montre comment une modification des noms de variables, pourtant sans impact sur la logique du code analysé, vient affecter jusqu’à 11 % la capacité du modèle à correctement identifier du code vulnérable. Tout comme dans le cas d’une modification des prénoms dans l’énoncé du problème mathématique des pommes ci-dessus, l’un des LLM audités a par exemple appris à associer les fonctions faisant appel à des variables nommées « maVariable » (souvent donné dans les exemples adressés aux débutants) et leur vulnérabilité. Pourtant, il n’existe aucune relation de cause à effet entre le nom de cette variable et la sûreté du logiciel. La corrélation est fallacieuse.
Ces LLM sont aujourd’hui utilisés dans les entreprises pour relire le code écrit par des développeurs, supposés garantir la détection des bugs logiciels. Les IA permettent d’identifier les vulnérabilités ou les comportements malveillants en sécurité informatique, ce travail d’analyse est donc crucial. Sans cela, un attaquant subtil pourrait profiler le système de détection pour identifier ces biais, le manipuler et jouer sur ces derniers pour le contourner.
C’est pourquoi, à l’instar des travaux sur l’analyse de code source, nous sommes en train d’explorer l’application des méthodes d’inférence causale pour améliorer la robustesse des réseaux de neurones utilisés par les systèmes de détection d’intrusions dans les réseaux informatiques.
Les travaux de Judea Pearl, prix Turing d’Informatique 2011, indiquent en effet que sous certaines conditions, il est possible de distinguer les corrélations probablement issues d’une relation causale de celles qui sont fallacieuses.
En travaillant sur un système de détection d’intrusions, outil qui surveille le trafic réseau pour détecter des activités suspectes, il est possible d’identifier les corrélations qui pourraient être à l’origine de biais. Nous pouvons ensuite les perturber (à l’instar d’un changement de prénom) et entraîner à nouveau le modèle de détection. Mathématiquement, la corrélation fallacieuse se retrouve marginalisée dans la masse d’exemples perturbés et le nouveau modèle est dé-biaisé.
L’IA est un outil, ne le laissons pas penser à notre place !
Qu’elles soient génératives ou non, les IA ayant appris des corrélations fallacieuses exposent leurs utilisateurs à des biais plus ou moins importants. Si les corrélations fallacieuses peuvent apparaître amusantes de par leur absurdité, elles peuvent également être source de discriminations.
Plus globalement, les récentes avancées en apprentissage profond, qui vont bien au-delà des IA génératives, bénéficient et vont bénéficier à de nombreux domaines, dont la sécurité informatique.
Néanmoins, bien que prometteuses, ces IA doivent être reconsidérées à leur juste place : elles peuvent certes permettre d’augmenter les capacités d’expertise, mais aussi induire des aveuglements dont les conséquences peuvent être dramatiques si l’on en vient à déléguer notre capacité de penser à des algorithmes.
Ainsi, il convient de nous éduquer au fonctionnement de ces systèmes — et à leurs limites — pour ne pas les suivre aveuglément. Le problème n’est pas tant l’absurdité d’un changement de prénom provoquant une baisse de performance, que le crédit que nous pouvons accorder au contenu généré par une IA.

Pierre-Emmanuel Arduin est membre de l'association française pour l'intelligence artificielle (AFIA).
Myriam Merad ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.03.2025 à 16:14
Microsoft augmente ses prix pour déplacer les coûts de l’IA générative sur les utilisateurs
Texte intégral (2614 mots)
En déplaçant les coûts des grands modèles d’IA générative sur les utilisateurs, les grandes entreprises de la tech cherchent à trouver un modèle d’affaire viable.
Au delà, une stratégie consisterai à faire porter les calculs non par leurs centres de données, comme c’est le cas actuellement, mais par les ordinateurs, smartphones et autres montres connectées des utilisateurs. Un changement de fonctionnement qui ne serait pas sans conséquences.
Après avoir passé un an à intégrer l’IA générative dans ses produits phares, Microsoft tente de rentrer dans ses frais en augmentant les prix, en insérant des publicités dans les produits et en annulant les baux de centres de données. Google prend des mesures similaires, en ajoutant des fonctionnalités d’IA incontournables à son service Workspace tout en augmentant les prix.
La tendance est-elle en train de s’inverser ? Les investissements massifs des dernières années dans l’IA générative vont-ils s’amenuiser ?
La situation n’est en fait pas si simple. Les entreprises technologiques sont pleinement engagées dans le déploiement d’outils d’IA générative, mais elles cherchent encore un modèle d’affaire viable – en l’occurrence, comment faire payer les utilisateurs pour ces services.
Évolution des coûts
La semaine dernière, Microsoft a annulé sans préavis certains baux de centres de données. Cette décision fait suite à l’augmentation des prix d’abonnement à sa suite phare de logiciels, 365 – jusqu’à 45 % d’augmentation. Microsoft a également lancé des versions de certains produits désormais financées par la publicité.
Le PDG du géant de la technologie, Satya Nadella, a également suggéré récemment que l’IA n’a jusqu’à présent pas produit beaucoup de valeur.
Ces actions peuvent sembler étranges dans le contexte actuel de battage médiatique autour de l’IA, qui s’accompagne d’annonces retentissantes telles que le projet de centre de données Stargate d’OpenAI, d’une valeur de 500 milliards de dollars.
À y regarder de plus près cependant, rien dans les décisions de Microsoft n’indique un recul vis-à-vis de la technologie en elle-même. Il s’agirait plutôt d’un changement de stratégie visant à rentabiliser le développement des systèmes d’IA en répercutant les coûts de manière discrète sur les consommateurs.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Le coût de l’IA générative
L’IA générative coûte cher. OpenAI, le leader du marché avec 400 millions d’utilisateurs mensuels actifs, dépense sans compter. L’année dernière, OpenAI a réalisé un chiffre d’affaires de 3,7 milliards de dollars, mais a dépensé près de 9 milliards de dollars, soit une perte nette d’environ 5 milliards de dollars.
Microsoft est le principal investisseur d’OpenAI, et fournit actuellement à l’entreprise des services de cloud computing, de sorte que les dépenses d’OpenAI coûtent également de l’argent à Microsoft.
Alors, pourquoi l’IA générative est-elle si coûteuse ? Outre la main-d’œuvre humaine, deux types de coût sont associés à ces modèles d’IA : la phase d’apprentissage (construction du modèle) et celle d’inférence (utilisation du modèle).
Si l’apprentissage représente une dépense initiale souvent importante, les coûts d’inférence augmentent avec le nombre d’utilisateurs. De surcroît, plus le modèle d’IA générative est grand, plus son exécution coûte cher.
Des alternatives plus petites et moins chères
Ainsi, une unique requête sur les modèles les plus avancés d’OpenAI peut coûter jusqu’à 1 000 dollars US, rien qu’en puissance de calcul. En janvier, le PDG d’OpenAI, Sam Altman, a déclaré que même l’abonnement de l’entreprise à 200 dollars par mois n’était pas rentable. En d’autres termes, l’entreprise perd de l’argent avec ses modèles gratuits, mais aussi avec ses modèles payants.

En pratique, l’apprentissage et l’inférence ont généralement lieu dans des centres de données. Les coûts sont élevés car les puces nécessaires à leur fonctionnement sont chères, mais c’est aussi le cas de l’électricité, des systèmes de refroidissement et de l’amortissement du matériel.
À ce jour, une grande partie des progrès en matière d’IA générative a été obtenu en visant toujours plus grand. OpenAI décrit sa dernière mise à jour comme un « modèle gigantesque et coûteux ». Néanmoins, de nombreux signes indiquent aujourd’hui que cette approche – qui consiste à faire des modèles de plus en plus grand à tout prix – pourrait même ne pas être nécessaire.
Par exemple, la société chinoise DeepSeek a fait des vagues au début de l’année en révélant qu’elle avait construit des modèles comparables aux produits phares d’OpenAI pour une infime partie du coût d’apprentissage. De même, des chercheurs de l’Allen Institute for AI (Ai2), à Seattle, et de l’université de Stanford affirment avoir entraîné un modèle pour 50 dollars seulement.
Pour résumer, il se pourrait bien que les systèmes d’IA développés et fournis par les géants de la tech ne soient pas rentables. Les coûts importants liés à la construction et à l’exploitation des centres de données sont une des raisons principales.
Que fait Microsoft ?
Après avoir investi des milliards dans l’IA générative, Microsoft tente de trouver le modèle économique qui rendra cette technologie rentable.
Au cours de l’année écoulée, le géant de la technologie a intégré le chatbot d’IA générative Copilot dans ses produits destinés aux consommateurs et aux entreprises. Et il n’est plus possible d’acheter un abonnement Microsoft 365 sans Copilot. En conséquence, les abonnés constatent des hausses de prix importantes.
Comme nous l’avons vu, exécuter les calculs nécessaires au fonctionnement des modèles d’IA générative dans les centres de données est coûteux. Il est probable que Microsoft cherche donc des moyens d’effectuer davantage ce travail directement sur les appareils des utilisateurs — ce qui déplace le coût du matériel et de son fonctionnement.
Un indice fort de cette stratégie est le petit bouton que Microsoft a commencé à mettre sur ses claviers l’année dernière, où une touche dédiée à Copilot est apparue.
Apple poursuit une stratégie similaire : la plupart des services d’IA d’Apple ne sont pas disponibles sur le cloud. Au lieu de cela, seuls les nouveaux appareils de la marque offrent des capacités d’IA. Le fait que les calculs soient effectués directement sur l’appareil commercialisé est vendu comme une fonction visant à préserver la confidentialité des données, qui n’ont pas besoin de quitter l’environnement local de l’utilisateur.
Pousser les coûts vers l’utilisateur final
Il y a des avantages à pousser le travail d’inférence de l’IA générative sur les ordinateurs, smartphones et autres montres intelligentes. Cette technique s’appelle le « edge computing », car les calculs sont faits sur les bords, à l’extrémité du réseau.
Elle peut permettre de réduire l’énergie et les ressources de calculs utilisées dans les centres de données et de diminuer le gaspillage des centres de données. Ceci a pour effet de diminuer l’empreinte carbone, thermique et hydrique de l’IA générative ; et pourrait également réduire les besoins en bande passante et accroître la confidentialité des utilisateurs.
Mais il y a aussi des inconvénients. L’edge computing transfère les coûts de calcul aux consommateurs, ce qui stimule la demande de nouveaux appareils — en dépit des préoccupations économiques et environnementales qui visent à décourager le renouvellement de nos appareils. Avec l’apparition de modèles d’IA générative plus récents et plus conséquents, cette tendance pourrait s’intensifier.

Et les problèmes ne s’arrêtent pas là. Quand les déchets électroniques sont répartis sur tout le territoire, plutôt que concentrés dans un centre de données, le recyclage est encore plus difficile. On peut aussi questionner un accès équitable aux outils d’intelligence artificielle, en particulier dans le domaine de l’éducation, si la qualité des calculs dépend du prix de votre smartphone.
Enfin, si l’edge computing peut sembler « décentralisée », elle peut également conduire à des monopoles commerciaux sur le matériel informatique. Dans le cas où une poignée d’entreprises seulement contrôlerait cette transition vers des IA génératives « délocalisées » sur nos appareils électroniques individuels, la décentralisation risque de ne pas être aussi ouverte qu’il y paraît.
À mesure que les coûts des infrastructures d’IA augmentent et que le développement des grands modèles évolue, une stratégie attrayante pour les entreprises d’IA est de répercuter les coûts sur les consommateurs. Mais si les grands utilisateurs, tels que les ministères et les universités, pourraient faire face à ces coûts, de nombreuses petites entreprises et consommateurs individuels pourraient avoir des difficultés.

Kevin Witzenberger a reçu des financements du Australian Research Council.
Michael Richardson ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
16.03.2025 à 15:14
Calculs sur le cloud : comment stocker et exploiter les données de façon sûre… et pas trop onéreuse
Texte intégral (2158 mots)
Stocker des données dans le cloud est désormais routinier, tant pour les particuliers que pour les entreprises, mais les risques de cybersécurité existent encore, notamment dans la gestion de l’authentification de l’utilisateur et le contrôle d’accès.
Les chercheurs développent de nouvelles méthodes afin d’assurer un stockage sûr, qui ne soit pas trop gourmand en énergie, et qui permette une exploitation efficace des données. Pour cela, ils proposent notamment d’effectuer les calculs directement sur des données cryptées.
En raison de la quantité énorme de données sensibles conservées en ligne, les systèmes de cloud sont devenus un outil indispensable aux opérations commerciales modernes, mais également une cible significative de cyberattaques. À l’heure actuelle, plus de 90 % des organisations s’appuient sur les services de clouds pour des opérations essentielles, et il y a plus de 3,6 milliards d’utilisateurs actifs dans le monde — ce qui signifie que 47 % de la population mondiale recourt aux services de clouds. La dépendance à leur égard est donc généralisée.
Malheureusement, cet usage intensif implique des risques accrus. Les violations de données s’accroissent, tant par leur fréquence que par leur gravité, et 44 % des entreprises ont fait part de failles dans leur environnement cloud. 14 % d’entre elles avaient connu une violation de données au cours des douze derniers mois.
Alors que les organisations transfèrent de plus en plus de données sensibles sur un cloud (près de la moitié des informations stockées sont considérées comme sensibles), la surface vulnérable aux attaques s’accroît pour les cybercriminels. Par conséquent, les incidents sont plus fréquents et à plus haut risque, puisque la perte d’informations sensibles peut avoir des effets importants, tant sur le plan financier que sur le plan de la réputation. Le coût moyen mondial d’une violation de données en 2024 était estimé à 4,88 millions de dollars.
Aujourd’hui, ce qu’on appelle le « chiffrement coté client » permet de préserver efficacement la sécurité des données et leur confidentialité. Cependant, pour que des données chiffrées soient utiles, il faut pouvoir s’en servir en toute sécurité — les exploiter en faisant des calculs, par exemple. Pour cela, il reste encore un long chemin à parcourir, car nous faisons encore face à de gros problèmes de performance et de mise à l’échelle. Les chercheurs continuent de chercher les moyens de combler cette défaillance, afin de permettre un usage massif de ces données qui soit respectueux de la confidentialité, plus efficace et accessible à des applications à grande échelle.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Les causes profondes des incidents de sécurité sur le cloud
L’authentification utilisateur et le contrôle d’accès sont parmi les mécanismes essentiels permettant d’éviter les violations de données.
L’authentification utilisateur est la procédure de vérification de l’identité des utilisateurs tentant d’accéder à des ressources sur le cloud. Elle constitue la première ligne de défense, mais elle est largement considérée comme le maillon le plus faible de la chaîne de sécurité : en effet, on estime que 81 % des violations effectuées par des hackers s’appuient sur des mots de passe volés ou faibles. Même si l’authentification utilisateur a beaucoup évolué au cours des dernières années, les attaques destinées à compromettre la procédure ont suivi le mouvement.
Le contrôle d’accès — qui consiste à réguler qui peut visualiser, utiliser ou interagir avec les ressources du cloud, que ce soient des données, des applications ou des services — est la deuxième ligne de défense. Un contrôle d’accès efficace garantit que seuls les utilisateurs ou appareils autorisés disposent des permissions indispensables pour accéder et modifier certaines ressources, ce qui minimise les risques de sécurité et évite l’accès non autorisé à ou l’utilisation frauduleuse du cloud.
Dans les environnements cloud d’aujourd’hui, ce sont les serveurs qui assurent le contrôle d’accès et en sont responsables techniquement. Ainsi, une configuration défectueuse, qu’elle soit due à une erreur humaine ou à un bug logiciel, tout comme une cyberattaque sur les serveurs, peut aboutir à des incidents graves. De fait, la NSA (National Security Agency des États-Unis) considère le défaut de configuration comme l’une des vulnérabilités principales d’un environnement cloud.
Le chiffrement côté client permet de stocker des données de façon sûre
Les données peuvent être chiffrées et déchiffrées sur les appareils de l’utilisateur avant d’être transférées sur le cloud. De cette façon, les données sont cryptées pendant les phases de transit et de stockage et donc inaccessibles à toute personne ne possédant pas les clés de décryptage, y compris les fournisseurs de services et les potentiels cyberattaquants. Tant que les clés de décryptage restent sécurisées chez l’utilisateur final, la sécurité et la confidentialité des données peuvent être assurées même en cas de compromission du compte utilisateur sur le cloud ou du serveur cloud lui-même.
Les solutions de chiffrement côté client utilisent soit des clés de chiffrement privées, soit des clés publiques (cryptographie symétrique ou asymétrique). Par exemple, Google Workspace passe par un serveur en ligne pour distribuer les clés destinées au chiffrement et au partage des données entre utilisateurs autorisés. Mais un serveur de distribution de clés de sécurité peut limiter à la fois la performance et la sécurité du processus.
Afin de parer à ce problème, MEGA, un autre service de chiffrement côté client, utilise la cryptographie à clé publique, ce qui permet d’éviter l’étape du serveur de distribution de clés en ligne. Cette stratégie nécessitant cependant une gestion des certificats électroniques sophistiquée, car le nombre de chiffrements par cryptographie asymétrique est proportionnel au nombre potentiel d’utilisateurs à partager un document, elle est difficile à appliquer à grande échelle.
À lire aussi : La chasse au gaspillage dans le cloud et les data centers
Le chiffrement côté client demande des ressources de calcul importantes. Comment dépasser cette limitation ?
Supposons qu’un hôpital veuille confier le stockage des dossiers électroniques de ses patients à un service de cloud et souhaite établir une politique spécifique d’accès aux dossiers. Avant de délocaliser un dossier, l’hôpital pourra spécifier que seuls les cardiologues de l’hôpital universitaire, ou bien les chercheurs de l’institut de sciences de la vie pourront y accéder. Notons que « CT » désigne le dossier médical chiffré et que « AP » = (cardiologue ET hôpital universitaire) OU (Chercheur ET institut de sciences de la vie) représente la politique d’accès. CT et AP sont liés sur le plan cryptographique au moment du transfert vers le cloud pour le stockage de données. À partir de là, seuls les utilisateurs remplissant les conditions de AP peuvent déchiffrer CT afin d’accéder au dossier médical décrypté.
Ce système de chiffrement peut-être mis à l’échelle, car sa politique d’accès ne nécessite pas de lister tous les individus ayant l’autorisation d’accéder aux données, seulement les caractéristiques des utilisateurs potentiels. Ce n’est pas le serveur cloud qui fait respecter le contrôle d’accès (c’est-à-dire le décryptage) aux données chiffrées. Ce contrôle d’accès est mis en œuvre grâce aux algorithmes de chiffrement et de déchiffrement eux-mêmes, qui sont démontrés sûrs en théorie.
Au-delà du stockage sécurisé : exploiter des données chiffrées efficacement
Ce type de décryptage, déjà en usage, demande de grosses ressources de calcul. Pour des appareils aux ressources limitées, ceci est un inconvénient majeur en termes d’efficacité. Pour faire face à ce problème, nous avons proposé un protocole qui réduit la consommation de l’opération de déchiffrement de deux ordres de grandeur pour l’utilisateur final en sous-traitant le plus gros de la charge de travail à un serveur cloud public.
Un autre problème essentiel dans l’utilisation du chiffrement côté client est la « révocation de l’utilisateur » : lorsqu’un utilisateur quitte le système, change de poste ou perd sa clé privée, la clé doit être révoquée afin d’empêcher un accès non autorisé à des données sensibles. Les systèmes actuels recourent principalement à l’horodatage pour retirer aux utilisateurs révoqués la possibilité de déchiffrer de nouveaux contenus. Cependant, l’horodatage nécessite des mises à jour régulières, ce qui peut demander des ressources de calcul importantes pour les plus grands systèmes. Nous avons donc proposé un système de chiffrement basé sur le matériel (hardware) et des attributs révocables, afin de rendre ce processus moins coûteux.
À lire aussi : Le « fog computing » est l’avenir du cloud – en plus frugal et plus efficace
Faire des calculs directement sur des données chiffrées
Idéalement, les serveurs devraient être capables d’accomplir des opérations importantes sur des données chiffrées sans même avoir à les décrypter, ce qui permettrait de préserver la confidentialité à chaque étape.
C’est là qu’intervient ce qu’on appelle le « chiffrement entièrement homomorphe ». Il s’agit d’une technique de chiffrement de pointe qui permet que des opérations mathématiques — en particulier addition et multiplication — soient effectuées sur des données chiffrées directement par un serveur, sans passer par le déchiffrement.
Toutefois, les systèmes de pointe actuels ne sont pas encore utilisables pour les opérations à grande échelle à cause du « bruit » : des données aléatoires sont introduites involontairement par les opérations de chiffrement. Ce bruit menace l’intégrité des résultats des calculs et rend nécessaires des opérations fréquentes de suppression des imprécisions — encore une fois, un processus coûteux en ressources de calcul, en particulier sur les systèmes de données volumineux.
Nous proposons pour ce problème une nouvelle approche de traitement direct de données chiffrées. Elle permet d’effectuer un nombre illimité d’opérations arithmétiques sans recourir au « bootstrapping » (l’opération mathématique permettant de réduire le bruit) et atteint des performances supérieures pour diverses opérations de calcul sécurisé, par exemple la réidentification respectueuse de la vie privée.
Créé en 2007 pour accélérer et pour partager les connaissances scientifiques sur les grands enjeux sociétaux, le Fonds Axa pour la recherche a soutenu près de 700 projets dans le monde entier, menés par des chercheurs originaires de 38 pays. Pour en savoir plus, consultez le site Axa Research Fund ou suivez-nous sur X (@AXAResearchFund).

Robert Deng a reçu des financements de la Singapore National Research Foundation.
13.03.2025 à 18:11
Retour sur le Sommet de Paris : l’IA « pour les gens et la planète » n’est pas celle que l’on croit
Texte intégral (3113 mots)

Le Sommet pour l’action sur l’intelligence articifielle qui s’est tenu à Paris début février 2025 se voulait optimiste. Il a abouti à une déclaration pour « une IA durable et inclusive, pour les gens et la planète ». Les discussions sur la durabilité ont principalement eu lieu au ministère de la transition écologique, où était présent un de nos chercheurs.
Il faut distinguer différents types d’IA. L’IA générative, en particulier, n’est pas indispensable pour étudier la planète ; par contre, elle consomme beaucoup d’énergie et de ressources.
Le premier Sommet sur l’IA, organisé en 2023 par le Royaume-Uni sous le nom de Sommet pour la sécurité de l’IA, s’était conclu par une déclaration prudente sur les risques existentiels que poserait l’IA vis-à-vis de l’humanité. Le second Sommet qui se tenait le mois dernier à Paris, cette fois pour l’action sur l’IA, aura abouti à une déclaration beaucoup plus optimiste centrée sur une IA « pour les gens et la planète », pour reprendre les termes de son titre.
L’événement principal du Sommet pour l’action sur l’IA, organisé au Grand Palais, accueillait essentiellement des représentantes et représentants de gouvernements, il n’avait pas vocation à rentrer dans le détail. Pour comprendre ce que peut être une IA « pour les gens » et surtout « pour la planète », comme nous allons le voir, il faut pourtant différencier plusieurs types d’IA et préciser les termes.
Le Forum pour l’IA durable, qui se tenait en marge de l’événement principal, allait dans ce sens.Il s’est tenu au ministère de la transition écologique, à deux kilomètres du Grand Palais. En une journée, 25 personnes issues d’administrations publiques, d’entreprises de la Tech et du monde académique invitées par le ministère se sont succédé sur scène. L’organisation la plus impliquée sur la question était, semble-t-il, l’ONU, représentée par cinq personnes. J’étais, moi, dans l’audience.
Ce qui s’est dit au Forum pour l’IA durable
La conversation durant le forum peut se résumer ainsi :
Big Tech : « Regardez ce que peut faire l’IA ! Elle a déjà un impact positif sur nos sociétés. »
Administrations publiques : « De quoi auriez-vous besoin pour faire progresser cette technologie pleine de promesses ? »
Big Tech : « De plus d’énergie ! »
Recherche : « Attention tout de même au coût environnemental global de l’IA générative, qui a aussi un impact négatif sur nos sociétés. »
Big Tech : « Le domaine évolue très vite. Demain, des gains en efficacité absorberont la hausse de consommation, l’impact net sera positif ! »
Recherche : « C’est sans compter sur les effets rebonds qui amplifieront le recours à l’IA générative. »
Big Tech : « Ce n’est pas à nous de décider ce que les individus feront avec l’IA. Nous faisons confiance à la créativité humaine. »
Administrations publiques : « Cette IA pourrait-elle par exemple servir à la lutte contre le réchauffement climatique ? »
Recherche : « Certainement. Mais on ne parle alors plus d’IA générative, qui n’est que la dernière génération d’une longue série d’innovations technologiques.
Administrations publiques : « Je reviens quand même à l’IA générative. On observe déjà une forte inégalité d’accès à cette technologie (selon le revenu et selon le genre). Ne devrait-on pas essayer de la rendre plus accessible ? »
Recherche : « Vous décidez. Mais il faudrait alors une collaboration plus étroite avec la Tech, pour mieux estimer son impact net réel. Nous n’avons pas assez de données fiables. Vous non plus, d’ailleurs. »
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
L’IA générative contre la planète
L’IA générative a quelque chose de spectaculaire. Elle est en effet pleine de promesses. Pourtant, quelques minutes à peine après le lancement officiel de la journée, Sarah Myers West, co-directrice de l’institut de recherche privé AI Now, rappelait un fait essentiel : le développement de cette technologie est en train de menacer la transition écologique.
À lire aussi : La climatisation et le boom de l’IA vont-ils faire dérailler les engagements climatiques des États ?
À lire aussi : Pourquoi l’IA générative consomme-t-elle tant d’énergie ?
Lorsque Donald Trump et Emmanuel Macron annoncent, les 21 janvier et 9 février respectivement, des deals à plusieurs centaines de milliards de dollars pour construire de nouveaux centres de données dédiés à l’IA, l’effet attendu est une hausse importante de la consommation électrique dans les régions concernées.
Dans l’assistance, l’association Beyond fossil fuels prend la parole pour rappeler qu’à court terme, ce surplus d’électricité sera probablement produit avec l’infrastructure existante, encore très émettrice de CO2 dans de nombreux pays.


À cet avertissement, Nvidia et Google, représentées par leur directeur et directrice sustainability (durabilité), répondent par des promesses. Le travail d’ingénierie dans ces entreprises serait tel que des gains substantiels en efficacité permettraient d’absorber la hausse actuelle de consommation due à l’IA.
Le représentant de Nvidia annonce par exemple une réduction de 75 % de la consommation électrique d’une génération à l’autre de leurs cartes graphiques. Les cartes conçues par Google, optimisées pour les réseaux de neurones artificiels, seraient encore plus performantes. Il n’y a pas eu d’opposition frontale entre les entreprises de technologie et les universitaires ce 11 février, mais, dans ses publications scientifiques, Google critique régulièrement les évaluations d’empreinte carbone faites par le monde académique, au motif qu’elles ne prendraient pas suffisamment en compte les dernières innovations.
Comme en réponse à cet argument, à la suite de Sarah Myers West, la chercheuse Sasha Luccioni prévient que l’histoire des sciences et techniques n’a jamais démontré que les gains en efficacité favorisent la sobriété. Au contraire, l’efficacité amène quasiment systématiquement un regain de consommation qui, en volume global, augmente la consommation énergétique, l’impact environnemental ou, dans le cas de l’IA, la quantité de calcul associée à une technologie. Ce phénomène porte un nom : le paradoxe de Jevons ou effet rebond.
À lire aussi : L'effet rebond : quand la surconsommation annule les efforts de sobriété
En ligne avec cet argument, l’OCDE a proposé une méthodologie de mesure d’impact environnemental qui prend en compte non seulement la production, le transport, l’exploitation et le recyclage de l’équipement informatique mais aussi les impacts indirects de l’adoption de systèmes d’IA, comme le recours systématique à ChatGPT plutôt qu’à un moteur de recherche.
L’IA non générative pour la planète
Malgré ces précautions, l’OCDE, l’Agence internationale de l’énergie, l’ONU et d’autres administrations publiques présentes au forum sont très enclines à voir l’IA comme un outil essentiel de lutte contre le réchauffement climatique. Certes, certains systèmes d’IA ont été conçus dans cet objectif. Le directeur du CivicDataLab, Gaurav Godhwani, avait été invité pour en donner un exemple : dans l’état d’Assam en Inde, où les inondations sont de plus en plus fréquentes, le CivicDataLab propose une application d’analyse de risques pour mieux anticiper ces inondations.
La communauté scientifique Climate Change AI, représentée par David Rolnick et Lynn Kaack à Paris, a fait un travail méticuleux de recensement de ce genre d’approches. Mais les chercheuses et chercheurs enchaînent avec une précision importante : l’IA regroupe sous un seul nom, fortement polysémique, de nombreuses techniques de traitement de la donnée.
Lorsque l’IA est utilisée comme outil d’aide à la décision, ce n’est plus de l’IA générative. Il n’est pas nécessaire de générer du texte ou des images pour analyser des images satellites (pour anticiper des catastrophes naturelles) ou prédire la demande en électricité d’un territoire (pour en optimiser la distribution). Or, les méthodes vouées à ces problèmes consomment nettement moins d’électricité qu’un modèle d’IA générative et sont loin de nécessiter des investissements conséquents dans des centres de données.
Dans une méta-analyse du travail de Climate Change AI, il apparaît que plus de la moitié des approches recensées sont des méthodes d’apprentissage machine connues depuis dix ou quinze ans, avant l’émergence des IA génératives. Même lorsque l’IA générative se révèle intéressante dans la lutte contre le réchauffement climatique, pour les modèles météorologiques par exemple, son échelle est nettement réduite par rapport à celle des grands modèles utilisés par ChatGPT ou Mistral. Le laboratoire d’IA de Météo France, qui avait un stand au ministère de la transition écologique, a développé un modèle pour estimer les précipitations futures, conceptuellement proche de DALL·E (le générateur d’image de ChatGPT) mais 200 fois plus petit en nombre de paramètres.
Le terme d’« IA durable », sujet central des discussions ce 11 février, est donc utilisé pour désigner deux choses bien distinctes.
Il fait d’abord référence à une IA dont on maîtriserait la consommation énergétique et l’impact environnemental, mais les orateurs et oratrices du Forum pour l’IA durable l’utilisent aussi pour désigner une IA au service du développement durable. L’IA non générative coche les deux cases ; l’IA générative grand public, jusqu’à preuve du contraire, n’en coche aucune. L’IA des entreprises de technologie et celle des administrations publiques ne se ressemblent pas.
L’IA pour les gens
Bien que l’IA générative concentre tous les investissements et menace en partie la transition écologique, les quelques centaines de millions d’usagers de ChatGPT diraient peut-être à sa décharge qu’elle est utile à toute sorte de tâches. Il serait alors justifié de lui allouer une partie non négligeable de l’électricité mondiale.
Peut-on ainsi dire que l’IA générative est une IA « pour les gens » ? Autrement dit, si ChatGPT obtenait une dérogation à l’effort mondial de lutte contre le réchauffement climatique, qui en bénéficierait réellement ?
Ce 11 février justement, Christine Zhenwei Qiang, directrice au numérique de la Banque mondiale, reprend les conclusions d’un rapport de son institution sur l’adoption de ChatGPT dans le monde. Selon ce rapport, le trafic vers ChatGPT vient à 50 % de pays à fort revenu alors que ces pays ne représentent que 13 % de la population mondiale. Les pays à faible revenu représentent à l’inverse 1 % seulement du trafic. Comme un symbole, la ministre de l’information et des communications du Rwanda, un pays à faible revenu selon la Banque mondiale, était initialement prévue dans le programme de la journée, mais n’y a finalement pas participé.
Toujours selon le rapport de la Banque mondiale, les femmes ne représentent qu’un tiers seulement des usagers. Ces deux catégorisations, par revenu et par genre, illustrent l’utilité toute relative de l’IA générative pour l’humanité.

Victor Charpenay a reçu des financements du réseau d'excellence ENFIELD (European Lighthouse to Manifest Trustworthy and Green AI) dans le cadre du programme Horizon Europe.
12.03.2025 à 17:30
Pourquoi, au ski, les femmes se blessent-elles plus au genou que les hommes ?
Texte intégral (2268 mots)
En ski de descente, près d’un quart des blessures se concentre sur la rupture du ligament croisé antérieur du genou. Fait surprenant : une skieuse « loisir » court un risque trois fois plus élevé de se blesser que ses homologues masculins. Ratio qu’on ne retrouve pas chez les professionnels. Comment l’expliquer et surtout, comment prévenir ces blessures ?
La neige, le soleil, les éclats de rire, la glisse… toutes ces belles images associées aux vacances d’hiver… et soudain la chute, le genou qui se tord entraînant une lésion du ligament croisé antérieur (LCA), la douleur… et les suites : opérations, séances de kiné, arrêt de travail… Les ruptures de ce ligament comptent à elles seules pour 20 % des blessures en ski. Tous les niveaux de pratique sont touchés, du débutant au compétiteur. Mais il faut souligner qu’une skieuse « loisir » a un taux de lésion du LCA trois fois plus élevé que celui de ses homologues masculins.
Le ligament croisé antérieur (LCA) est situé au centre de l’articulation du genou et en assure sa stabilité, aidé par des contractions musculaires. Anatomiquement, le mécanisme qui conduit à sa lésion correspond à un mouvement de « torsion » excessif du tibia sous le fémur, le genou rentrant vers l’intérieur.
Les mécanismes lésionnels et les solutions de prévention diffèrent entre la pratique compétitrice et récréative, concentrons-nous sur la pratique de loisirs, constituant la plus grande partie des vacanciers dans les stations de ski.
Le ski : un cocktail explosif pour nos genoux
Tout d’abord, pourquoi le LCA est-il si souvent touché en ski alpin ? Plusieurs explications viennent malheureusement s’additionner, faisant de ce sport un cocktail explosif pour nos genoux !
Premièrement, le mouvement traumatique du LCA peut se produire dans de nombreuses situations de ski, à vitesse faible comme élevée, lors de chutes ou non. Il peut s’agir d’une contrainte mécanique avec une surcharge du genou lors d’une réception de saut ou sur un appui puissant. Une mise en tension musculaire peut aussi expliquer cette lésion, car trop forte, trop rapide et/ou non optimale.
Une autre particularité de la pratique du ski est la position fléchie du genou entre 30° et 90° lors du virage, or c’est justement l’amplitude articulaire dans laquelle le genou est le moins stable compte tenu d’un système ligamentaire détendu. Le genou peut aussi subir une flexion excessive suite à un déplacement du centre de gravité vers l’arrière et le côté, appelé mécanisme du « pied fantôme ». Des accélérations du tibia différentes de celles du fémur peuvent se produire, entraînant un cisaillement antérieur du tibia, une hyperextension brutale.
Une autre explication vient de l’environnement de pratique, comme la présence d’obstacles fixes (arbres, pylônes) et mobiles (les autres skieurs), des conditions météorologiques particulières (températures basses, visibilité dégradée) et changeantes (variations des qualités de la neige).
Enfin, deux autres explications concernent le matériel. Les chaussures rigides maintenant fermement le pied et la cheville, c’est bien le genou, la première articulation à être sollicitée et à subir les contraintes. Quant aux skis, ils sont aussi les ennemis de nos genoux. La carre d’un ski peut mordre la neige et ainsi partir dans une direction alors que celle de l’autre ski préférerait rester dans une autre direction. Compte tenu de leurs dimensions importantes (longueur, largeur et masses), les skis peuvent aussi agir comme un levier entraînant la jambe en rotation avec un moment de force alors important.
Des stratégies de prévention efficaces pour les femmes
La diversité des mécanismes lésionnels induit une diversité de « stratégies de prévention ». Les recherches en épidémiologie parlent de facteurs prédisposant à la pathologie et les classent en deux catégories.
Malheureusement, la première catégorie est non modifiable car propre au skieur. On y retrouve des facteurs comme le sexe, les antécédents de blessures, l’âge ou certaines particularités anatomiques. Par exemple, l’hyperlaxité (élasticité excessive de certains tissus) ou la forme particulière du tibia ou du fémur jouent un rôle dans la stabilité et les contraintes ligamentaires du genou.
C’est d’ailleurs ce qui explique en partie que les femmes soient plus à risque de rupture du LCA, avec une déviation des genoux vers l’intérieur comme des jambes en X (valgus) plus marquée et une structure ligamentaire moins tolérante aux contraintes que les hommes. S’y ajoute l’influence hormonale, avec un risque qui semble évoluer en fonction des différentes phases du cycle menstruel.
Par contre, connaître cette fragilité permet d’adapter sa pratique ou son entraînement. De nouveau, l’exemple des femmes est intéressant car les skieuses de haut niveau ne présentent plus un risque accru de rupture du LCA par rapport à leurs homologues masculins. L’explication est à chercher dans la catégorie de facteurs modifiables prédisposant à la pathologie. Ils peuvent concerner le skieur lui-même, par exemple les capacités du système neuromusculaire, que ce soit la production de puissance, de résistance à la fatigue ou encore les qualités proprioceptives (la proprioception désigne la perception, par le cerveau, de la position des différentes parties du corps dans l’espace, ndlr).
Il a été montré que les qualités de production de force jouent un rôle important dans la prévention des ruptures du LCA, notamment en cas d’asymétrie importante entre les deux jambes ou de déséquilibre entre les muscles agonistes et antagonistes du genou avec une force du quadriceps supérieure aux ischio-jambiers (ratio I/Q).
D’ailleurs, les skieuses « loisirs » présentent un risque deux fois plus élevé de rupture du LCA sur leur jambe non dominante considérée comme moins forte ainsi qu’un ratio I/Q important. Des programmes de renforcement, de coordination et d’équilibre vont permettre de les améliorer, avec un focus sur le contrôle de la stabilité du genou. Cette solution est largement utilisée par les skieurs compétiteurs dans le cadre de leur entraînement. Et c’est ce qui explique en partie l’égalité de skieuses et des skieurs compétiteurs face aux lésions du LCA, les skieuses ayant corrigé les déséquilibres d’activité musculaire ratio I/Q de chaque cuisse ou entre les deux membres.
Le laboratoire LIBM que je dirige (Université Savoie Mont-Blanc) travaille activement sur la mise en place de tests originaux pour évaluer les qualités des skieurs élites.
Bien se préparer avant de skier est indispensable
Le skieur « loisir », et surtout la skieuse, devrait donc aussi préparer sa semaine de vacances à la neige avec un programme physique adapté les semaines précédentes ou mieux, une pratique sportive régulière mixant du cardio, du renforcement musculaire et de la proprioception.
Et si cela n’est pas fait alors que les vacances commencent, il est temps au moins de s’échauffer avant de s’élancer sur la piste : des mouvements de mobilité de toutes les articulations, des flexions de genoux lentes puis dynamiques, des fentes avant et c’est parti !
Il est également important de prendre en compte les signes de fatigue arrivant au cours de la journée de ski ou de la semaine, pour s’arrêter avant la blessure. Des muscles douloureux, raides et répondant moins bien, une diminution de l’attention, des mouvements moins fluides et des déséquilibres, voilà des signes à prendre en compte.
Un autre facteur modifiable par le skieur est son propre comportement, en choisissant une piste adaptée à son niveau et en réduisant sa vitesse pour rester maître de ses trajectoires.
Ces facteurs intrinsèques nécessitent que le skieur prenne conscience de ses capacités, de l’environnement montagnard et du matériel pour adapter son comportement : enfin un facteur qui place les skieuses en bonne position, car elles présentent significativement des comportements moins à risques que les skieurs !
Quant au matériel, il est aussi au cœur du dispositif des solutions de prévention des lésions du LCA. Il a été montré que les dimensions du ski influencent significativement les blessures, de par le levier important qu’ils induisent. Ainsi, des skis plus courts et moins larges sont moins dangereux pour les genoux.
Des réglages des fixations à adapter
La dernière solution, et non la moindre, concerne la fixation de ski. Sa fonction première est de maintenir le ski à la chaussure pour créer une interface ski-skieur et ainsi permettre la pratique de cette activité sportive. Mais cette fixation doit aussi être capable de se décrocher pour libérer le pied du skieur de son ski lorsque le genou est en danger. Le ski libéré ne constitue ainsi plus un levier important entraînant la jambe puis le genou en rotation ou en translation.
Pour répondre à ces fonctions opposées, les fixations abritent des ressorts mis en compression sous l’action du chaussage. En ce qui concerne le déchaussage, il sera obtenu par un mouvement de la fixation sous l’action d’un moment de force jusqu’à une position donnée.
Ainsi, régler la libération d’une fixation consiste à ajuster la compression du ressort au moment de force souhaité pour le déchaussage. Ce réglage est indiqué par une norme. La sélection d’un réglage se fait en fonction du poids du skieur et de la longueur de sa coque de chaussure de ski. Cette valeur sera ensuite adaptée de façon empirique au niveau, à l’environnement de pratique (type de neige), à la perception du skieur (engagement, peur) et, plus récemment, au sexe, en augmentant ou diminuant ce réglage. En conséquence, la détermination des forces rencontrée dans l’activité – et du réglage associé – est primordiale, tout comme le processus de déclenchement.
Or, les études épidémiologiques montrent que ce point pourrait être largement amélioré. Parmi une cohorte de 498 skieurs « loisirs » blessés au LCA, l’absence de déchaussage correspondait à 78 % des cas, et était significativement plus élevée chez les femmes que chez les hommes (83 % contre 66 %). La fréquence nettement plus faible de déchaussage des fixations chez les skieuses blessées au LCA est bien connue dans la littérature.
La piste du déchaussage semble donc être un bon moyen de prévenir les lésions du LCA chez le skieur loisir, et encore plus chez la skieuse. C’est de nouveau un des points d’attention de mon laboratoire qui travaille sur la compréhension des moments de forces lors de la pratique du ski alpin, avec un focus sur la skieuse. J’ai d’ailleurs montré que les skieuses présentaient des forces appliquées sur la fixation bien moindres que ceux des hommes, ce qui explique le non-déchaussage de leur fixation… et donc, en partie, le risque accru de lésion du LCA.
Il est par conséquent important de sensibiliser les skieurs et les skieuses au réglage adapté et sécurisant de leurs fixations, avec l’aide d’un professionnel. Ainsi, pour une skieuse, il est maintenant proposé de diminuer de 15 % la valeur des réglages par rapport à la norme ISO et de 30 %, si c’est une débutante.
En conclusion, la prévention passe par la correction des facteurs modifiables mis en cause dans les ruptures du LCA. Des solutions sont proposées, mais pas suffisamment, à en croire les données épidémiologiques qui restent élevées. Il reste encore donc du travail aux chercheurs, aux industriels, aux exploitants et aux aménageurs des stations de ski pour limiter ce risque.

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.