LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

▸ les 25 dernières parutions

16.03.2025 à 15:14

Calculs sur le cloud : comment stocker et exploiter les données de façon sûre… et pas trop onéreuse

Robert Deng, AXA Chair Professor of Cybersecurity, and Professor of Information Systems School of Information Systems / Professor of Information Systems - School of Information Systems, Singapore Management University, AXA Research Fund

Stocker des données dans le cloud est désormais routinier, mais les risques de cybersécurité existent encore, en particulier pour exploiter les données directement sur le cloud.
Texte intégral (2156 mots)

Stocker des données dans le cloud est désormais routinier, tant pour les particuliers que pour les entreprises, mais les risques de cybersécurité existent encore, notamment dans la gestion de l’authentification de l’utilisateur et le contrôle d’accès.

Les chercheurs développent de nouvelles méthodes afin d’assurer un stockage sûr, qui ne soit pas trop gourmand en énergie, et qui permette une exploitation efficace des données. Pour cela, ils proposent notamment d’effectuer les calculs directement sur des données cryptées.


En raison de la quantité énorme de données sensibles conservées en ligne, les systèmes de cloud sont devenus un outil indispensable aux opérations commerciales modernes, mais également une cible significative de cyberattaques. À l’heure actuelle, plus de 90 % des organisations s’appuient sur les services de clouds pour des opérations essentielles, et il y a plus de 3,6 milliards d’utilisateurs actifs dans le monde — ce qui signifie que 47 % de la population mondiale recourt aux services de clouds. La dépendance à leur égard est donc généralisée.

Malheureusement, cet usage intensif implique des risques accrus. Les violations de données s’accroissent, tant par leur fréquence que par leur gravité, et 44 % des entreprises ont fait part de failles dans leur environnement cloud. 14 % d’entre elles avaient connu une violation de données au cours des douze derniers mois.

Alors que les organisations transfèrent de plus en plus de données sensibles sur un cloud (près de la moitié des informations stockées sont considérées comme sensibles), la surface vulnérable aux attaques s’accroît pour les cybercriminels. Par conséquent, les incidents sont plus fréquents et à plus haut risque, puisque la perte d’informations sensibles peut avoir des effets importants, tant sur le plan financier que sur le plan de la réputation. Le coût moyen mondial d’une violation de données en 2024 était estimé à 4,88 millions de dollars.

Aujourd’hui, ce qu’on appelle le « chiffrement coté client » permet de préserver efficacement la sécurité des données et leur confidentialité. Cependant, pour que des données chiffrées soient utiles, il faut pouvoir s’en servir en toute sécurité — les exploiter en faisant des calculs, par exemple. Pour cela, il reste encore un long chemin à parcourir, car nous faisons encore face à de gros problèmes de performance et de mise à l’échelle. Les chercheurs continuent de chercher les moyens de combler cette défaillance, afin de permettre un usage massif de ces données qui soit respectueux de la confidentialité, plus efficace et accessible à des applications à grande échelle.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Les causes profondes des incidents de sécurité sur le cloud

L’authentification utilisateur et le contrôle d’accès sont parmi les mécanismes essentiels permettant d’éviter les violations de données.

L’authentification utilisateur est la procédure de vérification de l’identité des utilisateurs tentant d’accéder à des ressources sur le cloud. Elle constitue la première ligne de défense, mais elle est largement considérée comme le maillon le plus faible de la chaîne de sécurité : en effet, on estime que 81 % des violations effectuées par des hackers s’appuient sur des mots de passe volés ou faibles. Même si l’authentification utilisateur a beaucoup évolué au cours des dernières années, les attaques destinées à compromettre la procédure ont suivi le mouvement.

Le contrôle d’accès — qui consiste à réguler qui peut visualiser, utiliser ou interagir avec les ressources du cloud, que ce soient des données, des applications ou des services — est la deuxième ligne de défense. Un contrôle d’accès efficace garantit que seuls les utilisateurs ou appareils autorisés disposent des permissions indispensables pour accéder et modifier certaines ressources, ce qui minimise les risques de sécurité et évite l’accès non autorisé à ou l’utilisation frauduleuse du cloud.

Dans les environnements cloud d’aujourd’hui, ce sont les serveurs qui assurent le contrôle d’accès et en sont responsables techniquement. Ainsi, une configuration défectueuse, qu’elle soit due à une erreur humaine ou à un bug logiciel, tout comme une cyberattaque sur les serveurs, peut aboutir à des incidents graves. De fait, la NSA (National Security Agency des États-Unis) considère le défaut de configuration comme l’une des vulnérabilités principales d’un environnement cloud.

Le chiffrement côté client permet de stocker des données de façon sûre

Les données peuvent être chiffrées et déchiffrées sur les appareils de l’utilisateur avant d’être transférées sur le cloud. De cette façon, les données sont cryptées pendant les phases de transit et de stockage et donc inaccessibles à toute personne ne possédant pas les clés de décryptage, y compris les fournisseurs de services et les potentiels cyberattaquants. Tant que les clés de décryptage restent sécurisées chez l’utilisateur final, la sécurité et la confidentialité des données peuvent être assurées même en cas de compromission du compte utilisateur sur le cloud ou du serveur cloud lui-même.

Les solutions de chiffrement côté client utilisent soit des clés de chiffrement privées, soit des clés publiques (cryptographie symétrique ou asymétrique). Par exemple, Google Workspace passe par un serveur en ligne pour distribuer les clés destinées au chiffrement et au partage des données entre utilisateurs autorisés. Mais un serveur de distribution de clés de sécurité peut limiter à la fois la performance et la sécurité du processus.

Afin de parer à ce problème, MEGA, un autre service de chiffrement côté client, utilise la cryptographie à clé publique, ce qui permet d’éviter l’étape du serveur de distribution de clés en ligne. Cette stratégie nécessitant cependant une gestion des certificats électroniques sophistiquée, car le nombre de chiffrements par cryptographie asymétrique est proportionnel au nombre potentiel d’utilisateurs à partager un document, elle est difficile à appliquer à grande échelle.


À lire aussi : La chasse au gaspillage dans le cloud et les data centers


Le chiffrement côté client demande des ressources de calcul importantes. Comment dépasser cette limitation ?

Supposons qu’un hôpital veuille confier le stockage des dossiers électroniques de ses patients à un service de cloud et souhaite établir une politique spécifique d’accès aux dossiers. Avant de délocaliser un dossier, l’hôpital pourra spécifier que seuls les cardiologues de l’hôpital universitaire, ou bien les chercheurs de l’institut de sciences de la vie pourront y accéder. Notons que « CT » désigne le dossier médical chiffré et que « AP » = (cardiologue ET hôpital universitaire) OU (Chercheur ET institut de sciences de la vie) représente la politique d’accès. CT et AP sont liés sur le plan cryptographique au moment du transfert vers le cloud pour le stockage de données. À partir de là, seuls les utilisateurs remplissant les conditions de AP peuvent déchiffrer CT afin d’accéder au dossier médical décrypté.

Ce système de chiffrement peut-être mis à l’échelle, car sa politique d’accès ne nécessite pas de lister tous les individus ayant l’autorisation d’accéder aux données, seulement les caractéristiques des utilisateurs potentiels. Ce n’est pas le serveur cloud qui fait respecter le contrôle d’accès (c’est-à-dire le décryptage) aux données chiffrées. Ce contrôle d’accès est mis en œuvre grâce aux algorithmes de chiffrement et de déchiffrement eux-mêmes, qui sont démontrés sûrs en théorie.

Au-delà du stockage sécurisé : exploiter des données chiffrées efficacement

Ce type de décryptage, déjà en usage, demande de grosses ressources de calcul. Pour des appareils aux ressources limitées, ceci est un inconvénient majeur en termes d’efficacité. Pour faire face à ce problème, nous avons proposé un protocole qui réduit la consommation de l’opération de déchiffrement de deux ordres de grandeur pour l’utilisateur final en sous-traitant le plus gros de la charge de travail à un serveur cloud public.

Un autre problème essentiel dans l’utilisation du chiffrement côté client est la « révocation de l’utilisateur » : lorsqu’un utilisateur quitte le système, change de poste ou perd sa clé privée, la clé doit être révoquée afin d’empêcher un accès non autorisé à des données sensibles. Les systèmes actuels recourent principalement à l’horodatage pour retirer aux utilisateurs révoqués la possibilité de déchiffrer de nouveaux contenus. Cependant, l’horodatage nécessite des mises à jour régulières, ce qui peut demander des ressources de calcul importantes pour les plus grands systèmes. Nous avons donc proposé un système de chiffrement basé sur le matériel (hardware) et des attributs révocables, afin de rendre ce processus moins coûteux.


À lire aussi : Le « fog computing » est l’avenir du cloud – en plus frugal et plus efficace


Faire des calculs directement sur des données chiffrées

Idéalement, les serveurs devraient être capables d’accomplir des opérations importantes sur des données chiffrées sans même avoir à les décrypter, ce qui permettrait de préserver la confidentialité à chaque étape.

C’est là qu’intervient ce qu’on appelle le « chiffrement entièrement homomorphe ». Il s’agit d’une technique de chiffrement de pointe qui permet que des opérations mathématiques — en particulier addition et multiplication — soient effectuées sur des données chiffrées directement par un serveur, sans passer par le déchiffrement.

Toutefois, les systèmes de pointe actuels ne sont pas encore utilisables pour les opérations à grande échelle à cause du « bruit » : des données aléatoires sont introduites involontairement par les opérations de chiffrement. Ce bruit menace l’intégrité des résultats des calculs et rend nécessaires des opérations fréquentes de suppression des imprécisions — encore une fois, un processus coûteux en ressources de calcul, en particulier sur les systèmes de données volumineux.

Nous proposons pour ce problème une nouvelle approche de traitement direct de données chiffrées. Elle permet d’effectuer un nombre illimité d’opérations arithmétiques sans recourir au « bootstrapping » (l’opération mathématique permettant de réduire le bruit) et atteint des performances supérieures pour diverses opérations de calcul sécurisé, par exemple la réidentification respectueuse de la vie privée.


Créé en 2007 pour accélérer et pour partager les connaissances scientifiques sur les grands enjeux sociétaux, le Fonds Axa pour la recherche a soutenu près de 700 projets dans le monde entier, menés par des chercheurs originaires de 38 pays. Pour en savoir plus, consultez le site Axa Research Fund ou suivez-nous sur X (@AXAResearchFund).

The Conversation

Robert Deng a reçu des financements de la Singapore National Research Foundation.

13.03.2025 à 18:11

Retour sur le Sommet de Paris : l’IA « pour les gens et la planète » n’est pas celle que l’on croit

Victor Charpenay, Enseignant-chercheur au laboratoire d'informatique, de modélisation et d'optimisation des systèmes (LIMOS), Mines Saint-Etienne – Institut Mines-Télécom

L’IA durable recouvre deux concepts : une IA respectueuse de la planète et ses habitants, et une IA qui permet de préserver l’environnement. Les systèmes d’IA ne cochent pas tous les deux cases.
Texte intégral (3111 mots)
L’IA générative n’est pas indispensable pour étudier la planète ; par contre, elle consomme beaucoup d’énergie et de ressources. YutongLiu /BetterImagesofAI/JoiningtheTable, CC BY

Le Sommet pour l’action sur l’intelligence articifielle qui s’est tenu à Paris début février 2025 se voulait optimiste. Il a abouti à une déclaration pour « une IA durable et inclusive, pour les gens et la planète ». Les discussions sur la durabilité ont principalement eu lieu au ministère de la transition écologique, où était présent un de nos chercheurs.

Il faut distinguer différents types d’IA. L’IA générative, en particulier, n’est pas indispensable pour étudier la planète ; par contre, elle consomme beaucoup d’énergie et de ressources.


Le premier Sommet sur l’IA, organisé en 2023 par le Royaume-Uni sous le nom de Sommet pour la sécurité de l’IA, s’était conclu par une déclaration prudente sur les risques existentiels que poserait l’IA vis-à-vis de l’humanité. Le second Sommet qui se tenait le mois dernier à Paris, cette fois pour l’action sur l’IA, aura abouti à une déclaration beaucoup plus optimiste centrée sur une IA « pour les gens et la planète », pour reprendre les termes de son titre.

L’événement principal du Sommet pour l’action sur l’IA, organisé au Grand Palais, accueillait essentiellement des représentantes et représentants de gouvernements, il n’avait pas vocation à rentrer dans le détail. Pour comprendre ce que peut être une IA « pour les gens » et surtout « pour la planète », comme nous allons le voir, il faut pourtant différencier plusieurs types d’IA et préciser les termes.

Le Forum pour l’IA durable, qui se tenait en marge de l’événement principal, allait dans ce sens.Il s’est tenu au ministère de la transition écologique, à deux kilomètres du Grand Palais. En une journée, 25 personnes issues d’administrations publiques, d’entreprises de la Tech et du monde académique invitées par le ministère se sont succédé sur scène. L’organisation la plus impliquée sur la question était, semble-t-il, l’ONU, représentée par cinq personnes. J’étais, moi, dans l’audience.

Ce qui s’est dit au Forum pour l’IA durable

La conversation durant le forum peut se résumer ainsi :

Big Tech : « Regardez ce que peut faire l’IA ! Elle a déjà un impact positif sur nos sociétés. »

Administrations publiques : « De quoi auriez-vous besoin pour faire progresser cette technologie pleine de promesses ? »

Big Tech : « De plus d’énergie ! »

Recherche : « Attention tout de même au coût environnemental global de l’IA générative, qui a aussi un impact négatif sur nos sociétés. »

Big Tech : « Le domaine évolue très vite. Demain, des gains en efficacité absorberont la hausse de consommation, l’impact net sera positif ! »

Recherche : « C’est sans compter sur les effets rebonds qui amplifieront le recours à l’IA générative. »

Big Tech : « Ce n’est pas à nous de décider ce que les individus feront avec l’IA. Nous faisons confiance à la créativité humaine. »

Administrations publiques : « Cette IA pourrait-elle par exemple servir à la lutte contre le réchauffement climatique ? »

Recherche : « Certainement. Mais on ne parle alors plus d’IA générative, qui n’est que la dernière génération d’une longue série d’innovations technologiques.

Administrations publiques : « Je reviens quand même à l’IA générative. On observe déjà une forte inégalité d’accès à cette technologie (selon le revenu et selon le genre). Ne devrait-on pas essayer de la rendre plus accessible ? »

Recherche : « Vous décidez. Mais il faudrait alors une collaboration plus étroite avec la Tech, pour mieux estimer son impact net réel. Nous n’avons pas assez de données fiables. Vous non plus, d’ailleurs. »


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


L’IA générative contre la planète

L’IA générative a quelque chose de spectaculaire. Elle est en effet pleine de promesses. Pourtant, quelques minutes à peine après le lancement officiel de la journée, Sarah Myers West, co-directrice de l’institut de recherche privé AI  Now, rappelait un fait essentiel : le développement de cette technologie est en train de menacer la transition écologique.


À lire aussi : La climatisation et le boom de l’IA vont-ils faire dérailler les engagements climatiques des États ?



À lire aussi : Pourquoi l’IA générative consomme-t-elle tant d’énergie ?


Lorsque Donald Trump et Emmanuel Macron annoncent, les 21 janvier et 9 février respectivement, des deals à plusieurs centaines de milliards de dollars pour construire de nouveaux centres de données dédiés à l’IA, l’effet attendu est une hausse importante de la consommation électrique dans les régions concernées.

Dans l’assistance, l’association Beyond fossil fuels prend la parole pour rappeler qu’à court terme, ce surplus d’électricité sera probablement produit avec l’infrastructure existante, encore très émettrice de CO2 dans de nombreux pays.

graphique de demande d’éléctricité en Irlande et Virginie
Estimation par l’Agence internationale de l’énergie de la demande en électricité des centres de données en Irlande et en Virginie (l’État « capitale » des centres de données aux États-Unis), en pourcentage de la demande totale d’électricité de ces États. Agence internationale de l’énergie, CC BY
graphique demande d’électricité des data center aux États-Unis, Europe, Chine, Royaume-Uni
Estimation par l’Agence internationale de l’énergie de la demande en électricité des centres de données dans différentes régions du monde, en pourcentage de la demande totale d’électricité. Agence internationale de l’énergie, CC BY

À cet avertissement, Nvidia et Google, représentées par leur directeur et directrice sustainability (durabilité), répondent par des promesses. Le travail d’ingénierie dans ces entreprises serait tel que des gains substantiels en efficacité permettraient d’absorber la hausse actuelle de consommation due à l’IA.

Le représentant de Nvidia annonce par exemple une réduction de 75 % de la consommation électrique d’une génération à l’autre de leurs cartes graphiques. Les cartes conçues par Google, optimisées pour les réseaux de neurones artificiels, seraient encore plus performantes. Il n’y a pas eu d’opposition frontale entre les entreprises de technologie et les universitaires ce 11 février, mais, dans ses publications scientifiques, Google critique régulièrement les évaluations d’empreinte carbone faites par le monde académique, au motif qu’elles ne prendraient pas suffisamment en compte les dernières innovations.

Comme en réponse à cet argument, à la suite de Sarah Myers West, la chercheuse Sasha Luccioni prévient que l’histoire des sciences et techniques n’a jamais démontré que les gains en efficacité favorisent la sobriété. Au contraire, l’efficacité amène quasiment systématiquement un regain de consommation qui, en volume global, augmente la consommation énergétique, l’impact environnemental ou, dans le cas de l’IA, la quantité de calcul associée à une technologie. Ce phénomène porte un nom : le paradoxe de Jevons ou effet rebond.


À lire aussi : L'effet rebond : quand la surconsommation annule les efforts de sobriété


En ligne avec cet argument, l’OCDE a proposé une méthodologie de mesure d’impact environnemental qui prend en compte non seulement la production, le transport, l’exploitation et le recyclage de l’équipement informatique mais aussi les impacts indirects de l’adoption de systèmes d’IA, comme le recours systématique à ChatGPT plutôt qu’à un moteur de recherche.

L’IA non générative pour la planète

Malgré ces précautions, l’OCDE, l’Agence internationale de l’énergie, l’ONU et d’autres administrations publiques présentes au forum sont très enclines à voir l’IA comme un outil essentiel de lutte contre le réchauffement climatique. Certes, certains systèmes d’IA ont été conçus dans cet objectif. Le directeur du CivicDataLab, Gaurav Godhwani, avait été invité pour en donner un exemple : dans l’état d’Assam en Inde, où les inondations sont de plus en plus fréquentes, le CivicDataLab propose une application d’analyse de risques pour mieux anticiper ces inondations.

La communauté scientifique Climate Change AI, représentée par David Rolnick et Lynn Kaack à Paris, a fait un travail méticuleux de recensement de ce genre d’approches. Mais les chercheuses et chercheurs enchaînent avec une précision importante : l’IA regroupe sous un seul nom, fortement polysémique, de nombreuses techniques de traitement de la donnée.

Lorsque l’IA est utilisée comme outil d’aide à la décision, ce n’est plus de l’IA générative. Il n’est pas nécessaire de générer du texte ou des images pour analyser des images satellites (pour anticiper des catastrophes naturelles) ou prédire la demande en électricité d’un territoire (pour en optimiser la distribution). Or, les méthodes vouées à ces problèmes consomment nettement moins d’électricité qu’un modèle d’IA générative et sont loin de nécessiter des investissements conséquents dans des centres de données.

Dans une méta-analyse du travail de Climate Change AI, il apparaît que plus de la moitié des approches recensées sont des méthodes d’apprentissage machine connues depuis dix ou quinze  ans, avant l’émergence des IA génératives. Même lorsque l’IA générative se révèle intéressante dans la lutte contre le réchauffement climatique, pour les modèles météorologiques par exemple, son échelle est nettement réduite par rapport à celle des grands modèles utilisés par ChatGPT ou Mistral. Le laboratoire d’IA de Météo France, qui avait un stand au ministère de la transition écologique, a développé un modèle pour estimer les précipitations futures, conceptuellement proche de DALL·E (le générateur d’image de ChatGPT) mais 200 fois plus petit en nombre de paramètres.

Le terme d’« IA durable », sujet central des discussions ce 11 février, est donc utilisé pour désigner deux choses bien distinctes.

Il fait d’abord référence à une IA dont on maîtriserait la consommation énergétique et l’impact environnemental, mais les orateurs et oratrices du Forum pour l’IA durable l’utilisent aussi pour désigner une IA au service du développement durable. L’IA non générative coche les deux cases ; l’IA générative grand public, jusqu’à preuve du contraire, n’en coche aucune. L’IA des entreprises de technologie et celle des administrations publiques ne se ressemblent pas.

L’IA pour les gens

Bien que l’IA générative concentre tous les investissements et menace en partie la transition écologique, les quelques centaines de millions d’usagers de ChatGPT diraient peut-être à sa décharge qu’elle est utile à toute sorte de tâches. Il serait alors justifié de lui allouer une partie non négligeable de l’électricité mondiale.

Peut-on ainsi dire que l’IA générative est une IA « pour les gens » ? Autrement dit, si ChatGPT obtenait une dérogation à l’effort mondial de lutte contre le réchauffement climatique, qui en bénéficierait réellement ?

Ce 11 février justement, Christine Zhenwei Qiang, directrice au numérique de la Banque mondiale, reprend les conclusions d’un rapport de son institution sur l’adoption de ChatGPT dans le monde. Selon ce rapport, le trafic vers ChatGPT vient à 50 % de pays à fort revenu alors que ces pays ne représentent que 13 % de la population mondiale. Les pays à faible revenu représentent à l’inverse 1 % seulement du trafic. Comme un symbole, la ministre de l’information et des communications du Rwanda, un pays à faible revenu selon la Banque mondiale, était initialement prévue dans le programme de la journée, mais n’y a finalement pas participé.

Toujours selon le rapport de la Banque mondiale, les femmes ne représentent qu’un tiers seulement des usagers. Ces deux catégorisations, par revenu et par genre, illustrent l’utilité toute relative de l’IA générative pour l’humanité.

The Conversation

Victor Charpenay a reçu des financements du réseau d'excellence ENFIELD (European Lighthouse to Manifest Trustworthy and Green AI) dans le cadre du programme Horizon Europe.

12.03.2025 à 17:30

Pourquoi, au ski, les femmes se blessent-elles plus au genou que les hommes ?

Frédérique Hintzy, Professeure des Universités en sciences du Sport, Université Savoie Mont Blanc

Brice Picot, Maître de conférence - kinésithérapeute, Université Savoie Mont Blanc

En ski de descente, 20 % des blessures sont dues à la rupture du ligament croisé antérieur du genou. Une skieuse « loisir » court un risque trois fois plus élevé de se blesser que ses homologues masculins.
Texte intégral (2266 mots)

En ski de descente, près d’un quart des blessures se concentre sur la rupture du ligament croisé antérieur du genou. Fait surprenant : une skieuse « loisir » court un risque trois fois plus élevé de se blesser que ses homologues masculins. Ratio qu’on ne retrouve pas chez les professionnels. Comment l’expliquer et surtout, comment prévenir ces blessures ?


La neige, le soleil, les éclats de rire, la glisse… toutes ces belles images associées aux vacances d’hiver… et soudain la chute, le genou qui se tord entraînant une lésion du ligament croisé antérieur (LCA), la douleur… et les suites : opérations, séances de kiné, arrêt de travail… Les ruptures de ce ligament comptent à elles seules pour 20 % des blessures en ski. Tous les niveaux de pratique sont touchés, du débutant au compétiteur. Mais il faut souligner qu’une skieuse « loisir » a un taux de lésion du LCA trois fois plus élevé que celui de ses homologues masculins.

Le ligament croisé antérieur (LCA) est situé au centre de l’articulation du genou et en assure sa stabilité, aidé par des contractions musculaires. Anatomiquement, le mécanisme qui conduit à sa lésion correspond à un mouvement de « torsion » excessif du tibia sous le fémur, le genou rentrant vers l’intérieur.

Les mécanismes lésionnels et les solutions de prévention diffèrent entre la pratique compétitrice et récréative, concentrons-nous sur la pratique de loisirs, constituant la plus grande partie des vacanciers dans les stations de ski.

Le ski : un cocktail explosif pour nos genoux

Tout d’abord, pourquoi le LCA est-il si souvent touché en ski alpin ? Plusieurs explications viennent malheureusement s’additionner, faisant de ce sport un cocktail explosif pour nos genoux !

Premièrement, le mouvement traumatique du LCA peut se produire dans de nombreuses situations de ski, à vitesse faible comme élevée, lors de chutes ou non. Il peut s’agir d’une contrainte mécanique avec une surcharge du genou lors d’une réception de saut ou sur un appui puissant. Une mise en tension musculaire peut aussi expliquer cette lésion, car trop forte, trop rapide et/ou non optimale.

Une autre particularité de la pratique du ski est la position fléchie du genou entre 30° et 90° lors du virage, or c’est justement l’amplitude articulaire dans laquelle le genou est le moins stable compte tenu d’un système ligamentaire détendu. Le genou peut aussi subir une flexion excessive suite à un déplacement du centre de gravité vers l’arrière et le côté, appelé mécanisme du « pied fantôme ». Des accélérations du tibia différentes de celles du fémur peuvent se produire, entraînant un cisaillement antérieur du tibia, une hyperextension brutale.

Une autre explication vient de l’environnement de pratique, comme la présence d’obstacles fixes (arbres, pylônes) et mobiles (les autres skieurs), des conditions météorologiques particulières (températures basses, visibilité dégradée) et changeantes (variations des qualités de la neige).

Enfin, deux autres explications concernent le matériel. Les chaussures rigides maintenant fermement le pied et la cheville, c’est bien le genou, la première articulation à être sollicitée et à subir les contraintes. Quant aux skis, ils sont aussi les ennemis de nos genoux. La carre d’un ski peut mordre la neige et ainsi partir dans une direction alors que celle de l’autre ski préférerait rester dans une autre direction. Compte tenu de leurs dimensions importantes (longueur, largeur et masses), les skis peuvent aussi agir comme un levier entraînant la jambe en rotation avec un moment de force alors important.

Des stratégies de prévention efficaces pour les femmes

La diversité des mécanismes lésionnels induit une diversité de « stratégies de prévention ». Les recherches en épidémiologie parlent de facteurs prédisposant à la pathologie et les classent en deux catégories.

Malheureusement, la première catégorie est non modifiable car propre au skieur. On y retrouve des facteurs comme le sexe, les antécédents de blessures, l’âge ou certaines particularités anatomiques. Par exemple, l’hyperlaxité (élasticité excessive de certains tissus) ou la forme particulière du tibia ou du fémur jouent un rôle dans la stabilité et les contraintes ligamentaires du genou.

C’est d’ailleurs ce qui explique en partie que les femmes soient plus à risque de rupture du LCA, avec une déviation des genoux vers l’intérieur comme des jambes en X (valgus) plus marquée et une structure ligamentaire moins tolérante aux contraintes que les hommes. S’y ajoute l’influence hormonale, avec un risque qui semble évoluer en fonction des différentes phases du cycle menstruel.

Par contre, connaître cette fragilité permet d’adapter sa pratique ou son entraînement. De nouveau, l’exemple des femmes est intéressant car les skieuses de haut niveau ne présentent plus un risque accru de rupture du LCA par rapport à leurs homologues masculins. L’explication est à chercher dans la catégorie de facteurs modifiables prédisposant à la pathologie. Ils peuvent concerner le skieur lui-même, par exemple les capacités du système neuromusculaire, que ce soit la production de puissance, de résistance à la fatigue ou encore les qualités proprioceptives (la proprioception désigne la perception, par le cerveau, de la position des différentes parties du corps dans l’espace, ndlr).

Il a été montré que les qualités de production de force jouent un rôle important dans la prévention des ruptures du LCA, notamment en cas d’asymétrie importante entre les deux jambes ou de déséquilibre entre les muscles agonistes et antagonistes du genou avec une force du quadriceps supérieure aux ischio-jambiers (ratio I/Q).

D’ailleurs, les skieuses « loisirs » présentent un risque deux fois plus élevé de rupture du LCA sur leur jambe non dominante considérée comme moins forte ainsi qu’un ratio I/Q important. Des programmes de renforcement, de coordination et d’équilibre vont permettre de les améliorer, avec un focus sur le contrôle de la stabilité du genou. Cette solution est largement utilisée par les skieurs compétiteurs dans le cadre de leur entraînement. Et c’est ce qui explique en partie l’égalité de skieuses et des skieurs compétiteurs face aux lésions du LCA, les skieuses ayant corrigé les déséquilibres d’activité musculaire ratio I/Q de chaque cuisse ou entre les deux membres.

Le laboratoire LIBM que je dirige (Université Savoie Mont-Blanc) travaille activement sur la mise en place de tests originaux pour évaluer les qualités des skieurs élites.

Bien se préparer avant de skier est indispensable

Le skieur « loisir », et surtout la skieuse, devrait donc aussi préparer sa semaine de vacances à la neige avec un programme physique adapté les semaines précédentes ou mieux, une pratique sportive régulière mixant du cardio, du renforcement musculaire et de la proprioception.

Et si cela n’est pas fait alors que les vacances commencent, il est temps au moins de s’échauffer avant de s’élancer sur la piste : des mouvements de mobilité de toutes les articulations, des flexions de genoux lentes puis dynamiques, des fentes avant et c’est parti !

Il est également important de prendre en compte les signes de fatigue arrivant au cours de la journée de ski ou de la semaine, pour s’arrêter avant la blessure. Des muscles douloureux, raides et répondant moins bien, une diminution de l’attention, des mouvements moins fluides et des déséquilibres, voilà des signes à prendre en compte.

Un autre facteur modifiable par le skieur est son propre comportement, en choisissant une piste adaptée à son niveau et en réduisant sa vitesse pour rester maître de ses trajectoires.

Ces facteurs intrinsèques nécessitent que le skieur prenne conscience de ses capacités, de l’environnement montagnard et du matériel pour adapter son comportement : enfin un facteur qui place les skieuses en bonne position, car elles présentent significativement des comportements moins à risques que les skieurs !

Quant au matériel, il est aussi au cœur du dispositif des solutions de prévention des lésions du LCA. Il a été montré que les dimensions du ski influencent significativement les blessures, de par le levier important qu’ils induisent. Ainsi, des skis plus courts et moins larges sont moins dangereux pour les genoux.

Des réglages des fixations à adapter

La dernière solution, et non la moindre, concerne la fixation de ski. Sa fonction première est de maintenir le ski à la chaussure pour créer une interface ski-skieur et ainsi permettre la pratique de cette activité sportive. Mais cette fixation doit aussi être capable de se décrocher pour libérer le pied du skieur de son ski lorsque le genou est en danger. Le ski libéré ne constitue ainsi plus un levier important entraînant la jambe puis le genou en rotation ou en translation.

Pour répondre à ces fonctions opposées, les fixations abritent des ressorts mis en compression sous l’action du chaussage. En ce qui concerne le déchaussage, il sera obtenu par un mouvement de la fixation sous l’action d’un moment de force jusqu’à une position donnée.

Ainsi, régler la libération d’une fixation consiste à ajuster la compression du ressort au moment de force souhaité pour le déchaussage. Ce réglage est indiqué par une norme. La sélection d’un réglage se fait en fonction du poids du skieur et de la longueur de sa coque de chaussure de ski. Cette valeur sera ensuite adaptée de façon empirique au niveau, à l’environnement de pratique (type de neige), à la perception du skieur (engagement, peur) et, plus récemment, au sexe, en augmentant ou diminuant ce réglage. En conséquence, la détermination des forces rencontrée dans l’activité – et du réglage associé  – est primordiale, tout comme le processus de déclenchement.

Or, les études épidémiologiques montrent que ce point pourrait être largement amélioré. Parmi une cohorte de 498 skieurs « loisirs » blessés au LCA, l’absence de déchaussage correspondait à 78 % des cas, et était significativement plus élevée chez les femmes que chez les hommes (83 % contre 66 %). La fréquence nettement plus faible de déchaussage des fixations chez les skieuses blessées au LCA est bien connue dans la littérature.

La piste du déchaussage semble donc être un bon moyen de prévenir les lésions du LCA chez le skieur loisir, et encore plus chez la skieuse. C’est de nouveau un des points d’attention de mon laboratoire qui travaille sur la compréhension des moments de forces lors de la pratique du ski alpin, avec un focus sur la skieuse. J’ai d’ailleurs montré que les skieuses présentaient des forces appliquées sur la fixation bien moindres que ceux des hommes, ce qui explique le non-déchaussage de leur fixation… et donc, en partie, le risque accru de lésion du LCA.

Il est par conséquent important de sensibiliser les skieurs et les skieuses au réglage adapté et sécurisant de leurs fixations, avec l’aide d’un professionnel. Ainsi, pour une skieuse, il est maintenant proposé de diminuer de 15 % la valeur des réglages par rapport à la norme ISO et de 30 %, si c’est une débutante.

En conclusion, la prévention passe par la correction des facteurs modifiables mis en cause dans les ruptures du LCA. Des solutions sont proposées, mais pas suffisamment, à en croire les données épidémiologiques qui restent élevées. Il reste encore donc du travail aux chercheurs, aux industriels, aux exploitants et aux aménageurs des stations de ski pour limiter ce risque.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

10.03.2025 à 16:21

Toujours plus de consommation d’hydrocarbures pour l’IA ?

Stéphane Grumbach, Directeur de recherche Inria, ENS de Lyon

Gary Dirks, Senior Director Global Futures Laboratory, Arizona State University

Sander van der Leeuw, Emeritus Professor of Anthropology and Sustainability, Arizona State University

L’IA, et plus généralement le numérique, demandent des capacités énergétiques de plus en plus massives. Comment allier lutte contre le changement climatique, souveraineté et sécurité ?
Texte intégral (1648 mots)
Les forages pétroliers ne sont pas près de s’arrêter. Colton Sturgeon/Unsplash, CC BY

L’intelligence artificielle, et plus généralement le numérique, demandent des capacités énergétiques de plus en plus massives. Comment allier lutte contre le changement climatique, souveraineté et sécurité ?


Au moment où le président américain signait l’executive order visant à assurer la domination américaine sur l’intelligence artificielle, l’irruption du chatbot chinois DeepSeek a semé une vague de panique. Les marchés de la tech et de l’énergie ont accusé le coup, propulsant Nvidia, qui produit des composants essentiels pour l’IA, dans une chute de presque 600 milliards de dollars, la plus grande perte de l’histoire en un jour.

Il a suffit d’une innovation chinoise se revendiquant d’une plus grande frugalité, tant dans son développement que pour son fonctionnement, pour chahuter la course à l’intelligence artificielle. DeepSeek ouvre la voie pour des développements moins gourmands en calcul.

Le développement de l’intelligence artificielle et de manière plus générale de l’industrie numérique est l’une des toutes premières priorités tant pour les États-Unis que pour la Chine.

Dans la rivalité qui se joue entre les deux superpuissances, c’est une nécessité à la fois pour assurer leur sécurité intérieure et pour projeter leur puissance hors frontières. La croissance des besoins énergétiques de ces industries est donc une question secondaire, même si elle doit conduire à une augmentation de la production d’hydrocarbures. Aucune politique de réduction des émissions de gaz à effet de serre ne pourra ignorer cet ordre de priorité.

Depuis la COP de Paris, une grande publicité a été accordée à l’objectif de transition énergétique et par conséquent de réduction de l’exploitation des hydrocarbures. Pour autant leur consommation n’a cessé d’augmenter. Les États-Unis, premier producteur mondial, ont continuellement augmenté leur production depuis le mandat du président Obama.

Cette contradiction entre les politiques et les intentions est problématique. Selon le Global Carbon Project, les émissions mondiales de carbone provenant des combustibles fossiles ont atteint des niveaux record en 2023. Un rapport du Programme des Nations unies pour l’Environnement de novembre 2023 estime que les gouvernements prévoient de produire en 2030 le double des combustibles fossiles par rapport à la quantité permise pour limiter le réchauffement à 1,5 °C. Les émissions annuelles mondiales de dioxyde de carbone dépassent 40 milliards de tonnes, principalement issues des combustibles fossiles. Elles ont augmenté de 1,5 % par rapport aux niveaux prépandémiques.

L’élection de Trump marque un tournant

Cette contradiction pourrait toutefois connaître prochainement une forme de résolution, mais dans une forme qui pourrait surprendre. Elle se fera en faveur de l’alignement des discours sur la réalité de l’augmentation des besoins énergétiques, et non l’inverse. Il ne s’agira donc pas de l’alignement des politiques sur les objectifs du développement durable. Les efforts actuels de réarmement sonnent le glas de bien des contraintes environnementales.

L’élection américaine marque un tournant clair dans le discours. Le président nouvellement élu l’a affirmé très clairement dans son adresse inaugurale. « Nous possédons quelque chose qu’aucun autre pays manufacturier n’aura jamais – la plus grande quantité de pétrole et de gaz de tous les pays du monde – et nous allons l’utiliser. »

Un certain nombre de banques avaient déjà quitté l’alliance Net Zero Banking (NZBA) avant même l’investiture, abandonnant ainsi les contraintes environnementales pesant sur leurs investissements. On peut alors s’interroger. La baisse de l’exploitation des hydrocarbures est-elle un objectif réalisable ? La rivalité des États-nations ne le favorise pas. De surcroît, il ne présente aucun intérêt propre pour aucun acteur. La bataille n’est pour autant pas perdue, mais elle doit s’adapter au réel et tirer avantage de la géopolitique au lieu de la subir. Les énergies dites vertes sont avant tout produites localement, elles doivent être promues pour leur contribution à la souveraineté.

Le débat public sur les politiques énergétiques est focalisé sur la durabilité et le changement climatique, alors que la souveraineté et la sécurité nationale restent les principaux moteurs des décisions nationales. La logique du système énergétique actuel est guidée par les enjeux géopolitiques, structurée autour du contrôle des stocks et des flux d’énergie par des mécanismes, tangibles, comme le raffinage, les oléoducs et les tankers, et intangibles, comme les marchés et les assurances.

Les besoins énergétiques du numérique sont en continuelle hausse

Le numérique présente une singularité dans l’effort de transition écologique. Ses besoins énergétiques croissent à l’inverse de la plupart des secteurs engagés dans un mouvement de baisse. Ce n’est toutefois pas une anomalie. Les liens entre l’industrie numérique et les questions environnementales sont plus complexes qu’il n’y parait à première vue. La dégradation environnementale a en effet deux conséquences, la nécessaire atténuation et l’inévitable adaptation. Autrement dit, d’une part, la montée des interdépendances entre les activités humaines et l’environnement doit être prise en compte. D’autre part les risques de confrontation croissent avec les difficultés environnementales.

Le numérique est au cœur de la réponse à ces deux défis. Il permet de prendre en compte les interactions avec l’environnement, et de distribuer les ressources avec une connaissance très fine des contraintes tant locales que globales. C’est ce que les plates-formes d’intermédiation, qui orchestrent les marchés entre producteurs et consommateurs de biens ou de services, font déjà dans de nombreux domaines, avec Google, Uber, etc. Distribuer l’électricité produite et stockée par d’innombrables acteurs est impossible sans les plates-formes numériques, qui seules savent orchestrer des marchés avec une connaissance fine et continue de la situation des acteurs. Il est remarquable d’ailleurs que les grands acteurs du numérique investissent désormais directement dans le secteur de la production de l’énergie, nucléaire ou renouvelable, d’abord pour alimenter leurs centres de données, mais à terme probablement comme gestionnaire global de l’électricité.

Les plates-formes sont donc au cœur des solutions. Mais elles sont aussi des instruments de la confrontation. Si l’interconnexion de tous les acteurs de la société a permis des développements extraordinaires, la difficulté de garantir la sécurité du réseau conduit inexorablement à une militarisation de la société dans son ensemble. Les tentatives de régulation sont de peu d’impact sur cette évolution.

Le numérique est devenu après les espaces physiques que sont la terre, la mer ou l’air, l’espace où se déploient les conflits. La guerre en Ukraine en offre la première démonstration avec la généralisation des armes sans pilote, l’utilisation des cryptomonnaies, les nouveaux moyens cartographiques basés sur les smartphones. L’intelligence artificielle connaît, comme de nombreuses technologies par le passé, un développement entraîné par la défense. Il serait illusoire dans cette période de militarisation d’espérer voir la consommation énergétique du numérique baisser.

Alors que faire ? La solution pourrait être dans la recherche de souveraineté. Si la sécurité était acceptée comme l’objectif principal pour tous les États, en particulier par les principaux blocs géopolitiques, la question pourrait alors se ramener à celle de la transition vers une sécurité à long terme dans chacun d’eux. La réponse pourrait être double : construire la capacité des nations à dépendre de l’énergie produite localement, et briser les dépendances énergétiques internationales existantes. Les deux peuvent être atteints en substituant les sources d’énergie locales et les réseaux de distribution intelligents aux modèles de commerce de l’énergie à longue distance existants. Une telle transition est déjà à portée de main, le prix de l’énergie renouvelable par watt ayant considérablement diminué par rapport au prix des autres formes de production d’électricité. Il faut faire de la dure réalité de cette boucle infernale un atout et non un écueil.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

09.03.2025 à 09:28

Neurotechnologies : nos pensées seront-elles à vendre ?

Laure Tabouy, Chercheuse – chargée d'enseignement et cheffe de projet en éthique / neuroéthique. Domaine de recherche en éthique des neurosciences, des neurotechnologies, du numérique et de l’IA, Aix-Marseille Université (AMU)

Les interfaces cerveaux-machines se développent au point de faire craindre une future commercialisation de nos pensées les plus intimes. Peut-on réduire nos pensées à un ensemble de données ?
Texte intégral (2222 mots)
Des interfaces non invasives comme des bonnets ou des bandeaux permettent de détecter l’activité électrique du cerveau. Un des nombreux types de « données cérébrales » que l’on sait aujourd’hui enregistrer. ArsElectronica/Flickr, CC BY-NC-ND

Les interfaces entre cerveaux humains et ordinateurs se développent, poussées par les progrès technologiques, les avancées de l’intelligence artificielle et les promesses d’utilisations médicales. Au point de faire craindre une future commercialisation de nos pensées les plus intimes. Mais peut-on réduire nos pensées à un ensemble de données collectées par des neurotechnologies ? Est-il souhaitable que l’on puisse un jour vendre nos données cérébrales ?


Les neurotechnologies sont des dispositifs qui font l’interface entre le cerveau et des machines. Ils sont au départ élaborés à des fins médicales.

L’utilisation des neurotechnologies dans le secteur médical est aujourd’hui en voie d’être encadrée, par exemple en France, en ce qui concerne l’imagerie cérébrale, en Europe et, plus largement, dans le monde, par une éthique médicale commune. Si cet encadrement reste à approfondir, en particulier en raison de ses liens avec l’intelligence artificielle (IA), il faut souligner que les utilisateurs et leurs « données cérébrales » ne sont plus juridiquement et éthiquement protégés dans le cadre d’utilisations non médicales.

Pourtant, des neurotechnologies sont déjà commercialisées auprès du grand public en bonne santé, par exemple dans l’éducation et le bien-être, ou développées dans le cadre de projets de jeux vidéo (pour l’instant non commercialisé) et dans le domaine du travail.

De plus, ces dispositifs sont d’ores et déjà conçus pour apprendre à décrypter nos pensées — qui reste aujourd’hui un objectif à long terme. Ceci laisse craindre que la commercialisation de données cérébrales permette d’influencer, de manipuler ou d’assujettir les humains.


À lire aussi : De la télépathie à la science moderne : est-on capable de lire dans les pensées ?



Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Neurotechnologies : de quoi parle-t-on ?

Le fonctionnement « électrique » du cerveau est enregistrable et modulable (en laboratoire) par des neurotechnologies.

Certains dispositifs neurotechnologiques sont implantés directement dans le cerveau. On parle de technologies « invasives » ou d’implants cérébraux. C’est le cas par exemple des dispositifs à des fins médicales des entreprises Synchron et Precision Neurosciences.

Il existe également des neurotechnologies dites non invasives, comme des écouteurs, des lunettes ou des bandeaux. Meta, par exemple, développe un dispositif qui ne requiert pas de chirurgie mais qui reste aujourd’hui trop massif pour être déployé. Ces neurotechnologies non invasives permettent d’enregistrer des électroencéphalogrammes (EEG) — ou, dans le cas de Meta, des magnétoencéphalogrammes — ce qui permet de capter certaines ondes cérébrales qui sont ensuite numérisées, afin d’être traitées par des systèmes d’IA.

Un retour de la machine vers le cerveau de la personne, dit « neurofeedback », est possible après traitement des informations par ces systèmes d’IA.

Vendre des pensées ? Une idée pas si simple à réaliser

L’étude du cerveau, dans son sens le plus large, génère des volumes considérables de données, communément appelées « données cérébrales ». Elles peuvent être moléculaires, cellulaires, génétiques, anatomiques, fonctionnelles, comportementales, computationnelles ou encore venant de l’activité neuro-électrique du cerveau (appelé aussi « rythme cérébral »).

Cette diversité de données regroupées sous le nom de « données cérébrales » n’est pas mesurable et visualisable avec les mêmes techniques, ce qui donne une diversité d’approches, de théories et de conceptions scientifiques de la pensée, qui s’entrechoquent également avec des conceptions plus philosophiques ou théologiques de la pensée, qui, elles, ne se mesurent pas.

Le concept de « vie privée mentale » n’est donc pas facile à définir, tant neuroscientifiquement que philosophiquement. La pensée humaine est et restera toujours bien plus complexe et floue que de simples réseaux de neurones visualisables, mesurables, calculables et transférables via les neurotechnologies et des systèmes d’IA.

Sommes-nous ce que nous pensons ?

Admettre que la pensée humaine serait assimilable au fonctionnement d’un ordinateur et donc potentiellement vendable, comme le proposent les « visionnaires transhumanistes », se poser la question de la possibilité qu’un jour nous puissions les télécharger sur un support numérique et vivre éternellement, c’est supposer — et imposer à tous — que ces données cérébrales, qui sont collectées grâce aux neurotechnologies, traitées par les systèmes d’intelligences artificielles et qui sont stockées dans des centres de données soient véritablement et intégralement nos pensées.

Cela appelle à se poser la question de ce que signifient réellement ces données cérébrales. Sont-elles suffisantes pour caractériser un être humain ?

Si toutes nos pensées, nos souvenirs, notre imagination, nos émotions, notre comportement et notre subconscient se passent dans le cerveau, si tout ce que nous pensons, sentons ou désirons ne résulte que de l’activité cérébrale de milliards de neurones, au sein de différentes aires cérébrales, qu’est-ce qui fait notre subjectivité, notre unicité, notre singularité ?

Sommes-nous enfermés dans un paradigme neurobiologique ?

Ne serions-nous pas, ici, devant une conception matérialiste de la pensée, l’assimilant à un calcul et la considérant comme mécanisable, et donc vendable, qui reposerait sur un « réductionnisme neurobiologique » ?

C’est en tout cas à partir de ces approches neurobiologiques, devenues paradigme scientifique (à savoir « nos pensées peuvent être décrites et reproduites par l’observation de signaux neuronaux »), que les sciences cognitives, la cybernétique, l’IA et les neurosciences évoluent depuis 1943. C’est aussi selon ce paradigme qu’évolue la neuroéthique.

Aujourd’hui, c’est à cette frontière de la conscience et des pensées que se cache une porte vers notre intimité et notre liberté, vers notre humanité la plus profonde, que ces technologies nous proposent d’ouvrir. Le cerveau en est le refuge, c’est la partie privée de nous-mêmes, le point ultime de notre vie privée. Il nous faut donc nous assurer que ces connaissances sur la conscience et sur le cerveau, que ces neurotechnologies et l’IA, soient utilisées pour le bien commun, sans compromettre notre intégrité psychique, notre intimité, notre sécurité et notre liberté de pensée.

Il faut protéger les données cérébrales des utilisations abusives

Malgré les interrogations et le flou sur ce qu’est la pensée, c’est l’ombre d’une menace « pour l’intimité psychique et la liberté de penser, mettant ainsi en danger la démocratie et la liberté politique » qui est pressentie, pour reprendre les termes de l’Unesco.

Les enjeux éthiques, juridiques et sociétaux qui se dessinent à travers cette problématique sont vertigineux.

À l’heure actuelle, parce que l’on ne connaît pas bien la signification précise des données cérébrales collectées, celles-ci ne sont pas encore légalement considérées comme des données biométriques et/ou des données sensibles.

Vers un cadre de gouvernance mondiale

De nombreux défis, problèmes et préoccupations entourent le développement d’un cadre de gouvernance des données cérébrales. Outre leur diversité technique, elles sont générées dans différentes juridictions : elles sont donc soumises à des principes éthiques et juridiques distincts et suscitent des préoccupations éthiques et juridiques variées. Néanmoins, vu la vitesse de déploiement de ces neurotechnologies et le caractère international des marchés, il est nécessaire de s’accorder sur plusieurs niveaux géographiques (pays, Europe et international) et dans un laps de temps restreint.

Si un consensus n’est pas encore réellement trouvé par les chercheurs engagés dans ces réflexions, ceux-ci préconisent d’ores et déjà un examen contextuel de la gouvernance des données cérébrales prenant en compte les spécificités des cultures, des pays…

Un travail international sur les enjeux éthiques des neurotechnologies a été initié par l’Unesco en mai 2024. Il s’achèvera en novembre 2025 par la proposition d’un cadre éthique mondial pour les neurotechnologies.

Cette future recommandation doit s’inscrire dans la continuité des travaux menés en 2021 et en 2023 sur les implications éthiques des neurotechnologies. Ces travaux ont souligné la nécessité d’une recommandation éthique et d’un cadre de gouvernance mondiale solide, flexible et évolutif, permettant d’assurer la protection des droits humains et des libertés fondamentales. Le rapport de 2021 identifiait les menaces que les neurotechnologies faisaient peser sur les droits et les libertés fondamentales, comme l’intégrité personnelle et psychique. Tandis que le rapport de 2023 a montré que le rythme de l’innovation dans ce domaine des neurotechnologies s’était accéléré avec l’utilisation et la convergence avec l’IA et l’IA générative.

Ce travail de l’Unesco est complété par celui de l’OCDE. En parallèle des travaux de ces instances internationales, de récentes études de chercheurs mettent en lumière plusieurs considérations essentielles qui nécessitent un examen approfondi pour faire progresser les réflexions, dont une évaluation des risques, nécessaire et indispensable, car les données collectées au moyen des neurotechnologies peuvent être des données qui, d’une manière ou d’une autre, seraient liées à la conscience, aux pensées et aux souvenirs.

The Conversation

Laure Tabouy est membre de la société des neurosciences et de la société internationale de neuroéthique

07.03.2025 à 07:36

Stand Up for Science France : « Pourquoi je me mobilise »

Emmanuelle Perez-Tisserant, Maîtresse de conférences en histoire, Université Toulouse – Jean Jaurès

Le 7 mars, des rassemblements sont organisés en soutien à la liberté académique. Emmanuelle Perez, l’une des initiatrices de Stand Up for Science France nous explique pourquoi elle se mobilise.
Texte intégral (2439 mots)

En écho au mouvement Stand Up for Science qui s’organise aux États-Unis pour défendre la liberté académique, un appel à la mobilisation a été lancé pour ce vendredi 7 mars. Des conférences, des rassemblements et des marches sont organisées un peu partout en France, à l’initiative de scientifiques réunis derrière la bannière Stand Up for Science France. Engagé depuis ses débuts aux côtés de celles et ceux qui font avancer la recherche, « The Conversation » a demandé à Emmanuelle Perez-Tisserant, l’une des trois initiatrices du mouvement national, de nous expliquer pourquoi elle se mobilise.

Ce 7 mars est un jour d’action en soutien à la liberté des personnes travaillant dans le domaine de la recherche aux États-Unis et dans le monde entier – 153 villes sont recensées sur le site standuforscience2025.org. La nouvelle administration états-unienne a frappé fort dès le 20 janvier, jour de la deuxième investiture de Donald Trump, en s’en prenant à ceux qu’elle perçoit comme des opposants, car leurs recherches vont à l’encontre de leur idéologie et de leurs intérêts financiers.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Ce n’est pas complètement venu comme une surprise. Historienne des États-Unis, j’avais suivi les développements de la campagne et la trajectoire du parti républicain. J. D. Vance, l’actuel vice-président, avait proclamé que « le professeur [était] l’ennemi » en 2021.

Le réchauffement climatique, un « canular chinois »

Le premier mandat Trump avait laissé des traces et une première Marche pour les sciences s’est déroulée en avril 2017, à la suite de ses tentatives de faire taire les scientifiques travaillant sur le dérèglement climatique, de son allégation que le réchauffement climatique était un « canular chinois », de sa déformation grossière de l’histoire du pays ou encore de sa sortie des États-Unis des accords de Paris. Avec des collègues, nous avions relevé le défi d’organiser en France des manifestations de soutien, qui à l’échelle mondiale ont rassemblé environ 1 million de personnes.

Des purges dans des organismes de recherche et de régulation

Comme tous les autres domaines de l’action fédérale, les organismes de recherche et de régulation ont subi de plein fouet les attaques du DOGE, le département de l’efficacité gouvernementale d’Elon Musk, contre les emplois publics et leur supposé trop grand nombre, leur manque de performance et d’efficacité. Ces purges ont principalement touché les plus précaires, aux contrats les plus récents, dont la sécurité de l’emploi était moindre. Certains ont été licenciés pour manque de performance alors même que, quelques semaines auparavant, on les avait encouragés à candidater à une promotion.

D’autres services sont menacés, soit selon cette pure logique comptable, soit dans l’idée de remplacer les services publics par des services privés. Mais un certain nombre d’entre eux ne peuvent l’être sans détourner leur mission, car ils sont au service du public et leur but ne peut pas être de générer du profit financier : il en est ainsi des services de prévision météorologique, par exemple. Les attaques visent aussi les agences de régulation et de contrôle : de l’alimentation, des épidémies, qui protègent la population états-unienne. Là encore, comment penser que le pays s’en portera mieux ? Y compris d’un point de vue financier, la prévention étant moins coûteuse que le « damage control ».

Au-delà d’une idéologie anti-État, il faut comprendre d’autres logiques à l’œuvre dans ces mesures du gouvernement Trump. Il y a bien sûr les intérêts économiques liés à l’extractivisme fossile, dont les acteurs ont largement financé la campagne électorale côté républicain (comme ils ont financé les campagnes de mise en doute du réchauffement). Au lieu d’une « urgence climatique », le président a proclamé une « urgence énergétique », selon lui plus proche des besoins immédiats des Étatsuniens moyens.

Une tentative de casser le thermomètre

Dans le même temps, les mentions du réchauffement climatique ont disparu de la communication publique des agences fédérales et la responsable états-unienne d’un des groupes de travail du GIEC s’est vue interdire de se rendre aux réunions de finalisation du rapport tandis que son équipe était démantelée, lui ôtant de fait toute capacité à finir sa mission correctement. Les agences chargées de l’observation et de la surveillance des océans et de l’atmosphère, souvent appelée la NOAA, son acronyme anglais, ont aussi vu leurs rangs dépeuplés : une tentative de casser le thermomètre ? Pourtant ces organismes jouent un rôle précieux dans la vie de millions d’Étasuniens, et au-delà.

Trump et ses proches obéissent aussi à l’agenda conservateur, opposé aux politiques de diversité et vent debout contre le féminisme, le droit des femmes à disposer de leurs corps, les études de genre et l’application d’un programme de droits civiques pour les personnes LGBT et surtout trans. Cela s’est particulièrement vu dans la politique de réexamen des attributions de bourses fédérales à des projets scientifiques. Sont actuellement passés au crible tous les projets soupçonnés d’inclure une perspective dite DEI (diversité, équité, inclusion), ou encore correspondant aux mots clés aussi vagues que « femmes », pour ne citer qu’un exemple.

Le 5 mars, après examen, un certain nombre de bourses, attribuées par les « National Institutes of Health » (NIH) – qui avec ses 27 instituts et centres de recherche est le plus grand centre de recherche biomédicale dans le monde – à des projets déjà évalués et sélectionnés par des scientifiques, ont été annulées du fait de ces ordres venus du pouvoir exécutif après réexamen, car elles entraient dans les catégories visées par les ordres du président et des membres de sa majorité.

Par exemple, une étude de longue durée sur la santé des personnes LGBT+ qui incluait la population trans, particulièrement sous le feu des républicains.

Ou encore, le National Park Service (Service des parcs nationaux), l'agence fédérale qui gère les parcs et monuments nationaux et les lieux de mémoire, a ainsi supprimé un certain nombre de pages Internet, de documents ou de mentions d’activistes trans ou gay, comme c’est le cas pour le fameux bar qui a été un berceau des mobilisations gays, Stonewall (New York).

Attaque contre la liberté d’expression

La communication officielle comme les enseignements sont ainsi aussi touchés par cette censure alors que l’un des premiers ordres exécutifs de Trump se targuait de « restaurer la liberté d’expression », celle qui est fameusement sanctuarisée dans le premier amendement de la Constitution des États-Unis.

Le 4 mars, sur son réseau social « Truth », le président a menacé de couper les financements fédéraux de toute université qui autoriserait la tenue de manifestations sur son campus, là encore, une infraction patente du principe de liberté d’expression. C’est notamment pour faire corps collectivement, et porter une voix menacée aux États-Unis, que sont organisées les manifestations Stand Up For Science, tandis qu’un certain nombre de nos collègues sont sidérés, tétanisés, effrayés de parler ou de s’exprimer lorsque leurs publications sur les réseaux ou leurs mails professionnels peuvent être scrutés, quand ils ne sont pas tout bonnement licenciés brutalement.

Abus de pouvoir

Ce qui est en train de se passer aux États-Unis relève d’abus de pouvoir, qui sont pour certains en train d’être attaqués en justice.

Le DOGE et Elon Musk, dont la création et la nomination n’ont pas été approuvées par le Congrès (et qui en profite en partie), sont en train de prendre des décisions budgétaires qui reviennent normalement à la branche législative. Or c’est une valeur fondamentale des États-Unis, depuis leur fondation, qui a été à la racine de leur indépendance : pas de taxation sans représentation ; les décisions budgétaires doivent être prises par les représentants élus par le peuple.

La recherche états-unienne au bord de l’effondrement

En attendant l’aboutissement de ces manœuvres judiciaires, et peut-être de la résistance des contre-pouvoirs et des citoyens que nous espérons constater aujourd’hui, aux dires de témoins, le système de la recherche états-unienne est au bord de l’effondrement, ce qui n’est pas une bonne nouvelle pour le monde.

Cette situation et l’observation d’autres pays où des gouvernements similaires exercent, ou ont déjà exercé, nous incitent à la vigilance. Par exemple, en Argentine, le gouvernement Milei est en train de couper les financements publics de la recherche, notamment en sciences humaines et sociales. Les chercheurs devraient, selon lui, trouver des financements privés : comment imaginer une recherche indépendante dans ces conditions ?

Il est clair que nous devons exprimer notre solidarité et la rendre concrète ; si nous ne parvenons pas à faire pression auprès des gouvernements pour rétablir la situation, il est essentiel de pouvoir offrir des formes d’asile à nos collègues états-uniens. La proposition de notre ministre de profiter des chaires juniors ou séniors ne saurait suffire et est difficile à accepter tant les postes, notamment les postes titulaires, sont rares en France, y compris pour nos brillants collègues en début de carrière, dans un contexte de coupes budgétaires tout à fait perceptible en France, et pas seulement aux États-Unis.

La situation en France

La situation n’est certes pas encore similaire en France, mais comment ne pas penser à une future arrivée au pouvoir de personnalités ayant ces mêmes idées, vu le contexte dans lequel nous nous trouvons ? On le sait, on le constate, l’obscurantisme est un outil stratégique de l’extrême droite. Plus largement, au plus haut niveau de l’État, n’a-t-on pas relayé des accusations contre les mythes que seraient la « théorie du genre » et « l’islamo-gauchisme » ?

Est-ce que les scientifiques du climat, de la biodiversité, de la justice environnementale ne sont pas désespérés de ne pas être écoutés ou pris au sérieux dans leurs alertes ? Est-ce que les attaques contre l’Office français de la biodiversité (OFB) ne sont pas minimisées ? N’assiste-t-on pas à des reculs en matière de réglementation des pesticides alors même que l’on connaît leur nocivité ? Est-ce que les universités, parfois sous pression du pouvoir, ne pratiquent pas déjà des formes de censure, d’interventions policières et de restrictions de la liberté d’expression ?

Il est certain que ces enjeux sont complexes et qu’ils nous obligent à repenser complètement nos modèles, à revoir une bonne partie de l’organisation de la société, mais ne doivent-ils pas être réfléchis, discutés et débattus collectivement à partir de ce que nous savons et de ce qui est établi ? Il est impératif, par ailleurs, que ces débats tiennent compte des perspectives de sciences humaines et sociales, car les sciences sont profondément encapsulées dans nos sociétés, historiquement et géographiquement situées.

Comment collectivement mettre à l’abri ce qui doit nous être cher, dans lequel nous avons déjà collectivement investi, le fruit d’un long et précieux travail au service du public ? Constitutionnaliser les libertés académiques est-il possible et suffisant et sous quelle forme ? Rappeler que, selon la déclaration de 1948, le droit de jouir de – et de participer à – la recherche scientifique est un droit humain fondamental ?

L’enseignement et la recherche publics sont des biens communs, des richesses, qui peuvent bénéficier à toutes et à tous, qui doivent nécessairement s’inscrire dans le temps long et indépendamment des intérêts politiques et économiques, bien qu’en dialogue fécond avec la société.

The Conversation

Je suis une des initiatrices de la mobilisation Stand Up for Science en France. Je suis membre de l'Atelier d'Ecologie Politique de Toulouse (ATECOPOL). Je suis en délégation de l'Institut Universitaire de France qui finance mon projet de recherche actuel.

24 / 25
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Monde Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
  CULTURE / IDÉES 1/2
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  IDÉES 2/2
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
  Pas des sites de confiance
Contre-Attaque
Issues
Korii
Positivr
Regain
Slate
Ulyces
🌓