URL du flux RSS
L’expertise universitaire, l’exigence journalistique

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

▸ les 25 dernières parutions

17.03.2025 à 16:14

Microsoft augmente ses prix pour déplacer les coûts de l’IA générative sur les utilisateurs

Kevin Witzenberger, Research Fellow, GenAI Lab, Queensland University of Technology
Michael Richardson, Associate Professor of Media, UNSW Sydney
Les grandes entreprises technologiques ont dépensé des milliards pour développer l’IA générative. Maintenant, elles cherchent à déplacer ces coûts sur les utilisateurs.
Texte intégral (2614 mots)

En déplaçant les coûts des grands modèles d’IA générative sur les utilisateurs, les grandes entreprises de la tech cherchent à trouver un modèle d’affaire viable.

Au delà, une stratégie consisterai à faire porter les calculs non par leurs centres de données, comme c’est le cas actuellement, mais par les ordinateurs, smartphones et autres montres connectées des utilisateurs. Un changement de fonctionnement qui ne serait pas sans conséquences.


Après avoir passé un an à intégrer l’IA générative dans ses produits phares, Microsoft tente de rentrer dans ses frais en augmentant les prix, en insérant des publicités dans les produits et en annulant les baux de centres de données. Google prend des mesures similaires, en ajoutant des fonctionnalités d’IA incontournables à son service Workspace tout en augmentant les prix.

La tendance est-elle en train de s’inverser ? Les investissements massifs des dernières années dans l’IA générative vont-ils s’amenuiser ?

La situation n’est en fait pas si simple. Les entreprises technologiques sont pleinement engagées dans le déploiement d’outils d’IA générative, mais elles cherchent encore un modèle d’affaire viable – en l’occurrence, comment faire payer les utilisateurs pour ces services.

Évolution des coûts

La semaine dernière, Microsoft a annulé sans préavis certains baux de centres de données. Cette décision fait suite à l’augmentation des prix d’abonnement à sa suite phare de logiciels, 365 – jusqu’à 45 % d’augmentation. Microsoft a également lancé des versions de certains produits désormais financées par la publicité.

Le PDG du géant de la technologie, Satya Nadella, a également suggéré récemment que l’IA n’a jusqu’à présent pas produit beaucoup de valeur.

Ces actions peuvent sembler étranges dans le contexte actuel de battage médiatique autour de l’IA, qui s’accompagne d’annonces retentissantes telles que le projet de centre de données Stargate d’OpenAI, d’une valeur de 500 milliards de dollars.

À y regarder de plus près cependant, rien dans les décisions de Microsoft n’indique un recul vis-à-vis de la technologie en elle-même. Il s’agirait plutôt d’un changement de stratégie visant à rentabiliser le développement des systèmes d’IA en répercutant les coûts de manière discrète sur les consommateurs.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Le coût de l’IA générative

L’IA générative coûte cher. OpenAI, le leader du marché avec 400 millions d’utilisateurs mensuels actifs, dépense sans compter. L’année dernière, OpenAI a réalisé un chiffre d’affaires de 3,7 milliards de dollars, mais a dépensé près de 9 milliards de dollars, soit une perte nette d’environ 5 milliards de dollars.

Microsoft est le principal investisseur d’OpenAI, et fournit actuellement à l’entreprise des services de cloud computing, de sorte que les dépenses d’OpenAI coûtent également de l’argent à Microsoft.

Alors, pourquoi l’IA générative est-elle si coûteuse ? Outre la main-d’œuvre humaine, deux types de coût sont associés à ces modèles d’IA : la phase d’apprentissage (construction du modèle) et celle d’inférence (utilisation du modèle).

Si l’apprentissage représente une dépense initiale souvent importante, les coûts d’inférence augmentent avec le nombre d’utilisateurs. De surcroît, plus le modèle d’IA générative est grand, plus son exécution coûte cher.

Des alternatives plus petites et moins chères

Ainsi, une unique requête sur les modèles les plus avancés d’OpenAI peut coûter jusqu’à 1 000 dollars US, rien qu’en puissance de calcul. En janvier, le PDG d’OpenAI, Sam Altman, a déclaré que même l’abonnement de l’entreprise à 200 dollars par mois n’était pas rentable. En d’autres termes, l’entreprise perd de l’argent avec ses modèles gratuits, mais aussi avec ses modèles payants.

Photo aérienne d’un grand bâtiment industriel au milieu de champs verdoyants
Le coût croissant de l’exploitation des centres de données pour les produits d’IA générative pousse les grandes entreprises de la tech à chercher des moyens de rentrer dans leurs frais. Aerovista Luchtfotografie/Shutterstock

En pratique, l’apprentissage et l’inférence ont généralement lieu dans des centres de données. Les coûts sont élevés car les puces nécessaires à leur fonctionnement sont chères, mais c’est aussi le cas de l’électricité, des systèmes de refroidissement et de l’amortissement du matériel.

À ce jour, une grande partie des progrès en matière d’IA générative a été obtenu en visant toujours plus grand. OpenAI décrit sa dernière mise à jour comme un « modèle gigantesque et coûteux ». Néanmoins, de nombreux signes indiquent aujourd’hui que cette approche – qui consiste à faire des modèles de plus en plus grand à tout prix – pourrait même ne pas être nécessaire.

Par exemple, la société chinoise DeepSeek a fait des vagues au début de l’année en révélant qu’elle avait construit des modèles comparables aux produits phares d’OpenAI pour une infime partie du coût d’apprentissage. De même, des chercheurs de l’Allen Institute for AI (Ai2), à Seattle, et de l’université de Stanford affirment avoir entraîné un modèle pour 50 dollars seulement.

Pour résumer, il se pourrait bien que les systèmes d’IA développés et fournis par les géants de la tech ne soient pas rentables. Les coûts importants liés à la construction et à l’exploitation des centres de données sont une des raisons principales.

Que fait Microsoft ?

Après avoir investi des milliards dans l’IA générative, Microsoft tente de trouver le modèle économique qui rendra cette technologie rentable.

Au cours de l’année écoulée, le géant de la technologie a intégré le chatbot d’IA générative Copilot dans ses produits destinés aux consommateurs et aux entreprises. Et il n’est plus possible d’acheter un abonnement Microsoft 365 sans Copilot. En conséquence, les abonnés constatent des hausses de prix importantes.

Comme nous l’avons vu, exécuter les calculs nécessaires au fonctionnement des modèles d’IA générative dans les centres de données est coûteux. Il est probable que Microsoft cherche donc des moyens d’effectuer davantage ce travail directement sur les appareils des utilisateurs — ce qui déplace le coût du matériel et de son fonctionnement.

Un indice fort de cette stratégie est le petit bouton que Microsoft a commencé à mettre sur ses claviers l’année dernière, où une touche dédiée à Copilot est apparue.

Apple poursuit une stratégie similaire : la plupart des services d’IA d’Apple ne sont pas disponibles sur le cloud. Au lieu de cela, seuls les nouveaux appareils de la marque offrent des capacités d’IA. Le fait que les calculs soient effectués directement sur l’appareil commercialisé est vendu comme une fonction visant à préserver la confidentialité des données, qui n’ont pas besoin de quitter l’environnement local de l’utilisateur.

Pousser les coûts vers l’utilisateur final

Il y a des avantages à pousser le travail d’inférence de l’IA générative sur les ordinateurs, smartphones et autres montres intelligentes. Cette technique s’appelle le « edge computing », car les calculs sont faits sur les bords, à l’extrémité du réseau.

Elle peut permettre de réduire l’énergie et les ressources de calculs utilisées dans les centres de données et de diminuer le gaspillage des centres de données. Ceci a pour effet de diminuer l’empreinte carbone, thermique et hydrique de l’IA générative ; et pourrait également réduire les besoins en bande passante et accroître la confidentialité des utilisateurs.

Mais il y a aussi des inconvénients. L’edge computing transfère les coûts de calcul aux consommateurs, ce qui stimule la demande de nouveaux appareils — en dépit des préoccupations économiques et environnementales qui visent à décourager le renouvellement de nos appareils. Avec l’apparition de modèles d’IA générative plus récents et plus conséquents, cette tendance pourrait s’intensifier.

Photo des mains d’une personne triant des déchets électroniques
Effectuer les calculs d’inférence directement sur l’appareil de l’utilisateur pourrait augmenter le problème des déchets électroniques. SibFilm/Shutterstock

Et les problèmes ne s’arrêtent pas là. Quand les déchets électroniques sont répartis sur tout le territoire, plutôt que concentrés dans un centre de données, le recyclage est encore plus difficile. On peut aussi questionner un accès équitable aux outils d’intelligence artificielle, en particulier dans le domaine de l’éducation, si la qualité des calculs dépend du prix de votre smartphone.

Enfin, si l’edge computing peut sembler « décentralisée », elle peut également conduire à des monopoles commerciaux sur le matériel informatique. Dans le cas où une poignée d’entreprises seulement contrôlerait cette transition vers des IA génératives « délocalisées » sur nos appareils électroniques individuels, la décentralisation risque de ne pas être aussi ouverte qu’il y paraît.

À mesure que les coûts des infrastructures d’IA augmentent et que le développement des grands modèles évolue, une stratégie attrayante pour les entreprises d’IA est de répercuter les coûts sur les consommateurs. Mais si les grands utilisateurs, tels que les ministères et les universités, pourraient faire face à ces coûts, de nombreuses petites entreprises et consommateurs individuels pourraient avoir des difficultés.

The Conversation

Kevin Witzenberger a reçu des financements du Australian Research Council.

Michael Richardson ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

16.03.2025 à 15:14

Calculs sur le cloud : comment stocker et exploiter les données de façon sûre… et pas trop onéreuse

Robert Deng, AXA Chair Professor of Cybersecurity, and Professor of Information Systems School of Information Systems / Professor of Information Systems - School of Information Systems, Singapore Management University, AXA Research Fund
Stocker des données dans le cloud est désormais routinier, mais les risques de cybersécurité existent encore, en particulier pour exploiter les données directement sur le cloud.
Texte intégral (2158 mots)

Stocker des données dans le cloud est désormais routinier, tant pour les particuliers que pour les entreprises, mais les risques de cybersécurité existent encore, notamment dans la gestion de l’authentification de l’utilisateur et le contrôle d’accès.

Les chercheurs développent de nouvelles méthodes afin d’assurer un stockage sûr, qui ne soit pas trop gourmand en énergie, et qui permette une exploitation efficace des données. Pour cela, ils proposent notamment d’effectuer les calculs directement sur des données cryptées.


En raison de la quantité énorme de données sensibles conservées en ligne, les systèmes de cloud sont devenus un outil indispensable aux opérations commerciales modernes, mais également une cible significative de cyberattaques. À l’heure actuelle, plus de 90 % des organisations s’appuient sur les services de clouds pour des opérations essentielles, et il y a plus de 3,6 milliards d’utilisateurs actifs dans le monde — ce qui signifie que 47 % de la population mondiale recourt aux services de clouds. La dépendance à leur égard est donc généralisée.

Malheureusement, cet usage intensif implique des risques accrus. Les violations de données s’accroissent, tant par leur fréquence que par leur gravité, et 44 % des entreprises ont fait part de failles dans leur environnement cloud. 14 % d’entre elles avaient connu une violation de données au cours des douze derniers mois.

Alors que les organisations transfèrent de plus en plus de données sensibles sur un cloud (près de la moitié des informations stockées sont considérées comme sensibles), la surface vulnérable aux attaques s’accroît pour les cybercriminels. Par conséquent, les incidents sont plus fréquents et à plus haut risque, puisque la perte d’informations sensibles peut avoir des effets importants, tant sur le plan financier que sur le plan de la réputation. Le coût moyen mondial d’une violation de données en 2024 était estimé à 4,88 millions de dollars.

Aujourd’hui, ce qu’on appelle le « chiffrement coté client » permet de préserver efficacement la sécurité des données et leur confidentialité. Cependant, pour que des données chiffrées soient utiles, il faut pouvoir s’en servir en toute sécurité — les exploiter en faisant des calculs, par exemple. Pour cela, il reste encore un long chemin à parcourir, car nous faisons encore face à de gros problèmes de performance et de mise à l’échelle. Les chercheurs continuent de chercher les moyens de combler cette défaillance, afin de permettre un usage massif de ces données qui soit respectueux de la confidentialité, plus efficace et accessible à des applications à grande échelle.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Les causes profondes des incidents de sécurité sur le cloud

L’authentification utilisateur et le contrôle d’accès sont parmi les mécanismes essentiels permettant d’éviter les violations de données.

L’authentification utilisateur est la procédure de vérification de l’identité des utilisateurs tentant d’accéder à des ressources sur le cloud. Elle constitue la première ligne de défense, mais elle est largement considérée comme le maillon le plus faible de la chaîne de sécurité : en effet, on estime que 81 % des violations effectuées par des hackers s’appuient sur des mots de passe volés ou faibles. Même si l’authentification utilisateur a beaucoup évolué au cours des dernières années, les attaques destinées à compromettre la procédure ont suivi le mouvement.

Le contrôle d’accès — qui consiste à réguler qui peut visualiser, utiliser ou interagir avec les ressources du cloud, que ce soient des données, des applications ou des services — est la deuxième ligne de défense. Un contrôle d’accès efficace garantit que seuls les utilisateurs ou appareils autorisés disposent des permissions indispensables pour accéder et modifier certaines ressources, ce qui minimise les risques de sécurité et évite l’accès non autorisé à ou l’utilisation frauduleuse du cloud.

Dans les environnements cloud d’aujourd’hui, ce sont les serveurs qui assurent le contrôle d’accès et en sont responsables techniquement. Ainsi, une configuration défectueuse, qu’elle soit due à une erreur humaine ou à un bug logiciel, tout comme une cyberattaque sur les serveurs, peut aboutir à des incidents graves. De fait, la NSA (National Security Agency des États-Unis) considère le défaut de configuration comme l’une des vulnérabilités principales d’un environnement cloud.

Le chiffrement côté client permet de stocker des données de façon sûre

Les données peuvent être chiffrées et déchiffrées sur les appareils de l’utilisateur avant d’être transférées sur le cloud. De cette façon, les données sont cryptées pendant les phases de transit et de stockage et donc inaccessibles à toute personne ne possédant pas les clés de décryptage, y compris les fournisseurs de services et les potentiels cyberattaquants. Tant que les clés de décryptage restent sécurisées chez l’utilisateur final, la sécurité et la confidentialité des données peuvent être assurées même en cas de compromission du compte utilisateur sur le cloud ou du serveur cloud lui-même.

Les solutions de chiffrement côté client utilisent soit des clés de chiffrement privées, soit des clés publiques (cryptographie symétrique ou asymétrique). Par exemple, Google Workspace passe par un serveur en ligne pour distribuer les clés destinées au chiffrement et au partage des données entre utilisateurs autorisés. Mais un serveur de distribution de clés de sécurité peut limiter à la fois la performance et la sécurité du processus.

Afin de parer à ce problème, MEGA, un autre service de chiffrement côté client, utilise la cryptographie à clé publique, ce qui permet d’éviter l’étape du serveur de distribution de clés en ligne. Cette stratégie nécessitant cependant une gestion des certificats électroniques sophistiquée, car le nombre de chiffrements par cryptographie asymétrique est proportionnel au nombre potentiel d’utilisateurs à partager un document, elle est difficile à appliquer à grande échelle.


À lire aussi : La chasse au gaspillage dans le cloud et les data centers


Le chiffrement côté client demande des ressources de calcul importantes. Comment dépasser cette limitation ?

Supposons qu’un hôpital veuille confier le stockage des dossiers électroniques de ses patients à un service de cloud et souhaite établir une politique spécifique d’accès aux dossiers. Avant de délocaliser un dossier, l’hôpital pourra spécifier que seuls les cardiologues de l’hôpital universitaire, ou bien les chercheurs de l’institut de sciences de la vie pourront y accéder. Notons que « CT » désigne le dossier médical chiffré et que « AP » = (cardiologue ET hôpital universitaire) OU (Chercheur ET institut de sciences de la vie) représente la politique d’accès. CT et AP sont liés sur le plan cryptographique au moment du transfert vers le cloud pour le stockage de données. À partir de là, seuls les utilisateurs remplissant les conditions de AP peuvent déchiffrer CT afin d’accéder au dossier médical décrypté.

Ce système de chiffrement peut-être mis à l’échelle, car sa politique d’accès ne nécessite pas de lister tous les individus ayant l’autorisation d’accéder aux données, seulement les caractéristiques des utilisateurs potentiels. Ce n’est pas le serveur cloud qui fait respecter le contrôle d’accès (c’est-à-dire le décryptage) aux données chiffrées. Ce contrôle d’accès est mis en œuvre grâce aux algorithmes de chiffrement et de déchiffrement eux-mêmes, qui sont démontrés sûrs en théorie.

Au-delà du stockage sécurisé : exploiter des données chiffrées efficacement

Ce type de décryptage, déjà en usage, demande de grosses ressources de calcul. Pour des appareils aux ressources limitées, ceci est un inconvénient majeur en termes d’efficacité. Pour faire face à ce problème, nous avons proposé un protocole qui réduit la consommation de l’opération de déchiffrement de deux ordres de grandeur pour l’utilisateur final en sous-traitant le plus gros de la charge de travail à un serveur cloud public.

Un autre problème essentiel dans l’utilisation du chiffrement côté client est la « révocation de l’utilisateur » : lorsqu’un utilisateur quitte le système, change de poste ou perd sa clé privée, la clé doit être révoquée afin d’empêcher un accès non autorisé à des données sensibles. Les systèmes actuels recourent principalement à l’horodatage pour retirer aux utilisateurs révoqués la possibilité de déchiffrer de nouveaux contenus. Cependant, l’horodatage nécessite des mises à jour régulières, ce qui peut demander des ressources de calcul importantes pour les plus grands systèmes. Nous avons donc proposé un système de chiffrement basé sur le matériel (hardware) et des attributs révocables, afin de rendre ce processus moins coûteux.


À lire aussi : Le « fog computing » est l’avenir du cloud – en plus frugal et plus efficace


Faire des calculs directement sur des données chiffrées

Idéalement, les serveurs devraient être capables d’accomplir des opérations importantes sur des données chiffrées sans même avoir à les décrypter, ce qui permettrait de préserver la confidentialité à chaque étape.

C’est là qu’intervient ce qu’on appelle le « chiffrement entièrement homomorphe ». Il s’agit d’une technique de chiffrement de pointe qui permet que des opérations mathématiques — en particulier addition et multiplication — soient effectuées sur des données chiffrées directement par un serveur, sans passer par le déchiffrement.

Toutefois, les systèmes de pointe actuels ne sont pas encore utilisables pour les opérations à grande échelle à cause du « bruit » : des données aléatoires sont introduites involontairement par les opérations de chiffrement. Ce bruit menace l’intégrité des résultats des calculs et rend nécessaires des opérations fréquentes de suppression des imprécisions — encore une fois, un processus coûteux en ressources de calcul, en particulier sur les systèmes de données volumineux.

Nous proposons pour ce problème une nouvelle approche de traitement direct de données chiffrées. Elle permet d’effectuer un nombre illimité d’opérations arithmétiques sans recourir au « bootstrapping » (l’opération mathématique permettant de réduire le bruit) et atteint des performances supérieures pour diverses opérations de calcul sécurisé, par exemple la réidentification respectueuse de la vie privée.


Créé en 2007 pour accélérer et pour partager les connaissances scientifiques sur les grands enjeux sociétaux, le Fonds Axa pour la recherche a soutenu près de 700 projets dans le monde entier, menés par des chercheurs originaires de 38 pays. Pour en savoir plus, consultez le site Axa Research Fund ou suivez-nous sur X (@AXAResearchFund).

The Conversation

Robert Deng a reçu des financements de la Singapore National Research Foundation.

13.03.2025 à 18:11

Retour sur le Sommet de Paris : l’IA « pour les gens et la planète » n’est pas celle que l’on croit

Victor Charpenay, Enseignant-chercheur au laboratoire d'informatique, de modélisation et d'optimisation des systèmes (LIMOS), Mines Saint-Etienne – Institut Mines-Télécom
L’IA durable recouvre deux concepts : une IA respectueuse de la planète et ses habitants, et une IA qui permet de préserver l’environnement. Les systèmes d’IA ne cochent pas tous les deux cases.
Texte intégral (3113 mots)
L’IA générative n’est pas indispensable pour étudier la planète ; par contre, elle consomme beaucoup d’énergie et de ressources. YutongLiu /BetterImagesofAI/JoiningtheTable, CC BY

Le Sommet pour l’action sur l’intelligence articifielle qui s’est tenu à Paris début février 2025 se voulait optimiste. Il a abouti à une déclaration pour « une IA durable et inclusive, pour les gens et la planète ». Les discussions sur la durabilité ont principalement eu lieu au ministère de la transition écologique, où était présent un de nos chercheurs.

Il faut distinguer différents types d’IA. L’IA générative, en particulier, n’est pas indispensable pour étudier la planète ; par contre, elle consomme beaucoup d’énergie et de ressources.


Le premier Sommet sur l’IA, organisé en 2023 par le Royaume-Uni sous le nom de Sommet pour la sécurité de l’IA, s’était conclu par une déclaration prudente sur les risques existentiels que poserait l’IA vis-à-vis de l’humanité. Le second Sommet qui se tenait le mois dernier à Paris, cette fois pour l’action sur l’IA, aura abouti à une déclaration beaucoup plus optimiste centrée sur une IA « pour les gens et la planète », pour reprendre les termes de son titre.

L’événement principal du Sommet pour l’action sur l’IA, organisé au Grand Palais, accueillait essentiellement des représentantes et représentants de gouvernements, il n’avait pas vocation à rentrer dans le détail. Pour comprendre ce que peut être une IA « pour les gens » et surtout « pour la planète », comme nous allons le voir, il faut pourtant différencier plusieurs types d’IA et préciser les termes.

Le Forum pour l’IA durable, qui se tenait en marge de l’événement principal, allait dans ce sens.Il s’est tenu au ministère de la transition écologique, à deux kilomètres du Grand Palais. En une journée, 25 personnes issues d’administrations publiques, d’entreprises de la Tech et du monde académique invitées par le ministère se sont succédé sur scène. L’organisation la plus impliquée sur la question était, semble-t-il, l’ONU, représentée par cinq personnes. J’étais, moi, dans l’audience.

Ce qui s’est dit au Forum pour l’IA durable

La conversation durant le forum peut se résumer ainsi :

Big Tech : « Regardez ce que peut faire l’IA ! Elle a déjà un impact positif sur nos sociétés. »

Administrations publiques : « De quoi auriez-vous besoin pour faire progresser cette technologie pleine de promesses ? »

Big Tech : « De plus d’énergie ! »

Recherche : « Attention tout de même au coût environnemental global de l’IA générative, qui a aussi un impact négatif sur nos sociétés. »

Big Tech : « Le domaine évolue très vite. Demain, des gains en efficacité absorberont la hausse de consommation, l’impact net sera positif ! »

Recherche : « C’est sans compter sur les effets rebonds qui amplifieront le recours à l’IA générative. »

Big Tech : « Ce n’est pas à nous de décider ce que les individus feront avec l’IA. Nous faisons confiance à la créativité humaine. »

Administrations publiques : « Cette IA pourrait-elle par exemple servir à la lutte contre le réchauffement climatique ? »

Recherche : « Certainement. Mais on ne parle alors plus d’IA générative, qui n’est que la dernière génération d’une longue série d’innovations technologiques.

Administrations publiques : « Je reviens quand même à l’IA générative. On observe déjà une forte inégalité d’accès à cette technologie (selon le revenu et selon le genre). Ne devrait-on pas essayer de la rendre plus accessible ? »

Recherche : « Vous décidez. Mais il faudrait alors une collaboration plus étroite avec la Tech, pour mieux estimer son impact net réel. Nous n’avons pas assez de données fiables. Vous non plus, d’ailleurs. »


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


L’IA générative contre la planète

L’IA générative a quelque chose de spectaculaire. Elle est en effet pleine de promesses. Pourtant, quelques minutes à peine après le lancement officiel de la journée, Sarah Myers West, co-directrice de l’institut de recherche privé AI  Now, rappelait un fait essentiel : le développement de cette technologie est en train de menacer la transition écologique.


À lire aussi : La climatisation et le boom de l’IA vont-ils faire dérailler les engagements climatiques des États ?



À lire aussi : Pourquoi l’IA générative consomme-t-elle tant d’énergie ?


Lorsque Donald Trump et Emmanuel Macron annoncent, les 21 janvier et 9 février respectivement, des deals à plusieurs centaines de milliards de dollars pour construire de nouveaux centres de données dédiés à l’IA, l’effet attendu est une hausse importante de la consommation électrique dans les régions concernées.

Dans l’assistance, l’association Beyond fossil fuels prend la parole pour rappeler qu’à court terme, ce surplus d’électricité sera probablement produit avec l’infrastructure existante, encore très émettrice de CO2 dans de nombreux pays.

graphique de demande d’éléctricité en Irlande et Virginie
Estimation par l’Agence internationale de l’énergie de la demande en électricité des centres de données en Irlande et en Virginie (l’État « capitale » des centres de données aux États-Unis), en pourcentage de la demande totale d’électricité de ces États. Agence internationale de l’énergie, CC BY
graphique demande d’électricité des data center aux États-Unis, Europe, Chine, Royaume-Uni
Estimation par l’Agence internationale de l’énergie de la demande en électricité des centres de données dans différentes régions du monde, en pourcentage de la demande totale d’électricité. Agence internationale de l’énergie, CC BY

À cet avertissement, Nvidia et Google, représentées par leur directeur et directrice sustainability (durabilité), répondent par des promesses. Le travail d’ingénierie dans ces entreprises serait tel que des gains substantiels en efficacité permettraient d’absorber la hausse actuelle de consommation due à l’IA.

Le représentant de Nvidia annonce par exemple une réduction de 75 % de la consommation électrique d’une génération à l’autre de leurs cartes graphiques. Les cartes conçues par Google, optimisées pour les réseaux de neurones artificiels, seraient encore plus performantes. Il n’y a pas eu d’opposition frontale entre les entreprises de technologie et les universitaires ce 11 février, mais, dans ses publications scientifiques, Google critique régulièrement les évaluations d’empreinte carbone faites par le monde académique, au motif qu’elles ne prendraient pas suffisamment en compte les dernières innovations.

Comme en réponse à cet argument, à la suite de Sarah Myers West, la chercheuse Sasha Luccioni prévient que l’histoire des sciences et techniques n’a jamais démontré que les gains en efficacité favorisent la sobriété. Au contraire, l’efficacité amène quasiment systématiquement un regain de consommation qui, en volume global, augmente la consommation énergétique, l’impact environnemental ou, dans le cas de l’IA, la quantité de calcul associée à une technologie. Ce phénomène porte un nom : le paradoxe de Jevons ou effet rebond.


À lire aussi : L'effet rebond : quand la surconsommation annule les efforts de sobriété


En ligne avec cet argument, l’OCDE a proposé une méthodologie de mesure d’impact environnemental qui prend en compte non seulement la production, le transport, l’exploitation et le recyclage de l’équipement informatique mais aussi les impacts indirects de l’adoption de systèmes d’IA, comme le recours systématique à ChatGPT plutôt qu’à un moteur de recherche.

L’IA non générative pour la planète

Malgré ces précautions, l’OCDE, l’Agence internationale de l’énergie, l’ONU et d’autres administrations publiques présentes au forum sont très enclines à voir l’IA comme un outil essentiel de lutte contre le réchauffement climatique. Certes, certains systèmes d’IA ont été conçus dans cet objectif. Le directeur du CivicDataLab, Gaurav Godhwani, avait été invité pour en donner un exemple : dans l’état d’Assam en Inde, où les inondations sont de plus en plus fréquentes, le CivicDataLab propose une application d’analyse de risques pour mieux anticiper ces inondations.

La communauté scientifique Climate Change AI, représentée par David Rolnick et Lynn Kaack à Paris, a fait un travail méticuleux de recensement de ce genre d’approches. Mais les chercheuses et chercheurs enchaînent avec une précision importante : l’IA regroupe sous un seul nom, fortement polysémique, de nombreuses techniques de traitement de la donnée.

Lorsque l’IA est utilisée comme outil d’aide à la décision, ce n’est plus de l’IA générative. Il n’est pas nécessaire de générer du texte ou des images pour analyser des images satellites (pour anticiper des catastrophes naturelles) ou prédire la demande en électricité d’un territoire (pour en optimiser la distribution). Or, les méthodes vouées à ces problèmes consomment nettement moins d’électricité qu’un modèle d’IA générative et sont loin de nécessiter des investissements conséquents dans des centres de données.

Dans une méta-analyse du travail de Climate Change AI, il apparaît que plus de la moitié des approches recensées sont des méthodes d’apprentissage machine connues depuis dix ou quinze  ans, avant l’émergence des IA génératives. Même lorsque l’IA générative se révèle intéressante dans la lutte contre le réchauffement climatique, pour les modèles météorologiques par exemple, son échelle est nettement réduite par rapport à celle des grands modèles utilisés par ChatGPT ou Mistral. Le laboratoire d’IA de Météo France, qui avait un stand au ministère de la transition écologique, a développé un modèle pour estimer les précipitations futures, conceptuellement proche de DALL·E (le générateur d’image de ChatGPT) mais 200 fois plus petit en nombre de paramètres.

Le terme d’« IA durable », sujet central des discussions ce 11 février, est donc utilisé pour désigner deux choses bien distinctes.

Il fait d’abord référence à une IA dont on maîtriserait la consommation énergétique et l’impact environnemental, mais les orateurs et oratrices du Forum pour l’IA durable l’utilisent aussi pour désigner une IA au service du développement durable. L’IA non générative coche les deux cases ; l’IA générative grand public, jusqu’à preuve du contraire, n’en coche aucune. L’IA des entreprises de technologie et celle des administrations publiques ne se ressemblent pas.

L’IA pour les gens

Bien que l’IA générative concentre tous les investissements et menace en partie la transition écologique, les quelques centaines de millions d’usagers de ChatGPT diraient peut-être à sa décharge qu’elle est utile à toute sorte de tâches. Il serait alors justifié de lui allouer une partie non négligeable de l’électricité mondiale.

Peut-on ainsi dire que l’IA générative est une IA « pour les gens » ? Autrement dit, si ChatGPT obtenait une dérogation à l’effort mondial de lutte contre le réchauffement climatique, qui en bénéficierait réellement ?

Ce 11 février justement, Christine Zhenwei Qiang, directrice au numérique de la Banque mondiale, reprend les conclusions d’un rapport de son institution sur l’adoption de ChatGPT dans le monde. Selon ce rapport, le trafic vers ChatGPT vient à 50 % de pays à fort revenu alors que ces pays ne représentent que 13 % de la population mondiale. Les pays à faible revenu représentent à l’inverse 1 % seulement du trafic. Comme un symbole, la ministre de l’information et des communications du Rwanda, un pays à faible revenu selon la Banque mondiale, était initialement prévue dans le programme de la journée, mais n’y a finalement pas participé.

Toujours selon le rapport de la Banque mondiale, les femmes ne représentent qu’un tiers seulement des usagers. Ces deux catégorisations, par revenu et par genre, illustrent l’utilité toute relative de l’IA générative pour l’humanité.

The Conversation

Victor Charpenay a reçu des financements du réseau d'excellence ENFIELD (European Lighthouse to Manifest Trustworthy and Green AI) dans le cadre du programme Horizon Europe.

12.03.2025 à 17:30

Pourquoi, au ski, les femmes se blessent-elles plus au genou que les hommes ?

Frédérique Hintzy, Professeure des Universités en sciences du Sport, Université Savoie Mont Blanc
Brice Picot, Maître de conférence - kinésithérapeute, Université Savoie Mont Blanc
En ski de descente, 20 % des blessures sont dues à la rupture du ligament croisé antérieur du genou. Une skieuse « loisir » court un risque trois fois plus élevé de se blesser que ses homologues masculins.
Texte intégral (2268 mots)

En ski de descente, près d’un quart des blessures se concentre sur la rupture du ligament croisé antérieur du genou. Fait surprenant : une skieuse « loisir » court un risque trois fois plus élevé de se blesser que ses homologues masculins. Ratio qu’on ne retrouve pas chez les professionnels. Comment l’expliquer et surtout, comment prévenir ces blessures ?


La neige, le soleil, les éclats de rire, la glisse… toutes ces belles images associées aux vacances d’hiver… et soudain la chute, le genou qui se tord entraînant une lésion du ligament croisé antérieur (LCA), la douleur… et les suites : opérations, séances de kiné, arrêt de travail… Les ruptures de ce ligament comptent à elles seules pour 20 % des blessures en ski. Tous les niveaux de pratique sont touchés, du débutant au compétiteur. Mais il faut souligner qu’une skieuse « loisir » a un taux de lésion du LCA trois fois plus élevé que celui de ses homologues masculins.

Le ligament croisé antérieur (LCA) est situé au centre de l’articulation du genou et en assure sa stabilité, aidé par des contractions musculaires. Anatomiquement, le mécanisme qui conduit à sa lésion correspond à un mouvement de « torsion » excessif du tibia sous le fémur, le genou rentrant vers l’intérieur.

Les mécanismes lésionnels et les solutions de prévention diffèrent entre la pratique compétitrice et récréative, concentrons-nous sur la pratique de loisirs, constituant la plus grande partie des vacanciers dans les stations de ski.

Le ski : un cocktail explosif pour nos genoux

Tout d’abord, pourquoi le LCA est-il si souvent touché en ski alpin ? Plusieurs explications viennent malheureusement s’additionner, faisant de ce sport un cocktail explosif pour nos genoux !

Premièrement, le mouvement traumatique du LCA peut se produire dans de nombreuses situations de ski, à vitesse faible comme élevée, lors de chutes ou non. Il peut s’agir d’une contrainte mécanique avec une surcharge du genou lors d’une réception de saut ou sur un appui puissant. Une mise en tension musculaire peut aussi expliquer cette lésion, car trop forte, trop rapide et/ou non optimale.

Une autre particularité de la pratique du ski est la position fléchie du genou entre 30° et 90° lors du virage, or c’est justement l’amplitude articulaire dans laquelle le genou est le moins stable compte tenu d’un système ligamentaire détendu. Le genou peut aussi subir une flexion excessive suite à un déplacement du centre de gravité vers l’arrière et le côté, appelé mécanisme du « pied fantôme ». Des accélérations du tibia différentes de celles du fémur peuvent se produire, entraînant un cisaillement antérieur du tibia, une hyperextension brutale.

Une autre explication vient de l’environnement de pratique, comme la présence d’obstacles fixes (arbres, pylônes) et mobiles (les autres skieurs), des conditions météorologiques particulières (températures basses, visibilité dégradée) et changeantes (variations des qualités de la neige).

Enfin, deux autres explications concernent le matériel. Les chaussures rigides maintenant fermement le pied et la cheville, c’est bien le genou, la première articulation à être sollicitée et à subir les contraintes. Quant aux skis, ils sont aussi les ennemis de nos genoux. La carre d’un ski peut mordre la neige et ainsi partir dans une direction alors que celle de l’autre ski préférerait rester dans une autre direction. Compte tenu de leurs dimensions importantes (longueur, largeur et masses), les skis peuvent aussi agir comme un levier entraînant la jambe en rotation avec un moment de force alors important.

Des stratégies de prévention efficaces pour les femmes

La diversité des mécanismes lésionnels induit une diversité de « stratégies de prévention ». Les recherches en épidémiologie parlent de facteurs prédisposant à la pathologie et les classent en deux catégories.

Malheureusement, la première catégorie est non modifiable car propre au skieur. On y retrouve des facteurs comme le sexe, les antécédents de blessures, l’âge ou certaines particularités anatomiques. Par exemple, l’hyperlaxité (élasticité excessive de certains tissus) ou la forme particulière du tibia ou du fémur jouent un rôle dans la stabilité et les contraintes ligamentaires du genou.

C’est d’ailleurs ce qui explique en partie que les femmes soient plus à risque de rupture du LCA, avec une déviation des genoux vers l’intérieur comme des jambes en X (valgus) plus marquée et une structure ligamentaire moins tolérante aux contraintes que les hommes. S’y ajoute l’influence hormonale, avec un risque qui semble évoluer en fonction des différentes phases du cycle menstruel.

Par contre, connaître cette fragilité permet d’adapter sa pratique ou son entraînement. De nouveau, l’exemple des femmes est intéressant car les skieuses de haut niveau ne présentent plus un risque accru de rupture du LCA par rapport à leurs homologues masculins. L’explication est à chercher dans la catégorie de facteurs modifiables prédisposant à la pathologie. Ils peuvent concerner le skieur lui-même, par exemple les capacités du système neuromusculaire, que ce soit la production de puissance, de résistance à la fatigue ou encore les qualités proprioceptives (la proprioception désigne la perception, par le cerveau, de la position des différentes parties du corps dans l’espace, ndlr).

Il a été montré que les qualités de production de force jouent un rôle important dans la prévention des ruptures du LCA, notamment en cas d’asymétrie importante entre les deux jambes ou de déséquilibre entre les muscles agonistes et antagonistes du genou avec une force du quadriceps supérieure aux ischio-jambiers (ratio I/Q).

D’ailleurs, les skieuses « loisirs » présentent un risque deux fois plus élevé de rupture du LCA sur leur jambe non dominante considérée comme moins forte ainsi qu’un ratio I/Q important. Des programmes de renforcement, de coordination et d’équilibre vont permettre de les améliorer, avec un focus sur le contrôle de la stabilité du genou. Cette solution est largement utilisée par les skieurs compétiteurs dans le cadre de leur entraînement. Et c’est ce qui explique en partie l’égalité de skieuses et des skieurs compétiteurs face aux lésions du LCA, les skieuses ayant corrigé les déséquilibres d’activité musculaire ratio I/Q de chaque cuisse ou entre les deux membres.

Le laboratoire LIBM que je dirige (Université Savoie Mont-Blanc) travaille activement sur la mise en place de tests originaux pour évaluer les qualités des skieurs élites.

Bien se préparer avant de skier est indispensable

Le skieur « loisir », et surtout la skieuse, devrait donc aussi préparer sa semaine de vacances à la neige avec un programme physique adapté les semaines précédentes ou mieux, une pratique sportive régulière mixant du cardio, du renforcement musculaire et de la proprioception.

Et si cela n’est pas fait alors que les vacances commencent, il est temps au moins de s’échauffer avant de s’élancer sur la piste : des mouvements de mobilité de toutes les articulations, des flexions de genoux lentes puis dynamiques, des fentes avant et c’est parti !

Il est également important de prendre en compte les signes de fatigue arrivant au cours de la journée de ski ou de la semaine, pour s’arrêter avant la blessure. Des muscles douloureux, raides et répondant moins bien, une diminution de l’attention, des mouvements moins fluides et des déséquilibres, voilà des signes à prendre en compte.

Un autre facteur modifiable par le skieur est son propre comportement, en choisissant une piste adaptée à son niveau et en réduisant sa vitesse pour rester maître de ses trajectoires.

Ces facteurs intrinsèques nécessitent que le skieur prenne conscience de ses capacités, de l’environnement montagnard et du matériel pour adapter son comportement : enfin un facteur qui place les skieuses en bonne position, car elles présentent significativement des comportements moins à risques que les skieurs !

Quant au matériel, il est aussi au cœur du dispositif des solutions de prévention des lésions du LCA. Il a été montré que les dimensions du ski influencent significativement les blessures, de par le levier important qu’ils induisent. Ainsi, des skis plus courts et moins larges sont moins dangereux pour les genoux.

Des réglages des fixations à adapter

La dernière solution, et non la moindre, concerne la fixation de ski. Sa fonction première est de maintenir le ski à la chaussure pour créer une interface ski-skieur et ainsi permettre la pratique de cette activité sportive. Mais cette fixation doit aussi être capable de se décrocher pour libérer le pied du skieur de son ski lorsque le genou est en danger. Le ski libéré ne constitue ainsi plus un levier important entraînant la jambe puis le genou en rotation ou en translation.

Pour répondre à ces fonctions opposées, les fixations abritent des ressorts mis en compression sous l’action du chaussage. En ce qui concerne le déchaussage, il sera obtenu par un mouvement de la fixation sous l’action d’un moment de force jusqu’à une position donnée.

Ainsi, régler la libération d’une fixation consiste à ajuster la compression du ressort au moment de force souhaité pour le déchaussage. Ce réglage est indiqué par une norme. La sélection d’un réglage se fait en fonction du poids du skieur et de la longueur de sa coque de chaussure de ski. Cette valeur sera ensuite adaptée de façon empirique au niveau, à l’environnement de pratique (type de neige), à la perception du skieur (engagement, peur) et, plus récemment, au sexe, en augmentant ou diminuant ce réglage. En conséquence, la détermination des forces rencontrée dans l’activité – et du réglage associé  – est primordiale, tout comme le processus de déclenchement.

Or, les études épidémiologiques montrent que ce point pourrait être largement amélioré. Parmi une cohorte de 498 skieurs « loisirs » blessés au LCA, l’absence de déchaussage correspondait à 78 % des cas, et était significativement plus élevée chez les femmes que chez les hommes (83 % contre 66 %). La fréquence nettement plus faible de déchaussage des fixations chez les skieuses blessées au LCA est bien connue dans la littérature.

La piste du déchaussage semble donc être un bon moyen de prévenir les lésions du LCA chez le skieur loisir, et encore plus chez la skieuse. C’est de nouveau un des points d’attention de mon laboratoire qui travaille sur la compréhension des moments de forces lors de la pratique du ski alpin, avec un focus sur la skieuse. J’ai d’ailleurs montré que les skieuses présentaient des forces appliquées sur la fixation bien moindres que ceux des hommes, ce qui explique le non-déchaussage de leur fixation… et donc, en partie, le risque accru de lésion du LCA.

Il est par conséquent important de sensibiliser les skieurs et les skieuses au réglage adapté et sécurisant de leurs fixations, avec l’aide d’un professionnel. Ainsi, pour une skieuse, il est maintenant proposé de diminuer de 15 % la valeur des réglages par rapport à la norme ISO et de 30 %, si c’est une débutante.

En conclusion, la prévention passe par la correction des facteurs modifiables mis en cause dans les ruptures du LCA. Des solutions sont proposées, mais pas suffisamment, à en croire les données épidémiologiques qui restent élevées. Il reste encore donc du travail aux chercheurs, aux industriels, aux exploitants et aux aménageurs des stations de ski pour limiter ce risque.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

10.03.2025 à 16:21

Toujours plus de consommation d’hydrocarbures pour l’IA ?

Stéphane Grumbach, Directeur de recherche Inria, ENS de Lyon
Gary Dirks, Senior Director Global Futures Laboratory, Arizona State University
Sander van der Leeuw, Emeritus Professor of Anthropology and Sustainability, Arizona State University
L’IA, et plus généralement le numérique, demandent des capacités énergétiques de plus en plus massives. Comment allier lutte contre le changement climatique, souveraineté et sécurité ?
Texte intégral (1650 mots)
Les forages pétroliers ne sont pas près de s’arrêter. Colton Sturgeon/Unsplash, CC BY

L’intelligence artificielle, et plus généralement le numérique, demandent des capacités énergétiques de plus en plus massives. Comment allier lutte contre le changement climatique, souveraineté et sécurité ?


Au moment où le président américain signait l’executive order visant à assurer la domination américaine sur l’intelligence artificielle, l’irruption du chatbot chinois DeepSeek a semé une vague de panique. Les marchés de la tech et de l’énergie ont accusé le coup, propulsant Nvidia, qui produit des composants essentiels pour l’IA, dans une chute de presque 600 milliards de dollars, la plus grande perte de l’histoire en un jour.

Il a suffit d’une innovation chinoise se revendiquant d’une plus grande frugalité, tant dans son développement que pour son fonctionnement, pour chahuter la course à l’intelligence artificielle. DeepSeek ouvre la voie pour des développements moins gourmands en calcul.

Le développement de l’intelligence artificielle et de manière plus générale de l’industrie numérique est l’une des toutes premières priorités tant pour les États-Unis que pour la Chine.

Dans la rivalité qui se joue entre les deux superpuissances, c’est une nécessité à la fois pour assurer leur sécurité intérieure et pour projeter leur puissance hors frontières. La croissance des besoins énergétiques de ces industries est donc une question secondaire, même si elle doit conduire à une augmentation de la production d’hydrocarbures. Aucune politique de réduction des émissions de gaz à effet de serre ne pourra ignorer cet ordre de priorité.

Depuis la COP de Paris, une grande publicité a été accordée à l’objectif de transition énergétique et par conséquent de réduction de l’exploitation des hydrocarbures. Pour autant leur consommation n’a cessé d’augmenter. Les États-Unis, premier producteur mondial, ont continuellement augmenté leur production depuis le mandat du président Obama.

Cette contradiction entre les politiques et les intentions est problématique. Selon le Global Carbon Project, les émissions mondiales de carbone provenant des combustibles fossiles ont atteint des niveaux record en 2023. Un rapport du Programme des Nations unies pour l’Environnement de novembre 2023 estime que les gouvernements prévoient de produire en 2030 le double des combustibles fossiles par rapport à la quantité permise pour limiter le réchauffement à 1,5 °C. Les émissions annuelles mondiales de dioxyde de carbone dépassent 40 milliards de tonnes, principalement issues des combustibles fossiles. Elles ont augmenté de 1,5 % par rapport aux niveaux prépandémiques.

L’élection de Trump marque un tournant

Cette contradiction pourrait toutefois connaître prochainement une forme de résolution, mais dans une forme qui pourrait surprendre. Elle se fera en faveur de l’alignement des discours sur la réalité de l’augmentation des besoins énergétiques, et non l’inverse. Il ne s’agira donc pas de l’alignement des politiques sur les objectifs du développement durable. Les efforts actuels de réarmement sonnent le glas de bien des contraintes environnementales.

L’élection américaine marque un tournant clair dans le discours. Le président nouvellement élu l’a affirmé très clairement dans son adresse inaugurale. « Nous possédons quelque chose qu’aucun autre pays manufacturier n’aura jamais – la plus grande quantité de pétrole et de gaz de tous les pays du monde – et nous allons l’utiliser. »

Un certain nombre de banques avaient déjà quitté l’alliance Net Zero Banking (NZBA) avant même l’investiture, abandonnant ainsi les contraintes environnementales pesant sur leurs investissements. On peut alors s’interroger. La baisse de l’exploitation des hydrocarbures est-elle un objectif réalisable ? La rivalité des États-nations ne le favorise pas. De surcroît, il ne présente aucun intérêt propre pour aucun acteur. La bataille n’est pour autant pas perdue, mais elle doit s’adapter au réel et tirer avantage de la géopolitique au lieu de la subir. Les énergies dites vertes sont avant tout produites localement, elles doivent être promues pour leur contribution à la souveraineté.

Le débat public sur les politiques énergétiques est focalisé sur la durabilité et le changement climatique, alors que la souveraineté et la sécurité nationale restent les principaux moteurs des décisions nationales. La logique du système énergétique actuel est guidée par les enjeux géopolitiques, structurée autour du contrôle des stocks et des flux d’énergie par des mécanismes, tangibles, comme le raffinage, les oléoducs et les tankers, et intangibles, comme les marchés et les assurances.

Les besoins énergétiques du numérique sont en continuelle hausse

Le numérique présente une singularité dans l’effort de transition écologique. Ses besoins énergétiques croissent à l’inverse de la plupart des secteurs engagés dans un mouvement de baisse. Ce n’est toutefois pas une anomalie. Les liens entre l’industrie numérique et les questions environnementales sont plus complexes qu’il n’y parait à première vue. La dégradation environnementale a en effet deux conséquences, la nécessaire atténuation et l’inévitable adaptation. Autrement dit, d’une part, la montée des interdépendances entre les activités humaines et l’environnement doit être prise en compte. D’autre part les risques de confrontation croissent avec les difficultés environnementales.

Le numérique est au cœur de la réponse à ces deux défis. Il permet de prendre en compte les interactions avec l’environnement, et de distribuer les ressources avec une connaissance très fine des contraintes tant locales que globales. C’est ce que les plates-formes d’intermédiation, qui orchestrent les marchés entre producteurs et consommateurs de biens ou de services, font déjà dans de nombreux domaines, avec Google, Uber, etc. Distribuer l’électricité produite et stockée par d’innombrables acteurs est impossible sans les plates-formes numériques, qui seules savent orchestrer des marchés avec une connaissance fine et continue de la situation des acteurs. Il est remarquable d’ailleurs que les grands acteurs du numérique investissent désormais directement dans le secteur de la production de l’énergie, nucléaire ou renouvelable, d’abord pour alimenter leurs centres de données, mais à terme probablement comme gestionnaire global de l’électricité.

Les plates-formes sont donc au cœur des solutions. Mais elles sont aussi des instruments de la confrontation. Si l’interconnexion de tous les acteurs de la société a permis des développements extraordinaires, la difficulté de garantir la sécurité du réseau conduit inexorablement à une militarisation de la société dans son ensemble. Les tentatives de régulation sont de peu d’impact sur cette évolution.

Le numérique est devenu après les espaces physiques que sont la terre, la mer ou l’air, l’espace où se déploient les conflits. La guerre en Ukraine en offre la première démonstration avec la généralisation des armes sans pilote, l’utilisation des cryptomonnaies, les nouveaux moyens cartographiques basés sur les smartphones. L’intelligence artificielle connaît, comme de nombreuses technologies par le passé, un développement entraîné par la défense. Il serait illusoire dans cette période de militarisation d’espérer voir la consommation énergétique du numérique baisser.

Alors que faire ? La solution pourrait être dans la recherche de souveraineté. Si la sécurité était acceptée comme l’objectif principal pour tous les États, en particulier par les principaux blocs géopolitiques, la question pourrait alors se ramener à celle de la transition vers une sécurité à long terme dans chacun d’eux. La réponse pourrait être double : construire la capacité des nations à dépendre de l’énergie produite localement, et briser les dépendances énergétiques internationales existantes. Les deux peuvent être atteints en substituant les sources d’énergie locales et les réseaux de distribution intelligents aux modèles de commerce de l’énergie à longue distance existants. Une telle transition est déjà à portée de main, le prix de l’énergie renouvelable par watt ayant considérablement diminué par rapport au prix des autres formes de production d’électricité. Il faut faire de la dure réalité de cette boucle infernale un atout et non un écueil.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

24 / 25

 

  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Monde Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
  CULTURE / IDÉES 1/2
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  IDÉES 2/2
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
  Pas des sites de confiance
Contre-Attaque
Issues
Korii
Positivr
Regain
Slate
Ulyces
🌞