10.01.2026 à 06:48
Thierry VIEVILLE
Cause commune est « la voix des possibles » une radio généraliste libre et indépendante sur les ondes en Ile de France et sur Internet partout dans le monde. Elle donne la parole à qui veut aider le monde à aller mieux et aide à décloisonner la culture et les savoirs. Ses contenus sont partagés comme des […]
L’article IA, création audio générée en temps réel concert est apparu en premier sur Blog binaire.

Cause commune est « la voix des possibles » une radio généraliste libre et indépendante sur les ondes en Ile de France et sur Internet partout dans le monde.
Elle donne la parole à qui veut aider le monde à aller mieux et aide à décloisonner la culture et les savoirs.
Ses contenus sont partagés comme des biens communs, pour toutes et tous.
– Le parcours multidisciplinaire de Ninon Devis Salvy
– La création d’un nouvel instrument de musique : le Neurorack
– La créativité : définition et complexité
– L’IA au service de la créativité humaine vs. l’IA créatrice autonome
– Les risques d’homogénéisation créative
– La divergence active et l’appropriation créative des outils IA
– Les défis éthiques, techniques et philosophiques
L’article IA, création audio générée en temps réel concert est apparu en premier sur Blog binaire.
01.01.2026 à 06:05
Thierry VIEVILLE
L’article Bonne année non binaire ! est apparu en premier sur Blog binaire.

L’article Bonne année non binaire ! est apparu en premier sur Blog binaire.
26.12.2025 à 07:18
Thierry VIEVILLE
Allez avouez-le : quand on observe certains de nos congénères, ne souhaite-t-on pas aux ordinateurs de surtout pas devenir « intelligents » comme nous ? Bonne nouvelle pour ces machines : ça fonctionne vraiment différemment de notre cerveau. Oui … mais comment ces machines peuvent-elles exécuter des algorithmes aussi déraisonnablement efficaces au quotidien que ce dont nous […]
L’article Tout ne se calcule pas … et pas que l’amour :) est apparu en premier sur Blog binaire.
Allez avouez-le : quand on observe certains de nos congénères, ne souhaite-t-on pas aux ordinateurs de surtout pas devenir « intelligents » comme nous ? Bonne nouvelle pour ces machines : ça fonctionne vraiment différemment de notre cerveau. Oui … mais comment ces machines peuvent-elles exécuter des algorithmes aussi déraisonnablement efficaces au quotidien que ce dont nous disposons désormais ? David Louapre qui anime la [super] chaîne de popularisation scientifique Science Étonnante avec son blog associé, nous fait découvrir ici la « première machine » qui a fonctionné comme un ordinateur sans … avoir besoin de la construire ! Et nous permet d’approfondir notre réflexion sur ces questionnements entre intelligence humaine et ce qu’on dit être de l’intelligence artificielle. Benjamin Ninassi et Pierre Paradinas.
Cette vidéo parle des travaux de Alan Mathinson Turing qui préfigurent l’ordinateur moderne. Ce même Turing qui a proposé un test pour tenter de distinguer intelligence humaine et algorithmique, test qui serait -du reste- à revoir avec les derniers agents conversationnels à la Chat GPT (dont David nous explique aussi le fonctionnement par ici). Ce même Turing qui a en quelque sorte changé le cours de la seconde guerre mondiale en mécanisant un calcul, qui a pu piger comment les mathématiques sont à des endroits inattendus dans la nature, et tant de choses … Mais, avant tout, il commencé par comprendre comment … faire faire tous les calculs possibles à une machine. À David de nous l’expliquer :
Pour approfondir la réflexion ou préciser quelques points, lisons les notes partagées en plus de la vidéo.
C’est David qui lance la réflexion, en commençant par l’intelligence :
Selon notre bien estimé collègue Gilles Dowek, Informaticien et Philosophe de l’Informatique, oui : le monde de par ses lois physiques, au moins au delà de l’échelle quantique, est une [gigantesque] machine de Turing, sauf à croire à la « magie », à contrario d’autres points de vue* comme celui de Abhinav Muraleedharan.
Oui « mais » :
– le cerveau est une machine extraordinairement complexe plus de 50 milliards de neurones connectés entre eux par de l’ordre de 10000 synapses dans le système nerveux central, chaque synapse transmettant une information complexe temporellement et chimiquement, de plus la façon de calculer n’a rien à voir avec le « binaire » des ordinateurs, l’information est plus événementielle et stochastique …réductible à une machine de Turing ? Certes mais alors de quelle complexité** !! Peut-être, pour un seul cerveau, plus que tous les ordinateurs réunis;
– ce qui est dans notre cerveau bénéficie de millions d’année de calcul, transmis par l’héritage génétique au fil de d’évolution des espèces, ce que nous savons faire pour survivre n’est pas uniquement appris naturellement en interagissant avec notre famille et les autres humains, ou à l’école, nous avons toutes et tous, à égalité, un nombre immensurable de calculs*** qui ont abouti aux mécanismes mentaux dont nous disposons;
– notre intelligence est pas un truc « hors sol » on pense avec nos émotions et notre pensée, incarnée dans notre corps lui est indissociable tout autant que de toute la richesse de ses interactions avec l’environnement. Proposer même des milliards d’exemples à un algorithme d’apprentissage est en comparaison dérisoirement rudimentaire, par rapport à toutes nos sensations. Notre perception est « rétro-active » : on ne se contente pas de recevoir les sensations passivement. Par exemple la vue nécessite des mouvements des yeux qui permettent au regard de « palper » les scènes visuelles. C’est ainsi de manière active que nous prenons en compte les « entrées » de notre cerveau, tel l’enfant qui apprend avec des gestes et en interagissant avec son environnement bien mieux qu’avec des mots;
– et surtout, oui surtout pour l’avenir de nos enfants, notre cerveau avec tout ça ne consomme qu’une vingtaine « watts » en équivalent électrique, quand les derniers systèmes dits d’intelligence artificielle, mettent en péril par leur insoutenabilité notre capacité à prospérer en tant qu’espèce.
Alors, oui le cerveau n’est jusqu’à preuve du contraire (rasoir d’Ockham oblige) « qu’une machine de Turing´´, soit … mais quelle machine !
Et pour l’amour alors ?
Ah oui, et bien c’est vidéos de David, avec un esprit critique ça nous donne envie d’aimer**** … la science, si étonnante.
Thierry Viéville, chercheur en neuroscience computationnelle.
(*) Dans l’article de Abhinav Muraleedharan, il montre que les machines de Turing ne peuvent pas construire tous les objets mathématiques possibles, certes, à contrario des humains, ce qui de fait créerait un fossé … sauf que ça, que les humains peuvent construite « tous » les objets mathématiques possibles, ce n’est pas prouvé ! (et pas prouvable : ce n’est pas réfutable).
(**) On parle ici de la complexité de Kolmogorov, en bref … il faudrait un algorithme de taille, certes finie, mais incommensurablement énorme pour simuler tous les « messages » qui sont dans un cerveau.
(***) On fait allusion ici à un concept assez bien formalisé qui est la profondeur logique de Bennett, en bref … il faudrait que l’algorithme de taille minimale, qui génère tous les messages du cerveau calcule pendant un nombre d’étapes, certes fini, mais inimaginablement énorme pour disposer de tous nos réflexes, gestes et fonctions cognitives de notre cerveau.
(****) Au sens de pragma (πρᾶγμα, amour concret, durable, existentiel, qui passe par les actes), à distinguer de philia (φιλία, amitié, affection bienveillante, platonique, estime mutuelle, entraide), ou agapè (ἀγάπη, amour désintéressé, divin, universel, don de soi inconditionnel), ou encore storgê (στοργή, affection familiale, amour filial ou fraternel), dont l’imprégnation (εμπότιση, attachement affectif instinctif d’un bébé animal envers un être vivant qui lui semble conditionner sa survie), et aussi philautia (φιλαυτία, amour de soi, confiance et estime de soi), sans oublier oui-oui (coquin·e, va) … éros (ἔρως, amour physique, plaisir du corps, désir) et ses variantes lupus (= éros ludique, mot d’origine latine) ou mania (= éros obsessionnel, passionnel), merci aux Grecs Anciens de nous permettre de nommer tout ce que peut vouloir dire le mot « amour » … toute chose qu’on pourrait sûrement simuler avec un algorithme … mais ce n’est pas pour ça que la machine va le vivre en conscience dans sa chair … qu’elle n’a pas.
L’article Tout ne se calcule pas … et pas que l’amour :) est apparu en premier sur Blog binaire.
22.12.2025 à 12:22
Serge ABITEBOUL
Jacques Sainte-Marie est mathématicien à l’Inria et à Sorbonne université. Il s’intéresse à la modélisation et à la simulation numérique des phénomènes géophysiques (risques naturels et environnementaux, dynamique océanique…). Parallèlement il étudie les impacts positifs et négatifs du numérique et de l’IA sur divers secteurs notamment l’environnement, l’agriculture. Il nous propose une réflexion sur le […]
L’article IA ou environnement : faut-il choisir ? est apparu en premier sur Blog binaire.
Si on excepte certains domaines comme celui de la santé, la notion de progrès notamment le progrès scientifique et technique est devenue un sujet de controverse entrainant de nombreuses critiques : solutionisme technologique, finalité inaccessible du progrès, risques induits et non maitrisés par les nouvelles technologies… Si le bilan des progrès scientifiques et techniques des dernières décennies mérite parfois d’être critiqué, le changement climatique et la transition écologique nous obligent à envisager des évolutions majeures de nos sociétés et de leurs organisations.
Dans toute l’histoire de l’humanité, avons-nous connu à une période et dans une région particulière, une société qui serait, pour les plus de 8 milliards de femmes et d’hommes du XXIe siècle, à la fois désirable et compatible avec la préservation de l’environnement ? Répondre négativement à cette interrogation implique la nécessité de proposer des innovations techniques et organisationnelles ainsi que des modifications substantielles de nos comportements et de nos valeurs afin de réduire drastiquement notre empreinte environnementale.
Sans éluder les aspects négatifs de son développement et de son utilisation, on cherche à montrer comment le numérique et l’intelligence artificielle peuvent contribuer à ces transformations et à la transition écologique.
Le numérique représente aujourd’hui 4,4 % de l’empreinte carbone de la France. Ce pourcentage est en croissance mais il doit être comparé à l’empreinte carbone d’autres secteurs d’activité comme la mobilité (30%) ou l’alimentation (20%). Le développement de l’intelligence artificielle (IA) joue un rôle important dans l’empreinte environnementale du numérique. Selon le dernier rapport de l’agence internationale de l’énergie les data centres ont représenté 1.5% de la demande électrique mondiale et ce chiffre pourrait passer à 3% en 2030. A noter que le développement des systèmes d’IA apporte des gains de performance très importants qui d’un côté réduisent la consommation énergétique mais de l’autre permettent le développement de nombreux modèles d’IA parfois très gros et très consommateurs de ressources.
Concernant les impacts environnementaux des systèmes qu’ils développent, la transparence n’est pas d’actualité pour de nombreux acteurs de l’IA car en complément de la consommation électrique, des informations telles que le fonctionnement des systèmes de refroidissement, la fréquence des phases d’apprentissage, la durée de vie des processeurs ainsi que leur nombre sont rarement communiquées et obligent à des estimations lacunaires. Afin de sensibiliser les utilisateurs des systèmes d’IA, de nombreuses comparaisons circulent comme certaines donnant la quantité d’eau nécessaire au refroidissement pour chaque requête effectuée sur un système d’IA générative. Si ces chiffres ont été obtenus rigoureusement, ils ne sont valables que pour un type de requête donné, sur un système donné et peuvent difficilement être généralisés. En effet, entre une simple requête textuelle, par exemple le lieu de décès de Victor Hugo, et une requête nécessitant la génération d’images l’énergie nécessaire à la réalisation des tâches peut différer de plusieurs ordres de grandeur.
Afin de quantifier les performances des systèmes d’IA sur le plan environnemental et permettre ainsi un usage raisonné, une plus grande transparence de tous les acteurs du numérique doit s’imposer afin de connaître les consommations en eau, en minerais et en énergie des systèmes d’IA tout au long de leur cycle de vie. Ainsi, la communauté scientifique devrait établir une liste de paramètres et de quantités à rendre public par les acteurs du numérique afin d’évaluer l’empreinte environnementale des systèmes d’IA les plus utilisés.
S’il est difficile d’envisager une règlementation internationale sur ce sujet, les acteurs du numérique adoptant de bonnes pratiques doivent être encouragés. Cela peut passer par la création de labels ou d’indicateurs de performance environnementale. En effet, alors que le développement des systèmes d’IA suscite de nombreuses craintes, la transparence quant aux impacts environnementaux de ces systèmes est une nécessité.
Le secteur du numérique mais également d’autres secteurs se sont développés dans un contexte de disponibilité des matières premières, de l’énergie et de fluidité des échanges commerciaux. Cette relative abondance n’a évidemment pas incité à la sobriété. Mais la situation pourrait changer :
Ces évolutions laissent envisager que l’on se dirige vers un monde contraint où la sobriété devient certes une contrainte mais surtout un atout de compétitivité. Disposer d’un numérique écoresponsable, sobre en matières premières et en énergie, permettra alors d’allier performances économiques et environnementales. Développer un numérique écoresponsable est un investissement d’avenir qui est structurant pour tout un secteur industriel de la construction des dispositifs numériques, aux logiciels et aux usages.
Des microprocesseurs plus rapides, des logiciels plus gros offrant de nombreuses fonctionalités, des réseaux ayant une capacité à transférer plus de données, des dispositifs peu réparables, tout ceci incite à renouveler rapidement les équipements numériques[3]. Pourtant, un grand nombre de tâches demandées à un ordinateur ou à un téléphone ne nécessite pas un gros volume de données ou une vitesse de réalisation élevée et ne fait pas appel à des fonctionnalités sophistiquées. Dans ce contexte, le lowtech que l’on pourrait définir par numérique suffisant et résiliant est promis à un bel avenir. Il ne s’agit pas d’une technologie au rabais, c’est au contraire une thématique de recherche majeure pour la communauté scientifique qui nécessite une démarche globale puisque pour être viable tous les composants numériques des terminaux aux logiciels en passant par les réseaux et les capteurs doivent être lowtech.
Il est important de souligner que la trajectoire de développement du numérique n’est pas uniquement déterminée par les résultats des recherches scientifiques et les avancées technologiques, l’appropriation des technologies par les consommateurs et les usages déterminent largement les évolutions observées. Les sciences humaines et sociales ont un rôle essentiel et les travaux des économistes, des sociologues, des psychologues, des juristes doivent permettre notamment d’analyser notre relation au numérique, de comprendre les transformations qu’il induit dans nos sociétés et dans notre relation au monde et surtout d’identifier les leviers d’action permettant d’anticiper les conséquences de telle ou telle technologie et de garantir le respect des règles et des libertés.
Si l’IA n’est pas une technologie récente, le développement de grands modèles d’IA générative l’est et le lancement de ChatGPT en novembre 2022 a lancé la course au gigantisme (taille et nombre de paramètres des modèles, volume de données utilisées pour la phase d’apprentissage, nombre de requêtes effectuées). Mais le développement d’énormes systèmes d’IA généralistes est-il une stratégie judicieuse ? L’apparition d’une nouvelle technologie aux retombées potentielles nombreuses comme l’IA incite initialement à concevoir des systèmes capables de répondre aux nombreuses attentes. Mais dans un second temps, les contraintes de performance, de précision et l’envie de disposer de systèmes faciles à développer et simples à manipuler incite à s’orienter vers des systèmes spécifiques capables de réaliser efficacement un nombre limité de tâches. Cette tendance semble s’observer actuellement avec le développement de systèmes d’IA spécifiques pour un domaine applicatif (droit, agriculture…). La spécificité des modèles d’IA ainsi développés en réduit très sensiblement la taille et donc les impacts environnementaux et en rend la construction et la gestion plus aisée. Cette évolution favorise également l’innovation en permettant à de nombreux nouveaux acteurs de se développer et de proposer des solutions dédiées alors qu’un oligopole de grands modèles d’IA détenus par quelques acteurs verrouillerait l’innovation. D’un point de vue juridique, un système d’IA construit à partir d’un volume limité de données dont la qualité, la provenance et la propriété sont garanties est également une sécurité.
Face aux moyens financiers et aux capacités de calcul que possèdent certains géants du numérique, choisir de développer des technologies d’IA frugale est une stratégie prometteuse qui nécessite de mettre au point des stratégies alternatives (réduction de la taille, de la complexité et de la densité des modèles, mise au point de nouveaux algorithmes d’apprentissage). Être ingénieux et faire mieux avec moins sont des challenges scientifiques motivants notamment pour les jeunes scientifiques.
La maitrise des impacts environnementaux passe également par la formation, le développement de contenus pédagogiques et la mise au point de labels permettant d’éclairer les choix et les achats des utilisateurs. La facilité d’utilisation de nombreux outils d’IA générative a fait oublier que lorsque l’on cherche une information existante comme une recette de cuisine ou un poème de Victor Hugo, celle-ci n’a pas besoin d’être générée puisqu’elle est disponible sur de nombreux sites internet. Quel gaspillage que de vouloir apprendre toutes les recettes de cuisine et tous les poèmes de Victor Hugo quand il suffit d’apprendre l’endroit où ils sont disponibles !
On ne peut pas limiter les impacts environnementaux du numérique aux aspects négatifs liés notamment à l’étape de fabrication. Les outils numériques ont de nombreux usages et certains d’entre eux contribuent à la transition écologique et à la préservation de l’environnement.
Qu’il s’agisse de la météorologie, des évolutions du climat et de ses conséquences ou encore des risques naturels et environnementaux, le numérique joue un rôle majeur dans la compréhension et dans la prédiction des phénomènes qui nous entourent. Par l’obtention de mesures diverses et précises, par la construction de modèles et leur simulation numérique ou bien par l’analyse des données disponibles, le numérique est essentiel à la connaissance des phénomènes géophysiques. Sans lui, que saurions-nous des conséquences des activités anthropiques sur l’environnement ? Quelles politiques pourrait-on bâtir pour y faire face ?
Au-delà de la modélisation de l’environnement, le numérique permet la décarbonation de nombreuses activités :
Si comme évoqué précédemment des zones d’ombre persistent quant aux impacts environnementaux liés à la fabrication et à l’utilisation des outils numériques, les impacts indirects et positifs du numérique sur l’environnement, notamment dans les exemples donnés ci-dessus, sont très difficiles à estimer pour plusieurs raisons :
Le numérique est donc essentiel pour la connaissance de l’environnement et des conséquences des activités anthropiques. Mais alors que le développement d’outils numériques est souvent invoqué pour contribuer à la préservation de l’environnement, l’impact effectif de ces outils (impacts positifs et impacts négatifs) est très rarement disponible ne permettant pas des choix éclairés. Sur ce sujet, des études et des recherches scientifiques sont nécessaires.
L’IA permet des avancées scientifiques majeures dans de nombreux domaines comme la médecine, les sciences humaines et sociales, les phénomènes géophysiques, la traduction automatique et ces avancées ne sont pas uniquement un approfondissement de travaux existants mais plutôt une autre façon de se représenter les objets étudiés.
Pendant des siècles la construction du savoir scientifique s’est appuyée sur l’observation de phénomènes caractéristiques suivie de la construction de modèles mécaniques, physiques, mathématiques… représentant ces phénomènes. La poussée d’Archimède, les travaux de Galilée ou la gravité de Newton sont des exemples bien connus de cette démarche qui est également à la base de la formalisation des savoirs et de l’enseignement. D’abord simples, les modèles ainsi obtenus sont ensuite enrichis pour rendre compte de la diversité des observations. Mais la complexité de la nature et des phénomènes qui nous entourent incite à proposer des modèles de plus en plus sophistiqués et difficiles à manipuler, à paramétrer et à étudier. En 1757 dans son ouvrage intitulé « Principes généraux du mouvement des fluides », Leonhard Euler disait des équations qui portent son nom « tout ce que la théorie des fluides renferme est contenu dans ces équations ». Ces équations ont une formulation assez simple mais elles restent aujourd’hui très délicates à analyser et à résoudre et ce alors que des formulations beaucoup plus complexes sont régulièrement proposées pour représenter des écoulements fluides avec des propriétés physiques étendues. La construction de modèles de plus en plus sophistiqués se heurte à la difficulté de les valider et d’en extraire des informations pertinentes.
La démarche de modélisation décrite ci-dessus permet de compenser le faible nombre de données d’observation disponibles par l’élaboration de lois mécaniques, physiques, biologiques… permettant de définir les comportements et les évolutions possibles du système étudié. Mais depuis environ le début du XXe siècle, les progrès de la métrologie et la disponibilité de nombreuses données (capteurs, satellites, traces numériques laissées sur internet) ont drastiquement modifié ce paysage. Avec des données précises, très nombreuses, obtenues selon diverses modalités, on peut caractériser et suivre les évolutions des systèmes étudiés. L’IA et plus généralement la science des données permet alors d’extraire, à partir de toutes ces observations disponibles, des informations signifiantes caractérisant les phénomènes et permettant de prédire leur évolution. Dans le domaine de la météorologie, des modèles de prévision basés sur les données collectées depuis des dizaines d’années ont été proposés[4] et donnent des résultats de grande qualité.
Dans certains cas, la modélisation à partir des données supplante l’approche classique mais on observe souvent une hybridation entre les deux approches, le modèle mécanistique donnant les évolutions basses fréquences et la modélisation basée sur les données donnant la composante haute fréquence des phénomènes.
Ainsi, l’IA permet des avancées scientifiques majeures et ouvre de nouvelles voies dans de nombreux domaines. Voici ci-dessous quelques exemples.
Comme la liste ci-dessus le laisse apparaître, certains phénomènes caractérisés par :
L’empreinte carbone moyenne d’une Française ou d’un Français est d’environ 10 tonnes de CO2 équivalent par an. Pour atteindre les objectifs de neutralité carbone, il faudrait que cette empreinte soit d’environ 2 tonnes de CO2 équivalent par an[5]. Alors que d’une année sur l’autre l’empreinte carbone de la France baisse lentement, atteindre l’objectif de la neutralité carbone en 2050 ne sera pas aisé.
Optimiser nos pratiques et les systèmes existants permettra de réduire notre empreinte carbone mais l’optimisation se heurte à deux écueils. Premièrement, elle permettra des gains parfois significatifs mais elle pourra difficilement permettre une division par 5 de l’empreinte carbone. Deuxièmement, l’optimisation de dispositifs ou de pratiques qui à terme ne permettront pas une baisse très substantielle de notre empreinte environnementale n’est pas une bonne chose puisqu’elle renforce et contribue à pérenniser des activités peu compatibles avec la transition écologique. Passer de 10 tonnes à 2 tonnes nécessite des ruptures et des transformations profondes. Le numérique peut apporter de telles bifurcations.
Pour les activités pratiquées depuis une période longue et qui sont le fruit d’une longue évolution, l’innovation prend souvent la forme d’une nouveauté qui vient s’insérer ou améliorer une succession de tâches. On peut faire l’analogie avec la pièce d’un puzzle qui a la bonne forme pour venir s’insérer exactement dans l’espace vide et s’emboiter avec les pièces voisines. Mais comme le décrivait J. Schumpeter, l’innovation peut aussi être une rupture qui ouvre une nouvelle voie qui vient concurrencer l’ancienne et parfois la détruit. L’éclairage au gaz et l’ampoule électrique qui ont supplanté la bougie sont de bons exemples. Le numérique permet souvent de telles ruptures ; citons les moteurs de recherche, la géolocalisation ou les réseaux sociaux qui ont bouleversé des secteurs comme le commerce, les déplacements ou les relations entre personnes.
Toutes les possibilités offertes par le numérique et l’IA ne sont pas favorables à l’environnement, certaines peuvent être porteuses d’atteintes aux libertés et à nos valeurs collectives mais certaines ouvrent des voies nouvelles tant du point de vue technique que sociétal et sont à explorer et à baliser. Jean Giono écrivait « le talus qui borde ma route est plus riche que l’Océanie ». Il ne s’agit pas de restreindre sa curiosité, ses interactions mais plutôt de changer les valeurs qui déterminent nos choix : est-ce que ce qui est neuf, jetable, puissant, gourmand en énergie, produit loin, est nécessairement désirable ?
Le numérique réussit le tour de force de rendre très facile d’utilisation des outils d’une immense sophistication, capables de réaliser des tâches complexes. La puissance des outils numériques et la proximité que nous avons avec eux par les données personnelles qu’ils manipulent devraient en faire de puissants leviers pour modifier nos habitudes, nos comportements et nos valeurs en faveur de la préservation de l’environnement. Ceci se réalisera dès lors qu’ils seront plus transparents notamment quant à leurs impacts environnementaux, faisant émerger des innovations comportementales et organisationnelles ainsi que des ruptures favorisant des usages et une consommation raisonnés menant ainsi la société sur une voie durable alliant sobriété et efficacité.
Jacques Sainte-Marie, Inria et Sorbonne université
[1] D’ici à 2040, la demande en lithium devrait être multipliée par 40, voir https://www.qqf.fr/infographie/les-metaux-et-minerais-des-ressources-qui-pourraient-manquer/
[2] Comme par exemple la charte de l’environnement de 2004 (texte à valeur constitutionnelle) https://www.legifrance.gouv.fr/contenu/menu/droit-national-en-vigueur/constitution/charte-de-l-environnement
[3] A noter que 50 % de l’impact carbone du numérique sont liés à la fabrication et au fonctionnement des terminaux (téléviseurs, ordinateurs, smartphones…), 46% aux centres de données et 4% aux réseaux, source https://ecoresponsable.numerique.gouv.fr/actualites/actualisation-ademe-impact/
[4] Le modèle GenCast développé par Google Deepmind https://www.nature.com/articles/s41586-024-08252-9 ou bien ArchesWeather https://arxiv.org/abs/2405.14527
[5] Voir https://www.statistiques.developpement-durable.gouv.fr/lempreinte-carbone-de-la-france-de-1995-2022
L’article IA ou environnement : faut-il choisir ? est apparu en premier sur Blog binaire.
12.12.2025 à 06:48
Thierry VIEVILLE
La Société Informatique de France (SIF) partage sur binaire un cycle d’interviews sur l’impact de l’intelligence artificielle (IA) sur les métiers. Ici Myriam Maumy-Bertrand, Enseignante-Chercheuse aborde l’évolution de l’analyse des données de santé à l’heure de l’IA. L’interview réalisée Erwan Le Merrer, président du conseil scientifique de la SIF. Serge Abiteboul et Pierre Paradinas. Erwan : […]
L’article De l’impact de l’IA sur l’analyse des données de santé est apparu en premier sur Blog binaire.

La Société Informatique de France (SIF) partage sur binaire un cycle d’interviews sur l’impact de l’intelligence artificielle (IA) sur les métiers. Ici Myriam Maumy-Bertrand, Enseignante-Chercheuse aborde l’évolution de l’analyse des données de santé à l’heure de l’IA. L’interview réalisée Erwan Le Merrer, président du conseil scientifique de la SIF. Serge Abiteboul et Pierre Paradinas.
Erwan : Pouvez-vous nous dire rapidement qui vous êtes et quel est votre métier ?
Myriam : Je m’appelle Myriam Maumy-Bertrand. Je suis professeure des universités à l’École des Hautes Études en Santé Publique (Rennes) et chercheuse au laboratoire Arènes, UMR CNRS 6051, axe Recherche sur les Services et le Management en Santé. Je suis docteur en statistique et je travaille sur les liens entre l’intelligence artificielle et les données de santé. Mon objectif est de développer des modèles d’apprentissage automatique utiles à la décision en santé, tout en veillant à leur éthique, leur durabilité et leur équité. Mes futurs travaux de recherche vont s’intéresser aux inégalités territoriales d’accès aux innovations numériques.
Erwan : En quoi l’intelligence artificielle a-t-elle déjà transformé votre métier ?

Myriam : L’intelligence artificielle a bouleversé notre manière d’analyser les données. Nous pouvons désormais traiter des volumes massifs d’informations issues de sources très diverses comme l’imagerie, les signaux physiologiques, les données sociales ou environnementales. Mais cette puissance comporte un risque : si elle est déployée sans vigilance, l’IA peut accentuer les fractures existantes entre territoires, établissements et populations. « Notre rôle est donc de garantir que ces outils restent transparents, explicables et socialement justes, au service de toutes et tous, quel que soit le lieu de vie ou le niveau d’équipement. »
Erwan : Quels changements anticipez-vous pour les prochaines années ?
Myriam : Nous allons vers une médecine augmentée, c’est incontournable, là où l’IA assistera le diagnostic du médecin, la prévention et la coordination des soins du patient. Certaines tâches répétitives seront automatisées, libérant du temps aux personnels soignants. Mais la véritable transformation sera culturelle : les professionnels de santé devront devenir des interprètes des modèles. « L’IA ne doit pas creuser les inégalités d’accès à la santé, ni renforcer le déséquilibre entre grands centres hospitaliers et structures rurales ou périphériques. » Elle doit au contraire soutenir la solidarité territoriale, en permettant de mieux suivre les patients à distance et d’adapter la prévention aux contextes locaux.
Erwan : Quelles compétences attendez-vous des nouveaux professionnels ?
Myriam : Des profils hybrides, capables de comprendre la donnée, l’algorithme et le sens du soin. Les compétences techniques comme la maîtrise de langages comme Python ou R, la connaissance du /machine learning et la gestion/ des bases de données sont pour moi importantes, mais elles doivent également s’accompagner d’une culture de l’éthique, de l’inclusion et de la sobriété numérique. « L’enjeu n’est pas de produire plus de données, mais d’en faire un bien commun, utile aux territoires et aux citoyens que nous sommes. »
Erwan : Et pour les formations ?
Myriam : Il faut enseigner très tôt la transparence des modèles, la gouvernance des données et la réflexion sur les usages territoriaux du numérique en santé. À l’EHESP, nous formons nos étudiants à cette culture interdisciplinaire, à la croisée de la santé publique, de l’intelligence artificielle et des sciences sociales. « Une IA responsable, c’est une IA pensée pour réduire les écarts entre les territoires, et non pour les reproduire. »
Erwan : Comme cela se traduit-il pour les professionnels déjà en poste ?
Myriam : La formation continue est essentielle pour comprendre les logiques de l’IA, mais aussi ses limites, ses biais et ses coûts énergétiques. « La transformation numérique doit être accompagnée partout, y compris dans les hôpitaux périphériques et les territoires ultramarins. » C’est un enjeu d’équité autant que de souveraineté sanitaire.
Erwan : Avez-vous un message à faire passer aux concepteurs de modèles ?
Myriam : L’IA en santé doit être humaine, explicable et durable. « Une IA performante mais inéquitable n’a pas de sens. Elle doit contribuer à une santé publique inclusive, attentive aux territoires, à l’environnement et aux personnes. » Les concepteurs ont une responsabilité majeure : faire de l’intelligence artificielle un levier de justice sociale, de cohésion territoriale et de santé globale, au cœur d’une approche One Health.
Interview de Myriam Maumy-Bertrand, Professeure des Universités à l’École des Hautes Études en Santé Publique, réalisée par Erwan Le Merrer.
L’article De l’impact de l’IA sur l’analyse des données de santé est apparu en premier sur Blog binaire.
05.12.2025 à 06:36
Serge ABITEBOUL
Cause Commune est « la voix des possibles » une radio généraliste libre et indépendante sur les ondes en Ile de France et sur Internet partout dans le monde. Elle donne la parole à qui veut aider le monde à aller mieux et aide à décloisonner la culture et les savoirs. Ses contenus sont partagés comme des […]
L’article Parlez-moi d’IA ! est apparu en premier sur Blog binaire.

Cause Commune est « la voix des possibles » une radio généraliste libre et indépendante sur les ondes en Ile de France et sur Internet partout dans le monde.
Elle donne la parole à qui veut aider le monde à aller mieux et aide à décloisonner la culture et les savoirs.
Ses contenus sont partagés comme des biens communs, pour toutes et tous.

1/ Nouvelle introduction à l’IA et état de l’art : L’IA aujourd’hui et demain
– Définitions et évolutions de l’intelligence artificielle (IA)
– Les différentes branches de l’IA : symbolique, statistique, générative..
– Innovations récentes et ruptures technologiques (verrou image/langue, deep learning, IA générative)
– Limites actuelles et possibles de l’IA, question des tâches humaines simulables
– Exemples marquants (AlphaGo, Deep Geometry…)
– Applications, perspectives et impacts sociaux, économiques et éducatifs de l’IA
– Les Techniques prometteuses à suivre : neurosymbolique, Retrieval Augmented Generation (RAG), agents IA
Télécharger le fichier ou écouter en ligne Durée: 29:55
2/ L’IA, défi pour la créativité humaine : IA et créativité
– L’émergence cognitive : mythe marketing ou réalité ?
– L’IA générale et ses limites : est-ce une fin en soi?
– La créativité artificielle vs humaine : question de la définition de la créativité et exemples de créativité
– Les interactions humain-IA dans la création littéraire : L’IA comme assistant créatif et la question éthique de labelisation
– L’avenir de la créativité humaine
Télécharger le fichier ou écouter en ligne Durée: 29:55
3/ IA, prise de décision autonome, expression de sentiments et spiritualité : IA, prise de décision, sentiments, spiritualité
– La délégation de la prise de décision aux IA
– L’humain dans la boucle (« human in the loop »)
– Le risque de convergence instrumentale
– Reconnaissance et simulation des sentiments
– Attachement psychologique aux IA
– IA et spiritualité
– Enjeux environnementaux et gestion du temps libéré
Télécharger le fichier ou écouter en ligne | Durée: 29:55


L’article Parlez-moi d’IA ! est apparu en premier sur Blog binaire.