26.12.2025 à 07:18
Thierry VIEVILLE
Allez avouez-le : quand on observe certains de nos congénères, ne souhaite-t-on pas aux ordinateurs de surtout pas devenir « intelligents » comme nous ? Bonne nouvelle pour ces machines : ça fonctionne vraiment différemment de notre cerveau. Oui … mais comment ces machines peuvent-elles exécuter des algorithmes aussi déraisonnablement efficaces au quotidien que ce dont nous […]
L’article Tout ne se calcule pas … et pas que l’amour :) est apparu en premier sur Blog binaire.
Allez avouez-le : quand on observe certains de nos congénères, ne souhaite-t-on pas aux ordinateurs de surtout pas devenir « intelligents » comme nous ? Bonne nouvelle pour ces machines : ça fonctionne vraiment différemment de notre cerveau. Oui … mais comment ces machines peuvent-elles exécuter des algorithmes aussi déraisonnablement efficaces au quotidien que ce dont nous disposons désormais ? David Louapre qui anime la [super] chaîne de popularisation scientifique Science Étonnante avec son blog associé, nous fait découvrir ici la « première machine » qui a fonctionné comme un ordinateur sans … avoir besoin de la construire ! Et nous permet d’approfondir notre réflexion sur ces questionnements entre intelligence humaine et ce qu’on dit être de l’intelligence artificielle. Benjamin Ninassi et Pierre Paradinas.
Cette vidéo parle des travaux de Alan Mathinson Turing qui préfigurent l’ordinateur moderne. Ce même Turing qui a proposé un test pour tenter de distinguer intelligence humaine et algorithmique, test qui serait -du reste- à revoir avec les derniers agents conversationnels à la Chat GPT (dont David nous explique aussi le fonctionnement par ici). Ce même Turing qui a en quelque sorte changé le cours de la seconde guerre mondiale en mécanisant un calcul, qui a pu piger comment les mathématiques sont à des endroits inattendus dans la nature, et tant de choses … Mais, avant tout, il commencé par comprendre comment … faire faire tous les calculs possibles à une machine. À David de nous l’expliquer :
Pour approfondir la réflexion ou préciser quelques points, lisons les notes partagées en plus de la vidéo.
C’est David qui lance la réflexion, en commençant par l’intelligence :
Selon notre bien estimé collègue Gilles Dowek, Informaticien et Philosophe de l’Informatique, oui : le monde de par ses lois physiques, au moins au delà de l’échelle quantique, est une [gigantesque] machine de Turing, sauf à croire à la « magie », à contrario d’autres points de vue* comme celui de Abhinav Muraleedharan.
Oui « mais » :
– le cerveau est une machine extraordinairement complexe plus de 50 milliards de neurones connectés entre eux par de l’ordre de 10000 synapses dans le système nerveux central, chaque synapse transmettant une information complexe temporellement et chimiquement, de plus la façon de calculer n’a rien à voir avec le « binaire » des ordinateurs, l’information est plus événementielle et stochastique …réductible à une machine de Turing ? Certes mais alors de quelle complexité** !! Peut-être, pour un seul cerveau, plus que tous les ordinateurs réunis;
– ce qui est dans notre cerveau bénéficie de millions d’année de calcul, transmis par l’héritage génétique au fil de d’évolution des espèces, ce que nous savons faire pour survivre n’est pas uniquement appris naturellement en interagissant avec notre famille et les autres humains, ou à l’école, nous avons toutes et tous, à égalité, un nombre immensurable de calculs*** qui ont abouti aux mécanismes mentaux dont nous disposons;
– notre intelligence est pas un truc « hors sol » on pense avec nos émotions et notre pensée, incarnée dans notre corps lui est indissociable tout autant que de toute la richesse de ses interactions avec l’environnement. Proposer même des milliards d’exemples à un algorithme d’apprentissage est en comparaison dérisoirement rudimentaire, par rapport à toutes nos sensations. Notre perception est « rétro-active » : on ne se contente pas de recevoir les sensations passivement. Par exemple la vue nécessite des mouvements des yeux qui permettent au regard de « palper » les scènes visuelles. C’est ainsi de manière active que nous prenons en compte les « entrées » de notre cerveau, tel l’enfant qui apprend avec des gestes et en interagissant avec son environnement bien mieux qu’avec des mots;
– et surtout, oui surtout pour l’avenir de nos enfants, notre cerveau avec tout ça ne consomme qu’une vingtaine « watts » en équivalent électrique, quand les derniers systèmes dits d’intelligence artificielle, mettent en péril par leur insoutenabilité notre capacité à prospérer en tant qu’espèce.
Alors, oui le cerveau n’est jusqu’à preuve du contraire (rasoir d’Ockham oblige) « qu’une machine de Turing´´, soit … mais quelle machine !
Et pour l’amour alors ?
Ah oui, et bien c’est vidéos de David, avec un esprit critique ça nous donne envie d’aimer**** … la science, si étonnante.
Thierry Viéville, chercheur en neuroscience computationnelle.
(*) Dans l’article de Abhinav Muraleedharan, il montre que les machines de Turing ne peuvent pas construire tous les objets mathématiques possibles, certes, à contrario des humains, ce qui de fait créerait un fossé … sauf que ça, que les humains peuvent construite « tous » les objets mathématiques possibles, ce n’est pas prouvé ! (et pas prouvable : ce n’est pas réfutable).
(**) On parle ici de la complexité de Kolmogorov, en bref … il faudrait un algorithme de taille, certes finie, mais incommensurablement énorme pour simuler tous les « messages » qui sont dans un cerveau.
(***) On fait allusion ici à un concept assez bien formalisé qui est la profondeur logique de Bennett, en bref … il faudrait que l’algorithme de taille minimale, qui génère tous les messages du cerveau calcule pendant un nombre d’étapes, certes fini, mais inimaginablement énorme pour disposer de tous nos réflexes, gestes et fonctions cognitives de notre cerveau.
(****) Au sens de pragma (πρᾶγμα, amour concret, durable, existentiel, qui passe par les actes), à distinguer de philia (φιλία, amitié, affection bienveillante, platonique, estime mutuelle, entraide), ou agapè (ἀγάπη, amour désintéressé, divin, universel, don de soi inconditionnel), ou encore storgê (στοργή, affection familiale, amour filial ou fraternel), dont l’imprégnation (εμπότιση, attachement affectif instinctif d’un bébé animal envers un être vivant qui lui semble conditionner sa survie), et aussi philautia (φιλαυτία, amour de soi, confiance et estime de soi), sans oublier oui-oui (coquin·e, va) … éros (ἔρως, amour physique, plaisir du corps, désir) et ses variantes lupus (= éros ludique, mot d’origine latine) ou mania (= éros obsessionnel, passionnel), merci aux Grecs Anciens de nous permettre de nommer tout ce que peut vouloir dire le mot « amour » … toute chose qu’on pourrait sûrement simuler avec un algorithme … mais ce n’est pas pour ça que la machine va le vivre en conscience dans sa chair … qu’elle n’a pas.
L’article Tout ne se calcule pas … et pas que l’amour :) est apparu en premier sur Blog binaire.
22.12.2025 à 12:22
Serge ABITEBOUL
Jacques Saint-Marie est mathématicien à l’Inria et à Sorbonne université. Il s’intéresse à la modélisation et à la simulation numérique des phénomènes géophysiques (risques naturels et environnementaux, dynamique océanique…). Parallèlement il étudie les impacts positifs et négatifs du numérique et de l’IA sur divers secteurs notamment l’environnement, l’agriculture. Il nous propose une réflexion sur le […]
L’article IA ou environnement : faut-il choisir ? est apparu en premier sur Blog binaire.
Si on excepte certains domaines comme celui de la santé, la notion de progrès notamment le progrès scientifique et technique est devenue un sujet de controverse entrainant de nombreuses critiques : solutionisme technologique, finalité inaccessible du progrès, risques induits et non maitrisés par les nouvelles technologies… Si le bilan des progrès scientifiques et techniques des dernières décennies mérite parfois d’être critiqué, le changement climatique et la transition écologique nous obligent à envisager des évolutions majeures de nos sociétés et de leurs organisations.
Dans toute l’histoire de l’humanité, avons-nous connu à une période et dans une région particulière, une société qui serait, pour les plus de 8 milliards de femmes et d’hommes du XXIe siècle, à la fois désirable et compatible avec la préservation de l’environnement ? Répondre négativement à cette interrogation implique la nécessité de proposer des innovations techniques et organisationnelles ainsi que des modifications substantielles de nos comportements et de nos valeurs afin de réduire drastiquement notre empreinte environnementale.
Sans éluder les aspects négatifs de son développement et de son utilisation, on cherche à montrer comment le numérique et l’intelligence artificielle peuvent contribuer à ces transformations et à la transition écologique.
Le numérique représente aujourd’hui 4,4 % de l’empreinte carbone de la France. Ce pourcentage est en croissance mais il doit être comparé à l’empreinte carbone d’autres secteurs d’activité comme la mobilité (30%) ou l’alimentation (20%). Le développement de l’intelligence artificielle (IA) joue un rôle important dans l’empreinte environnementale du numérique. Selon le dernier rapport de l’agence internationale de l’énergie les data centres ont représenté 1.5% de la demande électrique mondiale et ce chiffre pourrait passer à 3% en 2030. A noter que le développement des systèmes d’IA apporte des gains de performance très importants qui d’un côté réduisent la consommation énergétique mais de l’autre permettent le développement de nombreux modèles d’IA parfois très gros et très consommateurs de ressources.
Concernant les impacts environnementaux des systèmes qu’ils développent, la transparence n’est pas d’actualité pour de nombreux acteurs de l’IA car en complément de la consommation électrique, des informations telles que le fonctionnement des systèmes de refroidissement, la fréquence des phases d’apprentissage, la durée de vie des processeurs ainsi que leur nombre sont rarement communiquées et obligent à des estimations lacunaires. Afin de sensibiliser les utilisateurs des systèmes d’IA, de nombreuses comparaisons circulent comme certaines donnant la quantité d’eau nécessaire au refroidissement pour chaque requête effectuée sur un système d’IA générative. Si ces chiffres ont été obtenus rigoureusement, ils ne sont valables que pour un type de requête donné, sur un système donné et peuvent difficilement être généralisés. En effet, entre une simple requête textuelle, par exemple le lieu de décès de Victor Hugo, et une requête nécessitant la génération d’images l’énergie nécessaire à la réalisation des tâches peut différer de plusieurs ordres de grandeur.
Afin de quantifier les performances des systèmes d’IA sur le plan environnemental et permettre ainsi un usage raisonné, une plus grande transparence de tous les acteurs du numérique doit s’imposer afin de connaître les consommations en eau, en minerais et en énergie des systèmes d’IA tout au long de leur cycle de vie. Ainsi, la communauté scientifique devrait établir une liste de paramètres et de quantités à rendre public par les acteurs du numérique afin d’évaluer l’empreinte environnementale des systèmes d’IA les plus utilisés.
S’il est difficile d’envisager une règlementation internationale sur ce sujet, les acteurs du numérique adoptant de bonnes pratiques doivent être encouragés. Cela peut passer par la création de labels ou d’indicateurs de performance environnementale. En effet, alors que le développement des systèmes d’IA suscite de nombreuses craintes, la transparence quant aux impacts environnementaux de ces systèmes est une nécessité.
Le secteur du numérique mais également d’autres secteurs se sont développés dans un contexte de disponibilité des matières premières, de l’énergie et de fluidité des échanges commerciaux. Cette relative abondance n’a évidemment pas incité à la sobriété. Mais la situation pourrait changer :
Ces évolutions laissent envisager que l’on se dirige vers un monde contraint où la sobriété devient certes une contrainte mais surtout un atout de compétitivité. Disposer d’un numérique écoresponsable, sobre en matières premières et en énergie, permettra alors d’allier performances économiques et environnementales. Développer un numérique écoresponsable est un investissement d’avenir qui est structurant pour tout un secteur industriel de la construction des dispositifs numériques, aux logiciels et aux usages.
Des microprocesseurs plus rapides, des logiciels plus gros offrant de nombreuses fonctionalités, des réseaux ayant une capacité à transférer plus de données, des dispositifs peu réparables, tout ceci incite à renouveler rapidement les équipements numériques[3]. Pourtant, un grand nombre de tâches demandées à un ordinateur ou à un téléphone ne nécessite pas un gros volume de données ou une vitesse de réalisation élevée et ne fait pas appel à des fonctionnalités sophistiquées. Dans ce contexte, le lowtech que l’on pourrait définir par numérique suffisant et résiliant est promis à un bel avenir. Il ne s’agit pas d’une technologie au rabais, c’est au contraire une thématique de recherche majeure pour la communauté scientifique qui nécessite une démarche globale puisque pour être viable tous les composants numériques des terminaux aux logiciels en passant par les réseaux et les capteurs doivent être lowtech.
Il est important de souligner que la trajectoire de développement du numérique n’est pas uniquement déterminée par les résultats des recherches scientifiques et les avancées technologiques, l’appropriation des technologies par les consommateurs et les usages déterminent largement les évolutions observées. Les sciences humaines et sociales ont un rôle essentiel et les travaux des économistes, des sociologues, des psychologues, des juristes doivent permettre notamment d’analyser notre relation au numérique, de comprendre les transformations qu’il induit dans nos sociétés et dans notre relation au monde et surtout d’identifier les leviers d’action permettant d’anticiper les conséquences de telle ou telle technologie et de garantir le respect des règles et des libertés.
Si l’IA n’est pas une technologie récente, le développement de grands modèles d’IA générative l’est et le lancement de ChatGPT en novembre 2022 a lancé la course au gigantisme (taille et nombre de paramètres des modèles, volume de données utilisées pour la phase d’apprentissage, nombre de requêtes effectuées). Mais le développement d’énormes systèmes d’IA généralistes est-il une stratégie judicieuse ? L’apparition d’une nouvelle technologie aux retombées potentielles nombreuses comme l’IA incite initialement à concevoir des systèmes capables de répondre aux nombreuses attentes. Mais dans un second temps, les contraintes de performance, de précision et l’envie de disposer de systèmes faciles à développer et simples à manipuler incite à s’orienter vers des systèmes spécifiques capables de réaliser efficacement un nombre limité de tâches. Cette tendance semble s’observer actuellement avec le développement de systèmes d’IA spécifiques pour un domaine applicatif (droit, agriculture…). La spécificité des modèles d’IA ainsi développés en réduit très sensiblement la taille et donc les impacts environnementaux et en rend la construction et la gestion plus aisée. Cette évolution favorise également l’innovation en permettant à de nombreux nouveaux acteurs de se développer et de proposer des solutions dédiées alors qu’un oligopole de grands modèles d’IA détenus par quelques acteurs verrouillerait l’innovation. D’un point de vue juridique, un système d’IA construit à partir d’un volume limité de données dont la qualité, la provenance et la propriété sont garanties est également une sécurité.
Face aux moyens financiers et aux capacités de calcul que possèdent certains géants du numérique, choisir de développer des technologies d’IA frugale est une stratégie prometteuse qui nécessite de mettre au point des stratégies alternatives (réduction de la taille, de la complexité et de la densité des modèles, mise au point de nouveaux algorithmes d’apprentissage). Être ingénieux et faire mieux avec moins sont des challenges scientifiques motivants notamment pour les jeunes scientifiques.
La maitrise des impacts environnementaux passe également par la formation, le développement de contenus pédagogiques et la mise au point de labels permettant d’éclairer les choix et les achats des utilisateurs. La facilité d’utilisation de nombreux outils d’IA générative a fait oublier que lorsque l’on cherche une information existante comme une recette de cuisine ou un poème de Victor Hugo, celle-ci n’a pas besoin d’être générée puisqu’elle est disponible sur de nombreux sites internet. Quel gaspillage que de vouloir apprendre toutes les recettes de cuisine et tous les poèmes de Victor Hugo quand il suffit d’apprendre l’endroit où ils sont disponibles !
On ne peut pas limiter les impacts environnementaux du numérique aux aspects négatifs liés notamment à l’étape de fabrication. Les outils numériques ont de nombreux usages et certains d’entre eux contribuent à la transition écologique et à la préservation de l’environnement.
Qu’il s’agisse de la météorologie, des évolutions du climat et de ses conséquences ou encore des risques naturels et environnementaux, le numérique joue un rôle majeur dans la compréhension et dans la prédiction des phénomènes qui nous entourent. Par l’obtention de mesures diverses et précises, par la construction de modèles et leur simulation numérique ou bien par l’analyse des données disponibles, le numérique est essentiel à la connaissance des phénomènes géophysiques. Sans lui, que saurions-nous des conséquences des activités anthropiques sur l’environnement ? Quelles politiques pourrait-on bâtir pour y faire face ?
Au-delà de la modélisation de l’environnement, le numérique permet la décarbonation de nombreuses activités :
Si comme évoqué précédemment des zones d’ombre persistent quant aux impacts environnementaux liés à la fabrication et à l’utilisation des outils numériques, les impacts indirects et positifs du numérique sur l’environnement, notamment dans les exemples donnés ci-dessus, sont très difficiles à estimer pour plusieurs raisons :
Le numérique est donc essentiel pour la connaissance de l’environnement et des conséquences des activités anthropiques. Mais alors que le développement d’outils numériques est souvent invoqué pour contribuer à la préservation de l’environnement, l’impact effectif de ces outils (impacts positifs et impacts négatifs) est très rarement disponible ne permettant pas des choix éclairés. Sur ce sujet, des études et des recherches scientifiques sont nécessaires.
L’IA permet des avancées scientifiques majeures dans de nombreux domaines comme la médecine, les sciences humaines et sociales, les phénomènes géophysiques, la traduction automatique et ces avancées ne sont pas uniquement un approfondissement de travaux existants mais plutôt une autre façon de se représenter les objets étudiés.
Pendant des siècles la construction du savoir scientifique s’est appuyée sur l’observation de phénomènes caractéristiques suivie de la construction de modèles mécaniques, physiques, mathématiques… représentant ces phénomènes. La poussée d’Archimède, les travaux de Galilée ou la gravité de Newton sont des exemples bien connus de cette démarche qui est également à la base de la formalisation des savoirs et de l’enseignement. D’abord simples, les modèles ainsi obtenus sont ensuite enrichis pour rendre compte de la diversité des observations. Mais la complexité de la nature et des phénomènes qui nous entourent incite à proposer des modèles de plus en plus sophistiqués et difficiles à manipuler, à paramétrer et à étudier. En 1757 dans son ouvrage intitulé « Principes généraux du mouvement des fluides », Leonhard Euler disait des équations qui portent son nom « tout ce que la théorie des fluides renferme est contenu dans ces équations ». Ces équations ont une formulation assez simple mais elles restent aujourd’hui très délicates à analyser et à résoudre et ce alors que des formulations beaucoup plus complexes sont régulièrement proposées pour représenter des écoulements fluides avec des propriétés physiques étendues. La construction de modèles de plus en plus sophistiqués se heurte à la difficulté de les valider et d’en extraire des informations pertinentes.
La démarche de modélisation décrite ci-dessus permet de compenser le faible nombre de données d’observation disponibles par l’élaboration de lois mécaniques, physiques, biologiques… permettant de définir les comportements et les évolutions possibles du système étudié. Mais depuis environ le début du XXe siècle, les progrès de la métrologie et la disponibilité de nombreuses données (capteurs, satellites, traces numériques laissées sur internet) ont drastiquement modifié ce paysage. Avec des données précises, très nombreuses, obtenues selon diverses modalités, on peut caractériser et suivre les évolutions des systèmes étudiés. L’IA et plus généralement la science des données permet alors d’extraire, à partir de toutes ces observations disponibles, des informations signifiantes caractérisant les phénomènes et permettant de prédire leur évolution. Dans le domaine de la météorologie, des modèles de prévision basés sur les données collectées depuis des dizaines d’années ont été proposés[4] et donnent des résultats de grande qualité.
Dans certains cas, la modélisation à partir des données supplante l’approche classique mais on observe souvent une hybridation entre les deux approches, le modèle mécanistique donnant les évolutions basses fréquences et la modélisation basée sur les données donnant la composante haute fréquence des phénomènes.
Ainsi, l’IA permet des avancées scientifiques majeures et ouvre de nouvelles voies dans de nombreux domaines. Voici ci-dessous quelques exemples.
Comme la liste ci-dessus le laisse apparaître, certains phénomènes caractérisés par :
L’empreinte carbone moyenne d’une Française ou d’un Français est d’environ 10 tonnes de CO2 équivalent par an. Pour atteindre les objectifs de neutralité carbone, il faudrait que cette empreinte soit d’environ 2 tonnes de CO2 équivalent par an[5]. Alors que d’une année sur l’autre l’empreinte carbone de la France baisse lentement, atteindre l’objectif de la neutralité carbone en 2050 ne sera pas aisé.
Optimiser nos pratiques et les systèmes existants permettra de réduire notre empreinte carbone mais l’optimisation se heurte à deux écueils. Premièrement, elle permettra des gains parfois significatifs mais elle pourra difficilement permettre une division par 5 de l’empreinte carbone. Deuxièmement, l’optimisation de dispositifs ou de pratiques qui à terme ne permettront pas une baisse très substantielle de notre empreinte environnementale n’est pas une bonne chose puisqu’elle renforce et contribue à pérenniser des activités peu compatibles avec la transition écologique. Passer de 10 tonnes à 2 tonnes nécessite des ruptures et des transformations profondes. Le numérique peut apporter de telles bifurcations.
Pour les activités pratiquées depuis une période longue et qui sont le fruit d’une longue évolution, l’innovation prend souvent la forme d’une nouveauté qui vient s’insérer ou améliorer une succession de tâches. On peut faire l’analogie avec la pièce d’un puzzle qui a la bonne forme pour venir s’insérer exactement dans l’espace vide et s’emboiter avec les pièces voisines. Mais comme le décrivait J. Schumpeter, l’innovation peut aussi être une rupture qui ouvre une nouvelle voie qui vient concurrencer l’ancienne et parfois la détruit. L’éclairage au gaz et l’ampoule électrique qui ont supplanté la bougie sont de bons exemples. Le numérique permet souvent de telles ruptures ; citons les moteurs de recherche, la géolocalisation ou les réseaux sociaux qui ont bouleversé des secteurs comme le commerce, les déplacements ou les relations entre personnes.
Toutes les possibilités offertes par le numérique et l’IA ne sont pas favorables à l’environnement, certaines peuvent être porteuses d’atteintes aux libertés et à nos valeurs collectives mais certaines ouvrent des voies nouvelles tant du point de vue technique que sociétal et sont à explorer et à baliser. Jean Giono écrivait « le talus qui borde ma route est plus riche que l’Océanie ». Il ne s’agit pas de restreindre sa curiosité, ses interactions mais plutôt de changer les valeurs qui déterminent nos choix : est-ce que ce qui est neuf, jetable, puissant, gourmand en énergie, produit loin, est nécessairement désirable ?
Le numérique réussit le tour de force de rendre très facile d’utilisation des outils d’une immense sophistication, capables de réaliser des tâches complexes. La puissance des outils numériques et la proximité que nous avons avec eux par les données personnelles qu’ils manipulent devraient en faire de puissants leviers pour modifier nos habitudes, nos comportements et nos valeurs en faveur de la préservation de l’environnement. Ceci se réalisera dès lors qu’ils seront plus transparents notamment quant à leurs impacts environnementaux, faisant émerger des innovations comportementales et organisationnelles ainsi que des ruptures favorisant des usages et une consommation raisonnés menant ainsi la société sur une voie durable alliant sobriété et efficacité.
Jacques Sainte-Marie, Inria et Sorbonne université
[1] D’ici à 2040, la demande en lithium devrait être multipliée par 40, voir https://www.qqf.fr/infographie/les-metaux-et-minerais-des-ressources-qui-pourraient-manquer/
[2] Comme par exemple la charte de l’environnement de 2004 (texte à valeur constitutionnelle) https://www.legifrance.gouv.fr/contenu/menu/droit-national-en-vigueur/constitution/charte-de-l-environnement
[3] A noter que 50 % de l’impact carbone du numérique sont liés à la fabrication et au fonctionnement des terminaux (téléviseurs, ordinateurs, smartphones…), 46% aux centres de données et 4% aux réseaux, source https://ecoresponsable.numerique.gouv.fr/actualites/actualisation-ademe-impact/
[4] Le modèle GenCast développé par Google Deepmind https://www.nature.com/articles/s41586-024-08252-9 ou bien ArchesWeather https://arxiv.org/abs/2405.14527
[5] Voir https://www.statistiques.developpement-durable.gouv.fr/lempreinte-carbone-de-la-france-de-1995-2022
L’article IA ou environnement : faut-il choisir ? est apparu en premier sur Blog binaire.
12.12.2025 à 06:48
Thierry VIEVILLE
La Société Informatique de France (SIF) partage sur binaire un cycle d’interviews sur l’impact de l’intelligence artificielle (IA) sur les métiers. Ici Myriam Maumy-Bertrand, Enseignante-Chercheuse aborde l’évolution de l’analyse des données de santé à l’heure de l’IA. L’interview réalisée Erwan Le Merrer, président du conseil scientifique de la SIF. Serge Abiteboul et Pierre Paradinas. Erwan : […]
L’article De l’impact de l’IA sur l’analyse des données de santé est apparu en premier sur Blog binaire.

La Société Informatique de France (SIF) partage sur binaire un cycle d’interviews sur l’impact de l’intelligence artificielle (IA) sur les métiers. Ici Myriam Maumy-Bertrand, Enseignante-Chercheuse aborde l’évolution de l’analyse des données de santé à l’heure de l’IA. L’interview réalisée Erwan Le Merrer, président du conseil scientifique de la SIF. Serge Abiteboul et Pierre Paradinas.
Erwan : Pouvez-vous nous dire rapidement qui vous êtes et quel est votre métier ?
Myriam : Je m’appelle Myriam Maumy-Bertrand. Je suis professeure des universités à l’École des Hautes Études en Santé Publique (Rennes) et chercheuse au laboratoire Arènes, UMR CNRS 6051, axe Recherche sur les Services et le Management en Santé. Je suis docteur en statistique et je travaille sur les liens entre l’intelligence artificielle et les données de santé. Mon objectif est de développer des modèles d’apprentissage automatique utiles à la décision en santé, tout en veillant à leur éthique, leur durabilité et leur équité. Mes futurs travaux de recherche vont s’intéresser aux inégalités territoriales d’accès aux innovations numériques.
Erwan : En quoi l’intelligence artificielle a-t-elle déjà transformé votre métier ?

Myriam : L’intelligence artificielle a bouleversé notre manière d’analyser les données. Nous pouvons désormais traiter des volumes massifs d’informations issues de sources très diverses comme l’imagerie, les signaux physiologiques, les données sociales ou environnementales. Mais cette puissance comporte un risque : si elle est déployée sans vigilance, l’IA peut accentuer les fractures existantes entre territoires, établissements et populations. « Notre rôle est donc de garantir que ces outils restent transparents, explicables et socialement justes, au service de toutes et tous, quel que soit le lieu de vie ou le niveau d’équipement. »
Erwan : Quels changements anticipez-vous pour les prochaines années ?
Myriam : Nous allons vers une médecine augmentée, c’est incontournable, là où l’IA assistera le diagnostic du médecin, la prévention et la coordination des soins du patient. Certaines tâches répétitives seront automatisées, libérant du temps aux personnels soignants. Mais la véritable transformation sera culturelle : les professionnels de santé devront devenir des interprètes des modèles. « L’IA ne doit pas creuser les inégalités d’accès à la santé, ni renforcer le déséquilibre entre grands centres hospitaliers et structures rurales ou périphériques. » Elle doit au contraire soutenir la solidarité territoriale, en permettant de mieux suivre les patients à distance et d’adapter la prévention aux contextes locaux.
Erwan : Quelles compétences attendez-vous des nouveaux professionnels ?
Myriam : Des profils hybrides, capables de comprendre la donnée, l’algorithme et le sens du soin. Les compétences techniques comme la maîtrise de langages comme Python ou R, la connaissance du /machine learning et la gestion/ des bases de données sont pour moi importantes, mais elles doivent également s’accompagner d’une culture de l’éthique, de l’inclusion et de la sobriété numérique. « L’enjeu n’est pas de produire plus de données, mais d’en faire un bien commun, utile aux territoires et aux citoyens que nous sommes. »
Erwan : Et pour les formations ?
Myriam : Il faut enseigner très tôt la transparence des modèles, la gouvernance des données et la réflexion sur les usages territoriaux du numérique en santé. À l’EHESP, nous formons nos étudiants à cette culture interdisciplinaire, à la croisée de la santé publique, de l’intelligence artificielle et des sciences sociales. « Une IA responsable, c’est une IA pensée pour réduire les écarts entre les territoires, et non pour les reproduire. »
Erwan : Comme cela se traduit-il pour les professionnels déjà en poste ?
Myriam : La formation continue est essentielle pour comprendre les logiques de l’IA, mais aussi ses limites, ses biais et ses coûts énergétiques. « La transformation numérique doit être accompagnée partout, y compris dans les hôpitaux périphériques et les territoires ultramarins. » C’est un enjeu d’équité autant que de souveraineté sanitaire.
Erwan : Avez-vous un message à faire passer aux concepteurs de modèles ?
Myriam : L’IA en santé doit être humaine, explicable et durable. « Une IA performante mais inéquitable n’a pas de sens. Elle doit contribuer à une santé publique inclusive, attentive aux territoires, à l’environnement et aux personnes. » Les concepteurs ont une responsabilité majeure : faire de l’intelligence artificielle un levier de justice sociale, de cohésion territoriale et de santé globale, au cœur d’une approche One Health.
Interview de Myriam Maumy-Bertrand, Professeure des Universités à l’École des Hautes Études en Santé Publique, réalisée par Erwan Le Merrer.
L’article De l’impact de l’IA sur l’analyse des données de santé est apparu en premier sur Blog binaire.
05.12.2025 à 06:36
Serge ABITEBOUL
Cause Commune est « la voix des possibles » une radio généraliste libre et indépendante sur les ondes en Ile de France et sur Internet partout dans le monde. Elle donne la parole à qui veut aider le monde à aller mieux et aide à décloisonner la culture et les savoirs. Ses contenus sont partagés comme des […]
L’article Parlez-moi d’IA ! est apparu en premier sur Blog binaire.

Cause Commune est « la voix des possibles » une radio généraliste libre et indépendante sur les ondes en Ile de France et sur Internet partout dans le monde.
Elle donne la parole à qui veut aider le monde à aller mieux et aide à décloisonner la culture et les savoirs.
Ses contenus sont partagés comme des biens communs, pour toutes et tous.

1/ Nouvelle introduction à l’IA et état de l’art : L’IA aujourd’hui et demain
– Définitions et évolutions de l’intelligence artificielle (IA)
– Les différentes branches de l’IA : symbolique, statistique, générative..
– Innovations récentes et ruptures technologiques (verrou image/langue, deep learning, IA générative)
– Limites actuelles et possibles de l’IA, question des tâches humaines simulables
– Exemples marquants (AlphaGo, Deep Geometry…)
– Applications, perspectives et impacts sociaux, économiques et éducatifs de l’IA
– Les Techniques prometteuses à suivre : neurosymbolique, Retrieval Augmented Generation (RAG), agents IA
Télécharger le fichier ou écouter en ligne Durée: 29:55
2/ L’IA, défi pour la créativité humaine : IA et créativité
– L’émergence cognitive : mythe marketing ou réalité ?
– L’IA générale et ses limites : est-ce une fin en soi?
– La créativité artificielle vs humaine : question de la définition de la créativité et exemples de créativité
– Les interactions humain-IA dans la création littéraire : L’IA comme assistant créatif et la question éthique de labelisation
– L’avenir de la créativité humaine
Télécharger le fichier ou écouter en ligne
3/ IA, prise de décision autonome, expression de sentiments et spiritualité : IA, prise de décision, sentiments, spiritualité
– La délégation de la prise de décision aux IA
– L’humain dans la boucle (« human in the loop »)
– Le risque de convergence instrumentale
– Reconnaissance et simulation des sentiments
– Attachement psychologique aux IA
– IA et spiritualité
– Enjeux environnementaux et gestion du temps libéré
Télécharger le fichier ou écouter en ligne |


L’article Parlez-moi d’IA ! est apparu en premier sur Blog binaire.
21.11.2025 à 07:03
Charles CUVELLIEZ
À la fin du XIXe siècle, le mathématicien David Hilbert posa une liste de 23 problèmes (l’hypothèse de Riemann, par exemple) dont la résolution serait d’un intérêt fondamental pour les mathématiques : ils ont orienté fortementles recherches depuis lors. Dans le même esprit, le Clay Mathematics Institute, à la fin du XXe siècle, décida d’attribuer […]
L’article Les 10 problèmes de Hilbert de la cybersécurité. est apparu en premier sur Blog binaire.
Ils sont posés par l’Académie américaine des sciences : ce sont 10 problèmes techniques dont la résolution aurait un impact significatif sur la sécurité pratique des cybersystèmes. A la différence des problèmes de Hilbert, ceux-ci sont souvent causés ou entretenus par des facteurs humains ou sociétaux et des motivations inadaptées. Par contre, ils ne peuvent attendre un siècle pour être résolus. Ils sont exacerbés par la croissance fulgurante et continue de la production et de l’utilisation des technologies qui ont besoin de cybersécurité. Leur quasi-omniprésence dans les systèmes d’importance sociétale rend leur traitement urgent.
Il existe peu de pratiques qui démontrent que les composants logiciels et micrologiciels respectent tous les critères de sécurité. Les avancées vont des outils et bonnes pratiques aux techniques de modélisation, à l’amélioration des langages de programmation, à la gestion des preuves et au renforcement des compétences des développeurs et des évaluateurs.
| Mais ces approches restent limitées.
La pression pour réduire les délais de développement, conjuguée à l’idée que la sécurité est coûteuse, lente et difficile à mesurer, décourage les développeurs. Sans méthodes fiables d’évaluation de la qualité et de la sécurité, aucun incitant suffisant n’émerge, et personne n’a intérêt à les créer. Le défi fondamental est donc de concevoir des systèmes sécurisés dès leur conception (security by design) et capables d’évoluer de manière sécurisée (security by default). |
────────────
|
Le problème difficile à résoudre est donc le suivant : « Comment concevoir de manière fiable des systèmes qui sont sécurisés dès le départ (la sécurité by design) et les faire évoluer en toute sécurité en réponse à l’évolution des besoins (security by default) ? »
Les systèmes complexes sont construits en combinant des composants et des services qui diffèrent par leurs niveaux de sécurité car développés par des équipes aux expertises variables. L’objectif de la composition sécurisée, c’est d’arriver à avoir confiance dans la sécurité du système entier en ne disposant que de l’évaluation de sécurité des différentes parties qui le composent.
|
Réussir une composition sécurisée dépendra des propriétés techniques de chaque composant et ensuite des choix de conception lors de l’intégration et des dépendances croisées. Ces composants sont de différente nature : système d’exploitation sous-jacent, librairie logicielles open source utilisée, dépendance à d’autres systèmes physiques dans les cas d’OT (Operational Technology). Chaque composant peut ne pas être la dernière version, pour des raisons de rétrocompatibilité, d’indisponibilité, d’impossibilité de mettre à jour les dépendances sur base des dernières versions de chaque composant. Au final, aussi, on reposera également sur les compétences des concepteurs et des développeurs, ainsi que sur la connaissance approfondie de tous les éléments du système quand ils sont assemblés. |
────────────
|
Diverses plateformes de développement et référentiels (par exemple GitHub) donnent accès à des composants et services réutilisables, qui peuvent aider les développeurs à assembler des systèmes, à organiser des ressources et à appliquer des tests automatisés pendant l’intégration.
Mais ce à quoi il faudrait arriver, c’est une conception architecturale qui réduit les interdépendances entre les composants et favorise la résilience. Ainsi, une défaillance dans un composant ne se répercute pas sur les autres.
C’est vrai, on peut tester la résilience en injectant des défaillances dans les systèmes mais ce ne sont que des tests (non exhaustifs): ils interviennent à un stade avancé du processus et s’ils révèlent quelque chose, c’est trop tard ! La composition sécurisée, elle justement, se fait à la conception, au début.
Il est très complexe d’ajouter la résilience à un stade avancé du processus d’ingénierie.
La question difficile est donc la suivante : « Quels sont les principes techniques permettant d’intégrer de manière sécurisée des systèmes à grande échelle à partir de composants et de services divers ? »
Après avoir assuré (ou pour l’assurer) une composition sécurisée des systèmes complexes, la gestion sécurisée des sous-traitants devient un enjeu majeur car les systèmes complexes intègrent des composants issus de nombreux fournisseurs différents. Ces éléments peuvent provenir de sociétés commerciales, de projets open source, de développeurs indépendants, ou de services cloud, chacun soumis à des réglementations variées selon leur pays ou secteur ou à des niveaux des compétences différents
Les fournisseurs, soucieux de protéger leurs secrets commerciaux, hésitent souvent à divulguer des détails sur leurs composants, même à leurs clients ou aux autres acteurs de la chaîne d’approvisionnement. Les mises à jour sont essentielles pour corriger des vulnérabilités mais exigent ensuite des tests approfondis de compatibilité. Si une mise à jour fait défaut, les composants non sécurisés doivent être isolés ou encapsulés pour ne pas compromettre l’ensemble du système en cas de faille.
────────────
|
Les SBOM (Software Bill of Materials) apportent une partie de la solution, mais restent limités et ne couvrent qu’un aspect des risques potentiels. Seule une petite partie des projets open source, malgré leur promesse d’une évaluation directe et d’une répartition de la maintenance sur toute une communauté, fait l’objet d’une attention soutenue en matière de qualité et de sécurité du code. À ce jour, il n’existe pas de modèle fiable de chaîne d’approvisionnement capable de garantir, via des pratiques solides et des preuves, que tous les composants et services utilisés répondent aux normes de sécurité exigées. |
La question centrale ou le troisième problème de Hilbert est : « Comment peut-on développer et gérer en toute sécurité des systèmes logiciels et matériels complexes lorsque leurs composants et services sont issus de sources variées ? »
Les fournisseurs de produits de cybersécurité sont rarement tenus responsables, même lorsque leurs produits sont de mauvaise qualité et il existe peu d’incitations à récompenser les offres de haute qualité. Dans certains cas, la réputation de la marque et la demande éclairée des clients peuvent encourager de meilleures pratiques, mais il s’agit là d’exceptions plutôt que de la règle. Les fournisseurs se sont opposés à une réglementation plus stricte en arguant qu’une responsabilité accrue étoufferait l’innovation et nuirait à la compétitivité nationale.
────────────
|
Qu’on se souvienne de la mise à jour de Crowdstrike qui a paralysé de nombreuses organisations et pour laquelle aucune responsabilité ne semble engagée à ce jour . Si la réputation ou la demande de certains clients peut encourager de meilleures pratiques, cela demeure exceptionnel. Les fournisseurs privilégient l’auto‑certification comme alternative à la responsabilité, mais cette approche reste limitée : être conforme à une norme ne reflète pas toujours la sécurité réelle et peut être manipulée. |
La difficulté à mesurer objectivement la sécurité complique l’évaluation des progrès. L’instauration d’une responsabilité juridique pour certaines failles a été proposée, mais elle se heurte à de forts obstacles, notamment l’inadéquation de normes fixes face aux évolutions rapides et le coût élevé des litiges, inaccessibles à la plupart des utilisateurs lésés suite à un problème.
Le problème se pose donc ainsi : « Comment faire assumer la responsabilité et l’obligation de rendre des comptes de manière à encourager des niveaux de sécurité plus élevés et une innovation rapide ? »
Les interfaces humaines de nombreux systèmes informatiques sont souvent confuses et mal conçues, y compris pour des experts. Ce manque de clarté affecte l’authentification, la gestion de la confidentialité, la configuration des accès et la réponse aux alertes, faisant des erreurs humaines la principale source de failles de sécurité.
Leurs concepteurs misent souvent trop sur la formation et la sensibilisation des utilisateurs contre les attaquants qui exploitent les vulnérabilités humaines. Or, les solutions les plus efficaces reposent sur des interfaces mieux conçues, adaptés aux capacités réelles des utilisateurs plutôt que compensés par eux.
|
Il faut une science de la conception sécurisée, une sorte d’ergonomie cyber centrée sur l’utilisateur, intégrant la sécurité à l’expérience globale : protection des applications, confidentialité et gouvernance des données. Cela implique de reconnaître les limites humaines et de veiller à ce que les utilisateurs et les opérateurs puissent plus facilement surveiller, comprendre et contrôler les données collectées et partagées par leurs systèmes. L’un des principaux défis consiste à y parvenir sans submerger les utilisateurs par la complexité, sans réduire l’efficacité et sans créer involontairement de nouvelles attaques par une plus grande transparence. |
────────────
|
Le problème est donc le suivant : « Comment concevoir des systèmes de manière à réduire la capacité des cybercriminels à exploiter le comportement humain pour accéder aux systèmes ? »
Les plateformes numériques permettent un ciblage précis à grande échelle, ce qui facilite la manipulation des opinions et les escroqueries. Ces plateformes collectent d’énormes quantités de données afin d’entraîner des algorithmes en ce sens, ne nous voilons pas la face.
Les technologies de détection s’efforcent de suivre le rythme des manipulations et autres deepfakes. Ce déséquilibre est accentué par la nature évolutive des environnements médiatiques en ligne.
Les plateformes sont motivées par des incitations commerciales visant à maximiser l’engagement des utilisateurs, ce qui conduit les algorithmes à amplifier les contenus préjudiciables ou trompeurs.
────────────
|
Une plus grande responsabilité est nécessaire quant à la manière dont les plateformes collectent et utilisent les données personnelles pour alimenter les algorithmes et la publicité. Mais force est de constater qu’on en est loin, à part le DSA en Europe que les USA combattent de toutes leurs forces. Les méthodes de détection des deepfakes et les techniques de tatouage numérique doivent être améliorées. Ce serait un bon début mais c’est urgent de commencer. Les deepfakes ne concernent plus seulement les réseaux sociaux : ils inondent les plateformes de ventes en ligne, les applications de rencontres, les médias classiques. |
Et bientôt, il ne sera même plus question de travestir le réel avec un deepfake lorsque des outils comme Sora (génération de vidéo par IA) rendront ringards la publication de vidéos captées dans le monde physique.
Le problème est donc le suivant : « Comment les réseaux sociaux peuvent-ils soutenir la liberté d’expression et l’échange d’idées tout en protégeant la sécurité et la vie privée des utilisateurs et en les sensibilisant aux fausses informations ? »
Les systèmes cyber-physiques (CPS) sont ceux qui interviennent dans les infrastructures civiles, les transports, et les appareils connectés à l’Internet des objets (IoT). Ce sont les hubs réseau, les caméras de sécurité, les thermostats, les téléviseurs, des systèmes de contrôle domestiques et industriels et autres capteurs. Ces systèmes sont vulnérables au départ parce qu’ils étaient traditionnellement considérés comme isolés des réseaux, ce qui a conduit à des approches techniques sujettes à normes de sécurité moins élevées que celles des systèmes informatiques traditionnels.
|
La conception de CPS sécurisés nécessite une expertise à la fois en matière de matériel et de logiciels. Mais la plupart des implémentations de CPS ne disposent pas de professionnels compétents dans tous ces domaines simultanément. Les CPS ne prennent souvent pas en charge les mises à jour à distance pour l’application de correctifs ou de patches ce qui amplifie la difficulté de repenser la conception du matériel et des logiciels déjà en place de manière sécurisée. De nombreux CPS fonctionnent pour des contrôles en temps réel, ce qui crée des dépendances internes complexes et complique le renforcement de la sécurité et la résilience, tant au niveau individuel que des réseaux distribués. |
────────────
|
Le problème est donc le suivant : « Comment mieux sécuriser l’Internet des objets et tous les appareils technologiques à vocation opérationnelle qui font tourner des systèmes dans le monde réel »
L’efficacité de l’IA dépend de nombreux facteurs, notamment de la qualité des données d’entraînement. Ces données sont collectées de manière opportuniste, mal entretenues, biaisées ou inexactes. Le recours aux données d’entraînement pose des défis complexes qui vont au-delà de la qualité et de la sécurité, tels que les questions de droits d’auteur et de propriété des données. Même les utilisateurs avancés ne peuvent que se forger une opinion limitée sur les systèmes d’IA. Ils négligent alors le large éventail de faiblesses et de vulnérabilités que ces systèmes présentent souvent.
────────────
|
Nos biais cognitifs, telles que le biais d’automatisation, pousse les gens à faire trop confiance aux décisions des systèmes autonomes. La surface d’attaque est enfin trop vaste et comprend des vulnérabilités dans les données d’entraînement, l’architecture réseau et les entrées opérationnelles, en plus des risques de cybersécurité conventionnels du logiciel. |
Par conséquent, les développeurs d’IA doivent donner la priorité à la responsabilité humaine explicite et garantir des résultats sécurisés dans leurs conceptions.
Le problème est donc le suivant : «Comment amener l’intelligence artificielle dans le cycle de développement logiciel sécurisé »
On observe partout dans le monde une dépendance croissante vis-à-vis des systèmes à grande échelle tels que les infrastructures cloud fournies par Amazon Web Services, Azure et Google, ainsi que des applications majeures telles que les moteurs de recherche et les messageries électroniques de Microsoft et Google. Les utilisateurs ont une visibilité limitée sur la configuration de sécurité de ces systèmes et ne peuvent que se fier aux garanties fournies par les fournisseurs. Pour maintenir leur résilience face aux attaques et aux pannes, ces systèmes doivent être capables d’isoler les composants compromis, afin de permettre la poursuite de leur fonctionnement, et à terme, leur rétablissement. Toutefois, cela n’est possible que si les attaques sont détectées rapidement, si leur impact potentiel est évalué sans délai et si des mesures défensives appropriées sont prises.
|
Ce qui rend la tâche difficile ? La sécurité opérationnelle dans les grandes organisations se heurte à de nombreuses difficultés, notamment en matière de prévention, de détection, de réponse et de rétablissement. Une détection et une réponse efficaces exigent des renseignements sur les menaces, une pratique continue, des outils bien développés et une connaissance approfondie des réseaux et des applications utilisés dans l’organisation. L’identification des attaques et la compréhension de leurs effets peuvent être coûteuses et sujettes à des erreurs. La récupération (recover) est un aspect essentiel de la sécurité, mais de nombreuses organisations ont du mal à y parvenir, comme le montrent les nombreux incidents liés aux ransomwares. Les systèmes sociétaux essentiels reposent souvent sur un petit nombre d’infrastructures clés, telles que les services cloud, qui peuvent devenir des points uniques de défaillance catastrophique, menaçant la sécurité, la disponibilité et l’intégrité. |
────────────
|
Le problème est donc le suivant : « Comment la résilience des systèmes opérationnels, les étapes de respond and recover, au sein des grandes organisations privées et gouvernementales, peut-elle être améliorée dans un environnement de menaces actives et de conséquences importantes ? »
Évaluer la sécurité d’un système informatique est un défi majeur. Contrairement aux systèmes physiques, où certaines propriétés peuvent être facilement mesurées et testées, il existe très peu de critères mesurables de sécurité fiables et reproductibles. Souvent, on privilégie des aspects plus simples à mesurer, comme la performance ou la disponibilité, au détriment de la sécurité, qui est pourtant essentielle mais plus difficile à quantifier.
────────────
|
Si ce risque est complexe à évaluer, c’est parce qu’il dépend du contexte et des attaquants. Sous-estimer leurs capacités ou leur motivation peut avoir de lourdes conséquences. Les risques cyber ne se comportent pas comme les risques habituels (incendies, inondations) qu’on peut évaluer avec des modèles actuariels : ils reposent sur des corrélations cachées (par exemple des composants communs dans les chaînes d’approvisionnement) et des informations secrètes, comme les techniques des attaquants qui s’adaptent. Ainsi, une faille minime dans un module secondaire peut suffire à mettre en péril tout un système mal conçu. Les tests classiques « boîte noire », sans accès aux composants internes, ne garantissent pas de détecter toutes les failles. Les résultats peuvent d’ailleurs être trompeurs, à cause d’états internes persistants, de comportements imprévisibles ou de logiques dissimulées. |
De plus, les fournisseurs montrent souvent peu de transparence, obligeant les clients à faire confiance à des évaluations tierces ou aux promesses du fournisseur lui-même.
En pratique, les organisations se reposent sur les déclarations des éditeurs, parfois complétées par des exercices de red team qui simulent des attaques. Mais cette approche reste limitée, coûteuse et demande une expertise spécialisée. Le logiciel open source peut offrir plus de confiance, grâce à la transparence et aux contributions collaboratives. Cependant, pour être efficace, il faut s’appuyer sur des évaluations solides et objectives, réalisées à la fois par les fournisseurs et par des experts indépendants.
Le problème difficile est donc: « comment mieux évaluer l’ensemble des risques cyber, depuis les vulnérabilités techniques et les surfaces d’attaque jusqu’aux conséquences opérationnelles, à la résilience face aux attaques et aux caractéristiques des menaces ? »
A la différence des problèmes de Hilbert, ces problèmes difficiles cyber ne disposent pas d’un siècle pour être résolu. Chacun d’eux est un point de défaillance critique du fonctionnement de nos sociétés modernes. Les résoudre, c’est aussi imaginer plus de résilience en cas de défaillance matérialisée. Pour beaucoup de ces problèmes on aimerait bien disposer de métriques standards pour pouvoir rigoureusement comparer. Il est peu probable, hélas, que ceci se réalise de façon aussi simple dans ces cas-ci, car il faudra ‘abord formuler ces problèmes de façon bien plus rigoureuse pour affirmer qu’ils ont été « résolus » et de plus, alors que le cas mathématique le nombre d’axiomes est limités, ici l’équivalent n’est pas limité, les attaques, à formaliser.
Pour l’instant, on n’est nulle part.
L’article Les 10 problèmes de Hilbert de la cybersécurité. est apparu en premier sur Blog binaire.
14.11.2025 à 07:18
Thierry VIEVILLE
La Société Informatique de France (SIF) partage sur binaire un cycle d’interviews sur l’impact de l’intelligence artificielle (IA) sur les métiers. Ici Stéphanie Le Cam, Enseignante-Chercheuse et Directrice de la Ligue des Auteurs Professionnels aborde l’enjeu du métier d’autrice ou auteur à l’heure de l’IA. Interview réalisée Erwan Le Merrer, président du conseil scientifique de […]
L’article De l’impact de l’IA sur les auteurs est apparu en premier sur Blog binaire.

Pouvez-vous nous dire rapidement qui vous êtes, et quel est votre métier ?
Je m’appelle Stéphanie Le Cam. Je suis maître de conférences en droit privé à l’Université Rennes 2, où je travaille plus particulièrement sur le droit d’auteur ainsi que sur le régime social des artistes-auteurs. Parallèlement à mon activité universitaire, j’occupe les fonctions de directrice générale de la Ligue des auteurs professionnels, une organisation qui rassemble aujourd’hui un peu plus de 2 800 autrices et auteurs du livre.
En quoi pensez-vous que l’IA a déjà transformé votre métier ?
En tant qu’enseignante-chercheuse, il est évident que l’intelligence artificielle va transformer en profondeur notre métier. Elle interroge d’abord nos pratiques pédagogiques, notamment les modalités d’évaluation. Demander à un étudiant de rédiger une copie n’a plus le même sens si l’on sait qu’il peut recourir à un modèle d’IAG pour la produire. Cela nous oblige à réfléchir à la finalité de l’enseignement, à la place de l’examen, mais aussi à la manière dont nous transmettons le savoir, longtemps pensée sur un mode très vertical.
Sur le plan de la recherche, l’impact est tout aussi direct. Mes travaux portent sur les transformations du travail de création et sur la précarité structurelle des métiers de la création. Or, l’arrivée de l’IA générative agit comme un véritable séisme dans ce champ : elle redéfinit les conditions de production et les équilibres juridiques et économiques. Elle met à mal de nombreux professionnels de la création et de l’information en les privant d’activités et de rémunérations et en les fragilisant encore plus.
Enfin, dans mes fonctions de directrice générale de la Ligue des auteurs professionnels, je mesure chaque jour à quel point les auteurs sont concernés, en particulier les illustrateurs et traducteurs. L’IA bouleverse déjà leur pratique et leur économie, et il est certain que dans les années à venir, cette question occupera une place centrale dans mon action syndicale.

A quels changements peut-on s’attendre dans le futur ? Par exemple, quelles tâches pourraient être amenées à s’automatiser? A quel horizon ?
D’abord, en tant qu’enseignante-chercheuse, l’IA s’impose comme un outil facilitateur. Dans le montage de projets de recherche, elle permettrait d’aller plus vite pour compiler des données ou préparer des dossiers, mais je ne suis pas convaincue par la réalité de cette accélération, puisqu’elle doit aussi nous obliger à plus de contrôle, plus de vigilance… Si tant est qu’elle existe, elle n’est sans doute pas une bonne chose : la recherche repose aussi sur des temps longs, nécessaires pour construire une véritable analyse et une intelligence collective et définir ensemble les orientations. Si, demain, l’évaluation des projets devait être confiée à des algorithmes, nous perdrions une part essentielle de la délibération académique, et ce ne serait pas vertueux.
Dans l’enseignement, je suis prudente : recourir à l’IA est très risqué, car elle peut fragiliser l’évaluation des étudiants. En revanche, le développement de l’oralité dans les examens pourrait être une piste intéressante. On reproche souvent à l’université de ne pas y consacrer assez de place ; l’IA pourrait paradoxalement nous inciter à la réhabiliter. Enfin, il est certain que des tâches de recherche comme la veille médiatique, juridique ou jurisprudentielle sont déjà de plus en plus automatisées via les bases de données en ligne qui sont mises à la disposition des chercheurs. Cela peut représenter un gain, à condition de rester très vigilant sur la fiabilité et l’intégrité des données produites.
Ensuite, du point de vue des métiers que je représente à la Ligue des auteurs professionnels, l’impact est encore plus brutal. Les illustrateurs, en particulier, se trouvent déjà confrontés à une forme de remplacement massif. La concurrence est rude et le seuil des prix via les outils d’IA est va baisser, ce qui menace directement leur activité. Si nous n’anticipons pas la mise en place d’une vraie protection, beaucoup de professionnels vont être évincés, ce qui est inacceptable.
Si vous devez embaucher de nouveaux employés, quelles connaissances en informatique, en IA, attendez-vous d’eux suivant leurs postes?
Je ne raisonne pas directement en termes « d’embauche », mais plutôt en termes de compétences attendues chez les étudiants que je forme ou chez les professionnels que je côtoie. À l’université, ce que j’attends avant tout, ce n’est pas une expertise technique pointue en informatique ou en intelligence artificielle, mais une capacité à adopter un regard critique et à comprendre les usages de ces outils : savoir quand ils peuvent être utiles, mais aussi percevoir leurs limites et leurs biais.
Dans le monde du livre et de la création, la logique est un peu différente. Les auteurs et autrices doivent savoir en appréhender les mécanismes pour défendre leurs droits et leurs métiers. A titre d’exemple, celui qui l’utilise sans réflexion dans un processus de création, met en péril sa qualité d’auteur et s’expose à des risques juridiques importants. Ce que j’attends donc, ce n’est pas tant une compétence technique qu’une conscience des enjeux : économiques, juridiques, éthiques.
Pouvez-vous préciser quelles formations, à quel niveau?
Dès le lycée, il est important que les élèves acquièrent une culture générale de l’intelligence artificielle : comprendre comment fonctionnent les grands modèles, quelles données ils utilisent, quels biais ils véhiculent et quelles questions éthiques ou juridiques ils posent. Cela ne nécessite pas de compétences techniques avancées, mais bien une initiation critique, indispensable pour tout citoyen aujourd’hui.
Au niveau universitaire, il s’agit d’accompagner les étudiants afin qu’ils ne perdent jamais leur autonomie de pensée ni leur capacité de rédaction et de réflexion.
Pour quelles personnes déjà en poste pensez-vous que des connaissances d’informatique et d’IA sont indispensables?
A mon sens, l’enjeu est civilisationnel et concerne toutes les professions.
Ciblez-vous plutôt des informaticiens à qui vous faites apprendre votre métier, ou des spécialistes de votre métier aussi compétents en informatique?
Je ne crois pas que la question doive se réduire à un choix entre « former des informaticiens à nos métiers » ou « rendre nos spécialistes compétents en informatique ». Bien sûr, les profils d’informaticiens sont précieux, mais à condition qu’ils aient été sensibilisés à d’autres champs : l’éthique, les sciences cognitives, la psychologie sociale ou encore la psychodynamique du travail. Autant de disciplines qui permettent de penser ce que l’IA fait à nos manières de raisonner, de produire du savoir et de transmettre.
Mais je crois surtout qu’il faut ouvrir le spectre au-delà des seuls informaticiens. Les enjeux environnementaux, par exemple, sont majeurs : l’IA a une empreinte énergétique considérable, et il est nécessaire de former aussi des experts capables de mesurer et de réguler cet impact.
Pour les personnes déjà en poste, quelles formations continues vous paraissent indispensables ?
Pour les personnes déjà en poste, je crois que les besoins en formation continue sont exactement les mêmes. Il ne s’agit pas uniquement d’apprendre à manier des outils techniques, mais surtout d’acquérir une culture critique de l’IA.
Un message à passer, ou une requête particulière aux concepteurs de modèles d’IA ?
Je commencerais par dire qu’il serait temps d’arrêter d’aspirer toutes les données sans aucune considération pour leur coût réel, ni pour la valeur du travail qui se cache derrière elles. Chaque donnée extraite pour entraîner un modèle d’IA correspond au travail d’enseignants-chercheurs, d’auteurs, d’illustrateurs, de traducteurs. Or, ces mêmes modèles viennent ensuite concurrencer directement leurs activités. Dans cette logique, il faut envisager d’abord une indemnisation des préjudices subis par l’ensemble des créateurs et des créatrices. Nous devons aussi partir du principe qu’il est encore beaucoup trop tôt de parler de contractualisation et de rémunération au sujets des usages futurs. Aucune rémunération gérée collectivement ne sera suffisante pour permettre aux professionnels de continuer à vivre dignement de leur activité. Il faut donc songer en parallèle à la mise en place d’un statut professionnel fort pour les créateurs et créatrices.
Ce n’est qu’à condition d’accorder la priorité à une création et une information durables que nous relèverons ce défi et continuer de développer dans un cadre équitable, respectueux des créateurs et bénéfique pour la société dans son ensemble.
Interview de Stéphanie Le Cam, Enseignante-Chercheuse et Directrice de la Ligue des Auteurs Professionnels, réalisée par Erwan Le Merrer.
L’article De l’impact de l’IA sur les auteurs est apparu en premier sur Blog binaire.