LePartisan - 1100 vues
MEDIAS REVUES BLOGS
 Binaire

Blog collectif en collaboration avec La Recherche et la Société Informatique de France

 

Publié le 20.02.2026 à 07:06

Élaguer le beau pour laisser place à l’extraordinaire

« L’intelligence artificielle (ci-après : IA) s’apprête à transformer la médecine bien au-delà des débats courants sur l’éthique, l’automatisation ou la performance des algorithmes. Aussi importantes soient-elles, ces questions ne saisissent qu’une partie du phénomène », nous expliquent Masrour Makaremi, Philippe Salah et Thomas Boraud dans cet article. En effet, ils soulignent que « derrière les promesses technologiques émerge une mutation aussi discrète que décisive : la reconfiguration de l’architecture cognitive du jugement clinique ». Comme pour d’autres métiers de haut niveau, l’IA ne modifie pas seulement ce que les médecins peuvent faire, mais aussi la manière dont ils perçoivent, hiérarchisent et intègrent l’information. Chloé Mercier et Thierry Viéville.
« De la souveraineté cognitive face à l’IA » prompt soumis à https://www.canva.com

« Élaguer le beau pour laisser place à l’extraordinaire »  fait allusion au tri cognitif qui protège l’instant rare où le sens clinique émerge : on parle d’insight. Voyons alors l’impact de l’IA sur un tel travail d’expertise.

De la souveraineté cognitive face à l’IA.

Ainsi, l’enjeu cesse d’être purement technique pour devenir épistémologique. Comment préserver la souveraineté cognitive du clinicien dans un environnement où l’information circule plus vite que la conscience ne peut l’intégrer ?

Car l’IA n’a de valeur que comme amplificateur du jugement humain. Les meilleures performances émergent lorsque les experts critiquent, ajustent et supervisent activement les propositions émanant des systèmes, plutôt que de les suivre passivement.

Dans cet ordre d’idées, une IA utile n’est donc pas celle qui « décide » mais celle qui soutient le praticien sans fragmenter son flow, sans alourdir sa charge mentale, sans troubler cette dynamique silencieuse qui sous-tend l’expertise. Car c’est précisément de cette alliance entre l’intelligence humaine et l’intelligence computationnelle que dépendra la possibilité d’une médecine vraiment augmentée : plus sûre, plus juste, plus lucide.

En médecine, décider revient d’abord à réduire la complexité de manière sélective et à extraire quelques signaux pertinents d’un océan d’informations. Or, cette fonction repose sur des mécanismes massivement parallèles, tacites et énergétiquement coûteux. Le cerveau humain traite environ 11 millions de bits par seconde, mais la conscience n’en saisit qu’une cinquantaine1 : c’est dans cette asymétrie que se loge l’intuition clinique. Chaque praticien connaît cet instant presque lumineux où un diagnostic complexe émerge : des indices dispersés s’assemblent, les schémas convergent, une cohérence nouvelle apparaît. Dans cet état de flow, le clinicien évolue comme si le temps se suspendait, dans un espace où l’effort se dissout, où l’expertise opère à un niveau non verbal, implicite, profondément intégré.

Dans ces conditions, l’IA agit comme un amplificateur. Elle élargit la bande passante perceptive, réduit certains biais et structure des masses d’information que nulle cognition humaine ne pourrait embrasser seule. Dans le même temps, elle introduit une tension nouvelle : pour dialoguer avec des systèmes fondés sur le langage, le médecin doit verbaliser un raisonnement qui, par nature, n’est pas verbalisable. Cette traduction forcée crée un goulot d’étranglement au moment même où la pensée clinique est censée être la plus fluide. L’expertise médicale est silencieuse ; les modèles actuels l’obligent à parler.

Le véritable enjeu est donc la souveraineté cognitive. Comment maintenir le praticien dans un état décisionnel performant, proche du flow, tout en distribuant intelligemment la charge cognitive entre l’humain et la machine ? Comment éviter que l’IA, en multipliant les frictions verbales, n’en vienne à fragmenter un raisonnement fondamentalement parallèle et implicite ?

Un clinicien ne peut véritablement assumer sa responsabilité que s’il reste majoritairement engagé dans son système 12, ce mode rapide, intuitif, intégré, qui constitue la signature de l’expertise. Dès que l’outil numérique force un basculement prolongé vers le système 2, analytique, verbal, séquentiel, il crée une surcharge qui fragmente l’attention, ralentit le raisonnement et, paradoxalement, réduit la capacité du praticien à être pleinement responsable de ses décisions et de ses actions.

Demander à un médecin de travailler dans un environnement où ses ressources cognitives sont constamment dépassées est non seulement inefficace, mais constitue aussi une forme de déresponsabilisation fonctionnelle. Le système dit « vous êtes responsable » alors que l’architecture cognitive affirme l’inverse.

Dans les faits, trois problématiques apparaissent :

  1. Le praticien accepte le système malgré la surcharge et renonce progressivement à son état d’expertise, opérant en deçà de ses capacités intuitives.
  2. Le praticien refuse le système et continue à travailler « à l’ancienne », recréant un environnement compatible avec son mode de pensée, mais incompatible avec les exigences contemporaines en matière de données.
  3. La voie la plus exigeante et la seule réellement intégrative : préserver l’engagement en système 1 tout en collaborant efficacement avec l’IA. C’est la seule trajectoire où l’humain et la machine peuvent devenir complémentaires sans s’annuler mutuellement.

Cette troisième voie n’est pas la plus simple : elle demande de repenser en profondeur la conception des outils et la chorégraphie cognitive du flux clinique. Mais c’est la seule qui puisse permettre une médecine réellement augmentée, où l’expert reste expert et où l’IA amplifie sa compétence plutôt que d’épuiser les ressources de celle-ci.

« L’allégorie du papillon et du cerveau » prompt soumis à https://www.canva.com/

L’allégorie du papillon.

On peut définir les exigences fondamentales auxquelles un flux de travail intégrant une IA doit satisfaire pour permettre à l’expertise clinique de s’exprimer pleinement. Un tel flux ne peut être conçu comme une simple chaîne de traitement algorithmique, mais comme une architecture cognitive continue, reliant les données à l’action clinique sans rupture perceptive ni déplacement du centre décisionnel. Il doit être pensé à partir du fonctionnement réel de l’expert, en respectant la manière dont l’intuition clinique se forme, se structure et se déploie dans l’action.

Une telle architecture implique de reconnaître que l’expertise humaine repose en grande partie sur des processus non verbaux, rapides et intégrés, fondés sur la reconnaissance de formes, l’extraction d’invariants et la tolérance à l’ambiguïté3. Contraindre ce raisonnement à une verbalisation séquentielle ou à des interfaces principalement textuelles introduit une friction cognitive qui altère le flow décisionnel. À l’inverse, un flux de travail adapté doit permettre à l’expertise implicite du praticien d’être progressivement structurée, transduite puis prolongée par l’IA, sans jamais la forcer à adopter un mode de raisonnement étranger à son fonctionnement naturel.

L’objectif n’est pas de transférer la décision à la machine, mais d’en amplifier la portée tout en préservant l’intuition experte, la souveraineté cognitive et la capacité du clinicien à produire du sens dans l’incertitude. Car toute décision humaine comporte une part irréductible de variabilité et de hasard, qui ne constitue pas une faiblesse à éliminer mais l’une des composantes essentielles de l’intelligence experte4.

Dans ce cadre, l’IA intervient comme un prolongement opérant du raisonnement clinique. Elle déploie, à partir d’une intuition structurée, des trajectoires d’action cohérentes, tandis que la validation finale demeure sous le contrôle du praticien. Cette validation devient fluide et immédiate lorsque les espaces cognitifs humains et artificiels ont été préalablement alignés, ce qui permet au clinicien de reconnaître la justesse d’une proposition sans avoir à en reconstruire analytiquement le cheminement.

La figure constitue la traduction visuelle de cette approche. Elle formalise une architecture de flux conçue non pas pour contraindre l’expertise, mais pour lui offrir un espace d’expression continu, de la perception implicite à l’action clinique. Elle illustre la façon dont une IA correctement intégrée peut prolonger le raisonnement expert sans en altérer la dynamique intime. La morphologie même de cette architecture, faite de convergences, de zones de transduction et de déploiements asymétriques, évoque la structure d’un papillon. Loin d’être fortuite, cette forme reflète la sensibilité du raisonnement expert aux conditions initiales, où de légères variations perceptives peuvent produire des effets décisionnels majeurs. C’est pour cette raison que nous avons choisi de désigner cette architecture sous le nom d’« allégorie du papillon ».

La première composante de ce flux correspond au formatage du système-1/IA. À ce niveau, l’IA traite des données numériques hétérogènes issues de structures algorithmiques multiples et les reformate de manière à les rendre directement compatibles avec la cognition experte. Ce travail ne vise pas à enrichir artificiellement l’information, mais à la présenter sous une forme immédiatement exploitable par le système 1, fondée sur la reconnaissance d’invariants (mieux définir ou expliquer) plutôt que sur l’analyse explicite.

L’extraction des invariants experts constitue le socle cognitif en amont du processus. Elle relève exclusivement du travail perceptif et intuitif du clinicien, avant toute interaction avec l’IA opérante. Cette zone représente le réservoir implicite d’expertise dans lequel l’expert reconnaît spontanément des régularités à partir de configurations complexes. Elle concentre le stock de connaissances structurées et la capacité de projection matricielle.

La zone centrale du schéma correspond à la transduction expert/IA. Il s’agit du moment décisif où l’expertise humaine cesse d’être diffuse pour devenir transmissible. Dans cet espace de co-élaboration cognitive, l’expert ne verbalise pas intégralement son raisonnement, mais opère une saisie immédiate de l’essence de la situation, structurée par l’intuition et l’extraction d’invariants clés. L’interaction humain-machine y est volontairement minimale et fluide, afin de permettre la transduction de la quintessence de la pensée experte vers l’IA sans rupture cognitive. Alignée sur le fonctionnement du système 1, cette étape préserve la continuité perceptive de l’expert tout en rendant son jugement opérable. Par transduction, on entend le processus par lequel une information est transformée d’un registre à un autre sans en perdre le contenu essentiel, mais en en modifiant le mode d’expression.

À l’aval de cette transduction, se déploie la phase d’IA opérante. À partir des invariants cliniques extraits et projetés dans un espace formalisé compatible avec le système artificiel, l’IA n’agit plus comme un simple outil d’analyse, mais comme un prolongement fonctionnel du raisonnement expert. Le cône visuel de la figure traduit cette dynamique d’expansion contrôlée : depuis une représentation condensée et structurée, l’IA déploie des trajectoires d’action selon une logique matricielle linéaire, sans réintroduire une complexité inutile pour le clinicien. Les flux internes orientés vers l’action demeurent continus et non conflictuels, ne requérant ni verbalisation supplémentaire ni arbitrage conscient prolongé. L’intervention de l’IA se situe ainsi clairement dans le champ opératoire, en aval de la cognition experte, sans être en concurrence avec celle-ci.

La validation sans friction constitue l’étape finale de la supervision du processus. Elle correspond au moment où le praticien conserve pleinement la maîtrise du jugement clinique tout en bénéficiant du déploiement opérant de l’IA. À cette étape précise, le système a déjà transformé les invariants extraits en propositions d’action cohérentes, structurées et contextualisées. La validation n’intervient donc pas comme un contrôle analytique a posteriori, mais comme une reconnaissance immédiate de la pertinence du travail accompli. Cette facilité de validation repose sur l’alignement préalable des espaces cognitifs : les actions proposées prolongent la logique du raisonnement initial sans la déformer ni l’enrichir artificiellement. Le praticien reconnaît la justesse plus qu’il ne l’analyse. Le contrôle n’est pas abandonné : il est même renforcé par la réduction de la charge cognitive associée à la supervision. L’IA opère, le clinicien valide, et c’est dans cette continuité silencieuse entre la proposition algorithmique et le jugement clinique que se joue la véritable souveraineté cognitive.

« L’intuition [des enfants] c’est parce qu’elle est surhumaine qu’il faut la croire ; c’est parce qu’elle est mystérieuse qu’il faut l’écouter ; c’est parce qu’elle semble obscure qu’elle est lumineuse » prompt soumis à https://www.canva.com/

Conclusion.

En conséquence, construire une véritable stratégie d’augmentation implique une révision conceptuelle profonde. Il faut repenser l’interface entre ces deux formes d’intelligence pour concevoir une architecture du choix à même de préserver la bande passante intuitive du praticien. L’échec de l’harmonisation à cet égard n’entraînerait pas l’obsolescence de l’expertise, mais un désentraînement progressif. L’expertise clinique repose avant tout sur un stock de connaissances hautement structurées, sur la reconnaissance des invariants, bien plus que sur une puissance de calcul brute5.

À l’inverse, une intégration juste pourrait transformer l’IA en une pompe cognitive : un dispositif capable d’activer des réseaux neuronaux plus larges, d’enrichir la perception, de concentrer l’énergie mentale du clinicien sur ce qu’il fait de mieux : discerner, synthétiser, produire du sens.

L’excellence clinique de demain dépendra de notre capacité à élaborer une grammaire de la collaboration humain/IA : une grammaire à même de reconnaître les limites métaboliques du cerveau, d’exploiter les forces computationnelles des machines et de protéger la capacité irremplaçable de l’intelligence humaine à créer du sens.

Victor Hugo écrivait au sujet de l’intuition que c’est « parce qu’elle est surhumaine qu’il faut la croire ; c’est parce qu’elle est mystérieuse qu’il faut l’écouter ; c’est parce qu’elle semble obscure qu’elle est lumineuse  »6. C’est précisément cette lumière-là que l’IA doit amplifier, sans jamais l’éteindre.

Masrour Makaremi, spécialiste en orthopédie dento-faciale-orthodontie. Docteur es science cognitive. Philippe Salah, Docteur es physique. CEO Dental Monitoring. Thomas Boraud, Directeur de Recherche CNRS, Directeur de l’Institut des Maladies Neurodégénératives -CNRS UMR 5293

Bibliographie :

1 : Fan J. An information theory account of cognitive control. Frontiers in Human Neuroscience. 2014 Sep 2;8:680. doi:10.3389/fnhum.2014.00680. PMID:25228875.

2 : Kahneman, Daniel. Système 1 / Système 2 : Les deux vitesses de la pensée. Traduction.

3 : Bilalić, Merim. The Neuroscience of Expertise. Cambridge : Cambridge University Press, 2017. ISBN 978-1107446519 (broché) ; ISBN 978-1107084599

4 : Boraud, Thomas. Matière à décision. Paris : CNRS Éditions, 2015. ISBN 978-2-271-08118-6.

5 : Kahneman, D. et Klein, G. Conditions for Intuitive Expertise: A Failure to Disagree. American Psychologist, 64(6), 515-526. 2009. https://doi.org/10.1037/a0016755.

6 : Hugo, Victor. William Shakespeare. Paris, A. Lacroix, Verboeckhoven et Cie, 1864, chapitre « Les Génies ».

L’article Élaguer le beau pour laisser place à l’extraordinaire est apparu en premier sur Blog binaire.



Publié le 13.02.2026 à 07:36

Fragilités du Numérique : la Sobriété au service de la Résilience

illustration smartphone ecran casse

Comme évoqué à plusieurs reprises sur ce blog, les dynamiques environnementales actuelles du numérique ne sont pas soutenables. Pour rappel, la trajectoire climatique du secteur compatible avec l’accord de Paris, définie par l’Union internationale des télécommunications, demande que les émissions de GES du numérique baissent de 45% entre 2020 et 2030. Sur la même période, rien qu’en France, la dernière étude ADEME/ARCEP, basée sur les données de 2022, révèle une augmentation de 45 % des émissions de GES du numérique. À partir de ce constat, Benjamin Ninassi nous partage deux chemins possibles.
Antoine Rousseau (éditeur invité) et Thierry Viéville.

Scénario 1 : priorité à l’Adaptation

Premier scénario : on continue comme aujourd’hui et on oublie l’accord de Paris, pour le numérique comme pour les autres secteurs. Les études des spécialistes des sciences de l’environnement nous alertent sur le fait qu’on va progressivement continuer à aller vers un monde de plus en plus fluctuant composé d’évènements climatiques plus fréquents, de plus en plus imprévisibles et de plus fortes magnitudes, compromettant notre capacité à habiter la planète. On peut également s’attendre à une augmentation des tensions internationales, des ruptures d’approvisionnements des flux énergies et/ou matières nécessaires entre autres à la continuité des services numérique.

incendie poteau telecomParmi ces phénomènes, on peut par exemple citer la fragilité du numérique aux inondations (par remontée de nappes, débordement d’eau, submersion marine et ruissellement), à l’augmentation des températures, aux vagues de chaleur, aux vents extrêmes, aux tempêtes et aux feux de forêt, ou encore aux pénuries d’eau induisant des conflits d’usage. Il ne s’agit pas de sciences fictions, certains de ces événements se sont déjà produit récemment sur notre territoire : en aout 2025 l’incendie de l’Aude a détruit plus de 900 poteaux d’acheminement télécom, la tempête Alex dans le département des Alpes-Maritimes en 2020 a provoqué la rupture de réseaux filaires situés en bordure des 85km de routes emportées par les crues.

Pour imaginer un numérique résilient face à ces phénomènes, la première étape consiste à identifier et à cartographier l’ensemble des fragilités du numérique. L’ARCEP a publié en 2025 une première étude sur la résilience des réseaux de communication du territoire français. Il apparaît nécessaire de poursuivre ce type de travaux en englobant l’ensemble des infrastructures, des services numériques, des approvisionnements en équipements et en considérant également, bien entendu, les besoins en compétences nécessaires pour leur fabrication, leur réparation et leur maintien en conditions opérationnelles. Ces vulnérabilités doivent être identifiées sur tous les axes : climatiques, géostratégiques, cybersécurité, souveraineté, etc.
De plus, il ne faut pas oublier les dépendances du numérique. En effet, pour fonctionner il est dépendant d’autres infrastructures : des routes pour accéder aux sites, des alimentations électriques, en eau… Chaque vulnérabilité sur ces infrastructures est également une vulnérabilité pour le numérique, il faut identifier ces fragilités sur l’ensemble des chaînes de dépendances, y compris les dépendances extraterritoriales, puisqu’aujourd’hui nous utilisons majoritairement des ressources numériques hébergées dans des centres de données situés à l’étranger.

Il faut néanmoins s’attendre à ce que l’ensemble de ces vulnérabilités, notamment celles concernant les approvisionnements en énergie et en matière, remette en cause le paradigme actuel de croissance infinie du numérique et nécessite, par exemple, d’éteindre au moins temporairement une partie des infrastructures en cas de délestage électrique.

Scénario 2 : priorité à l’Atténuation

L’autre scénario, plus souhaitable, consiste à espérer un sursaut politique et technologique mondial rendant l’ensemble des secteurs, dont le numérique, soutenable au moins du point de vue climatique. Or, pour réduire les émissions de GES du numérique, comme dans d’autres secteurs, les gains d’efficacité ne suffisent pas. Il semblerait même d’après les dynamiques de croissance des impacts environnementaux du numérique, que les gains d’efficacités réguliers du secteur nous éloignent de sa trajectoire environnementale à cause des effets rebonds et des effets d’accélération. Il apparaît indispensable de cumuler ces gains d’efficacité avec la mise en œuvre de politiques de sobriété. Donc réglementer, réguler. C’est une autre vulnérabilité potentielle du paradigme de croissance « infinie » du numérique, liée cette fois aux évolutions réglementaires. Celles-ci arrivent déjà pour des raisons sanitaires, par exemple, à la suite de la prise de conscience des impacts de l’économie de l’attention sur les plus jeunes, ou aux enjeux géostratégiques de souveraineté.

Dans les deux scénarios, on ne peut que s’attendre à ce qu’inévitablement le numérique finisse à terme par au moins se stabiliser en consommation de ressources, et donc en capacité, voire à décroître. Anticiper ce ralentissement et travailler dès maintenant à la planification des numériques critiques, utiles, accessoires et délétères, en imaginant des manières de prioriser l’utilisation des ressources numériques dans un monde contraint, c’est réduire les vulnérabilités de demain. C’est reprendre la main, pour tenter d’éviter de subir les intermittences sur des services critiques quand elles arriveront.

La Sobriété au service de la Résilience ?

Se préparer à ces fluctuations, tout comme envisager un numérique soutenable qui respecte des limites planétaires, nécessite de hiérarchiser les usages du numérique, à l’instar de ce que le Secrétariat Général à la Planification Écologique (SGPE) a préparé dans la planification environnementale de l’énergie, en proposant une hiérarchisation des usages de la biomasse locale (page 15).

Mais comment imaginer réaliser cette priorisation ?

Faut-il prioriser la connectivité de certains équipements par rapport à d’autres ? (Le smartphone pour les urgences pourrait être prioritaire sur les smart tv ou les casques de réalité virtuelle par exemple) ?
Faut-il prioriser au niveau des usages, en considérant que le numérique au service de la santé, des secours ou de la communication instantanée doit être prioritaire par rapport au divertissement ?
Faut-il prioriser sur le plan technologique, en considérant que l’accès au web traditionnel doit primer sur l’accès à des mondes en réalité virtuelle, ou qu’une recherche classique doit primer sur une recherche via un moteur d’IA générative ?
Faut-il prioriser au niveau des utilisateurs, en considérant qu’un hôpital doit être prioritaire sur l’accès aux infrastructures réseau par rapport à un escape game VR ?
Faut-il plutôt prioriser au niveau des plateformes directement, en considérant qu’un accès aux plateformes de mail ou de messagerie instantanée devrait être prioritaire par rapport aux plateformes de streaming vidéo ?

Mais en fait, qui devrait piloter cette priorisation ? À quels niveaux doit-elle se faire, au niveau européen ? Des États ? Des entreprises ?
Et sur quels critères (utilité sociétale, impact économique, administration publique, etc.) ? Peut-on imaginer que la contribution du service lui-même à la résilience de la société soit prise en compte, et qu’ainsi un service numérique qui participe à rendre la société résiliente devienne prioritaire par rapport à un service numérique qui rendrait la société plus vulnérable aux fluctuations ?

Est-ce que le développement de « lowtech numériques », actuellement une chimère à inventer, pourrait rendre prioritaire un usage parce qu’il fonctionne de manière frugale, indépendamment du type de service qu’il rend ?
Et opérationnellement parlant, comment mettre en œuvre cette priorisation ?

Les architectures complexes des services numériques font qu’un service qui peut paraître « simple » du point de vue de l’utilisateur se retrouve rapidement éclaté en différentes dépendances logicielles hébergées sur différentes infrastructures, situées sur différents territoires. Prioriser un service plutôt qu’un autre n’est pas aussi simple que d’ouvrir ou de fermer un robinet d’eau. Pourtant, en cas de réduction rapide des ressources (par exemple, un délestage électrique), il faudrait idéalement pouvoir éteindre rapidement les services moins prioritaires et conserver les services critiques (les secours, les hôpitaux, etc.).

Comment mettre en œuvre cette priorisation avec des services éclatés entre plusieurs centres de données ? Des services dépendants de briques logicielles extraterritoriales ? des services nécessitant certains types d’équipements spécifiques (GPU IA, casques VR…) sujet à des ruptures d’approvisionnement ?

De plus, un service numérique ça n’est pas qu’une infrastructure de production, c’est également des ressources matérielles dédiées à son développement, aux tests techniques, à la qualification fonctionnelle, à l’hébergement des codes sources, aux backups… est-ce que si un usage est considéré comme prioritaire, l’ensemble des ressources dont il a besoin le deviennent aussi ? Ou bien peut-on imaginer descendre à un niveau de priorisation où l’instance de production du service d’appel aux secours reste en ligne, mais ses instances de qualification et de tests sont arrêtées par manque de ressources ?

La sobriété est ainsi un outil non seulement au service de l’atténuation des impacts, mais également de la résilience. Elle permet à la fois de se préparer aux fluctuations et d’envisager un numérique soutenable, respectueux des limites planétaires. Mais déployer la sobriété nécessite à la fois des choix de société et des innovations technologiques pour la mettre en œuvre.

Réfléchir à cette priorisation, c’est précisément une question d’intérêt général, de gestion du bien commun, de « politique » (au sens noble et non partisan du terme).

La question de fond finalement, n’est-elle pas tout simplement : comment construire un numérique plus robuste, plus souhaitable ?

Benjamin Ninassi, Inria.

L’article Fragilités du Numérique : la Sobriété au service de la Résilience est apparu en premier sur Blog binaire.



Publié le 06.02.2026 à 07:03

IA collaborative et application médicale

©CC-BY

Cause commune est « la voix des possibles » une radio généraliste libre et indépendante sur les ondes en Île-de-France et sur Internet partout dans le monde.
Elle donne la parole à qui veut aider le monde à aller mieux et contribue à décloisonner la culture et les savoirs.
Ses contenus sont partagés comme des biens communs, pour toutes et tous.

 

Quand on se questionne sur l’IA, on pense tout de suite à ce qu’elle crée, presque aussi bien que des humains. Ici, Mathieu Even,  d’Inria et de l’INSERM, montre un moyen inédit d’utiliser  l’apprentissage automatique. Il partage sa thèse sur la manière de fédérer plusieurs apprentissages algorithmiques, avec leurs modèles, pour en inférer les causes d’un phénomène. Il applique cela au domaine médical. Animée par Serge Abiteboulcette émission radiophonique aborde ces questions tout en restant accessible et en expliquant en quoi ces notions précises peuvent révolutionner le domaine, en lien avec l’IA.  Chloé Mercier et Thierry Viéville.

— L’Apprentissage Fédéré (Federated Learning) avec le concept de décentralisation des données d’entraînement
— Confidentialité et sécurité des données grâce aux techniques de « confidentialité différentielle »
— Défis de l’informatique distribuée : l’asynchronie et l’absence de centralité
— L’inférence causale dans le domaine médical pour éviter les fausses pistes des corrélations
— La médecine personnalisée entre espoirs et freins

L’article IA collaborative et application médicale est apparu en premier sur Blog binaire.



Publié le 30.01.2026 à 06:39

Chacun son IA et les données seront bien gardées

Nous ne rattraperons sans doute jamais les USA et la Chine en infrastructures AI. Par contre, les champions de l’AI proposent leur modèles déjà entrainés en open source. On peut les télécharger et partir de là pour déployer l’IA dans son entreprise mais cette fois en environnement fermé, en coupant le cordon avec un OpenAI et consorts. l’EPFL nous montre l’exemple avec son logiciel Anyway Systems qui utilise la puissance de calcul en local de chaque entreprise en mode distribué. Quand OpenAI favorise un écosystème autour de lui de startup qui développement des services sur ses modèles, le cordon n’est pas coupé: il se renforce jusqu’au moment où OpenAI le coupe lui-même parce qu’il a développé le même service. C’est la tangente inverse que prend l’EPFL. A la clé, la souveraineté sur ses données est garantie dès la première minute: ses propres données ne tournent sur le modèle open source qu’une fois rendu autonome en son sein.  Laissons la parole à Rachid Guerraoui. Serge Abiteboul, Charles Cuvelliez et Ikram Chraibi Kaadoud

_

De l’avis de beaucoup d’experts, l’adoption de l’IA passerait par une perte d’indépendance. De récentes solutions démontrent néanmoins que cela n’est pas une fatalité. Innovation et souveraineté pourraient être conciliées. Avant d’expliquer cela, un petit diagnostic s’impose.

Ignorer l’IA ne semble pas très raisonnable. Qu’il s’agisse de résumer des réunions, de traduire des textes, de suggérer une future destination de vacances, de créer une recette originale ou de découvrir un nouveau médicament, les applications de l’IA se multiplient. En dehors des USA et de la Chine, nombre de responsables, CEO, directeurs, gestionnaires  considèrent que le retard dans leurs entreprises ou administrations est déjà réel.

Ignorer l’IA ne semble pas très raisonnable

___________________

Face à cette situation, la première réaction des responsables consiste souvent à monter en compétences, à titre individuel comme collectif. Ils organisent des formations destinées à familiariser leurs équipes avec les concepts fondamentaux : la donnée, les réseaux de neurones, les mécanismes d’apprentissage et d’inférence, les architectures de type transformers, la notion de token ou encore les pratiques de prompting. Les solutions phares du moment sont présentées — les grands modèles de langage (LLM), souvent appelés simplement « modèles » — tels que ChatGPT, Gemini, Claude, Copilot ou Le Chat. On parle aussi de la nécessité d’adopter une « culture IA », ce fameux changement de posture présenté comme indispensable, ainsi que des visions globales et humanistes de la technologie, sans oublier les questions éthiques et la protection des données personnelles.

_

Sous l’influence conjuguée de la médiatisation de l’IA, des attentes des conseils d’administration, des recommandations de cabinets de conseil ou de l’enthousiasme de certains collaborateurs, les responsables publics et privés décident alors qu’il faut franchir le pas et d’investir « concrètement » dans l’IA. Des enveloppes budgétaires dédiées sont débloquées. C’est précisément à ce stade que surgit la grande difficulté : investir dans l’IA, oui, mais comment ? Selon quelles priorités, sur quelles solutions, et à quelles conditions de souveraineté et de confidentialité des données ?


Perte de souveraineté.

Une option semble souvent s’imposer : confier son IA à l’un des grands acteurs du numérique. Concrètement,  de nombreux experts recommandent d’utiliser un modèle connu (ChatGPT, Gemini, Copilot, etc), initialement entrainé sur d’énormes masses de données glanées sur Internet, puis de l’adapter à ses besoins en complétant l’apprentissage sur ses propres données (on parle aussi de RAG – Génération Augmentée de Récupération). Si notre entreprise est une banque, il s’agirait de parfaire l’entrainement du modèle sur des investissements réalisés par les clients de la banque par exemple. Si nous gérons un hôpital, il s’agirait par exemple de lui confier les fichiers patients. Si c’est le cadastre, il s’agirait de lui faire digérer l’extrait actuel du registre foncier. Le tout serait hébergé dans un centre de données de ce géant du numérique. Au moment d’utiliser l’IA dans la phase appelée inférence, les requêtes au modèle (les fameux « prompts ») seraient aussi envoyées et traitées dans ces centres de données qui disposent d’un très grand nombre de machines puissantes équipées de GPU derniers cri — ces processeurs graphiques conçus à l’origine pour les jeux vidéo, mais devenus essentiels pour l’apprentissage automatique et l’inférence. En gros, ces géants du numérique « savent ce qu’ils font et ont les moyens » disent les experts.

_

Se pose néanmoins le problème de perte de souveraineté. Il faudra confier ses données à des acteurs souvent étrangers, aussi bien celles communiquées pendant l’apprentissage que les requêtes envoyées pendant l’inférence, souvent très révélatrices des activités actuelles de l’entreprise ou de l’administration. Il existe bien des solutions permettant de chiffrer les données transmises pour les rendre incompréhensibles à des acteurs externes, mais elles demeurent onéreuses. Abandonner sa souveraineté serait-il donc le prix à payer pour l’IA ? Il est important de noter ici qu’au-delà de sacrifier la confidentialité des données, la perte de souveraineté se traduit de manière générale en terme opérationnel : l’hébergeur du centre de données peut à tout instant, en plus de faire un usage indésirable de vos données, arrêter le fonctionnement de votre IA, à cause d’une panne, d’une attaque ou d’une décision administrative liée au pays d’accueil de ce centre. Cette perte de souveraineté se traduit aussi par l’impossibilité d’explorer pourquoi le modèle est arrivé à telle ou telle conclusion. Tout cela est-il une fatalité ?

_

La perte de souveraineté se traduit aussi  en terme opérationnel aussi: être à la merci de l’hébergeur AI de vos données

___________________

La réponse est non. Il s’avère tout à fait possible de déployer un modèle localement, dans un hôpital, une entreprise ou une administration. Nous (Gauthier Voron, Geovani Rizk et Rachid Guerraoui) avons développé à l’EPFL un logiciel qui élimine la nécessité d’envoyer des données à tout service tiers lorsqu’une IA est utilisée pour accomplir une tâche d’inférence. Quelques machines locales sont suffisantes pour héberger les plus gros des modèles. Cela peut sembler magique et contredire l’idée selon laquelle l’IA nécessiterait d’énormes capacités de calculs. En fait, et en y regardant de plus près, deux situations semblent aujourd’hui vraiment nécessiter de grosses capacités de calcul : l’apprentissage sur de très grandes quantités de données et l’inférence pour répondre à un très grand nombre de clients (près d’1 milliard pour ChatGPT). Des progrès sont certes réalisés pour réduire les moyens requis dans les deux situations (voir par exemple les développements DeepSeek), mais seuls quelques géants américains et chinois disposent de ces capacités.


Après téléchargement, couper tout

Mais la situation la plus importante en pratique n’en nécessite pas autant. Nous avons démontré qu’il était possible de télécharger un gros modèle open source déjà entrainé, de le déployer sur quelques machines locales, de l’adapter à un contexte particulier en complétant l’apprentissage sur des données privées, puis d’activer l’inférence pour un nombre raisonnable d’utilisateurs internes. Un modèle d’IA de grande envergure comme GPT-120B, le plus récent et le plus vaste modèle open source d’OpenAI, peut être téléchargé et déployé localement sur quatre machines équipées chacune d’un GPU standard. La précision des réponses est la même que celle obtenue dans un grand centre de données et la vitesse d’inférence est tout à fait acceptable (55 jetons / seconde). Le fait que le modèle soit open source permet par ailleurs de suivre si nécessaire les chemins de raisonnement du modèle, voire de remonter aux données qui seraient impliquées dans une réponse jugée problématique.

Le logiciel tourne hors ligne, hors connexion, sur le réseau local.

___________________

_

Le logiciel en question issu de l’EPFL est baptisé Anyway Systems. Il se présente sous la forme d’un binaire compatible avec de nombreux types de GPU (CUDA/NVIDIA, VULKAN/AMD, Metal/Apple Silicon). Aucune librairie spécifique n’est requise pour que le logiciel fonctionne. Une seule ligne de commande sur chacune des machines suffit pour déployer en quelques minutes le modèle souhaité de manière distribuée en combinant les puissances de calcul de ces machines. Les machines doivent être sur le même réseau local. Toutefois, le système fonctionne hors ligne. Une connexion internet n’est pas requise pour faire tourner un modèle : seulement pour télécharger le modèle lors de son installation. Aucun octet ne sort ensuite du réseau local.
_

De nombreux entreprises et administrations disposent déjà des machines suffisantes. Souvent ces machines ne sont pas complétement utilisées. Nous avons démontré que des techniques d’auto-stabilisation robustes, classiques dans le monde de l’algorithmique répartie, permettent d’optimiser dynamiquement l’utilisation du matériel local en distribuant les différentes couches d’un modèle sur les machines en fonction de leur disponibilité. La tolérance aux défaillances est intrinsèque car une machine qui tombe en panne est perçue comme une machine qui quitte le réseau : le modèle est redéployé ensuite sur un plus petit nombre de machines. Cela peut conduire à une dégradation temporaire du temps de réponse, mais n’entache pas la précision de ces réponses.
__

En plus d’assurer la souveraineté de chaque organisme, l’utilisation de machines locales permettrait de mettre un terme à l’expansion rapide d’immenses centres de données qui consomment des quantités considérables d’énergie et d’eau. On estime en effet que l’inférence représente 80 à 90 % de la puissance de calcul liée à l’IA.  Ces immenses centres de données dédiés à l’IA, creusent également le fossé technologique mondial, la grande majorité étant située aux États-Unis et en Chine. Faute de centres de données dédiés à l’IA, de nombreux pays à faible revenu n’ont tout simplement pas accès à la puissance de calcul, ce qui les prive d’innovation, d’investissements et de la possibilité de retenir leurs chercheurs et leurs start-ups. Démocratiser l’accès à l’IA est plus que crucial. Il est désormais tout à fait possible pour un état de créer des « petits » centres de données avec quelques machines munis de GPUs standards et d’y faire héberger des modèles open source pour ses administrations et entreprises critiques.

L’utilisation de machines locales permettrait de mettre un terme à l’expansion rapide d’immenses centres de données qui consomment des quantités considérables d’énergie et d’eau.

___________________

L’ordinateur qui a battu aux échecs Kasparov mesurait près de 2m. L’ordinateur qui a permis d’envoyer le premier homme sur la lune lors de la mission Apollo était trois fois plus grand. Aujourd’hui, un smartphone standard peut battre aux échecs les 100 plus grands champions d’échecs au même moment et exécuter des milliers de mission Apollo. L’histoire du numérique nous démontre que la miniaturisation du matériel combinée à des algorithmes frugaux conduit inévitablement à sa démocratisation.

J’invite la communauté à tester le logiciel  https://www.anyway.dev et à proposer des améliorations.

Rachid Guerraoui, Professeur à la Faculté informatique et communications de l’École polytechnique fédérale de Lausanne (EPFL) et Professeur affilié à l’Université Mohammed VI Polytechnique au Maroc.

 

L’article Chacun son IA et les données seront bien gardées est apparu en premier sur Blog binaire.



Publié le 23.01.2026 à 07:00

Qui veut encore faire un doctorat en informatique aux USA ?

Les États-Unis sont confrontés à un manque de spécialistes en informatique de niveau doctorat. Un rapport de l’Académie des sciences états-uniennes analyse le problème et propose des solutions. Comme la question se pose aussi en Europe et que l’APEC vient de publier des résultats intéressants pour l’emploi des cadres-docteurs, Charles Cuvelliez et Jean-Jacques Quisquater discutent ce rapport pour Binaire (Serge Abiteboul et Thierry Vieville et Ikram Chraibi Kaadoud).

______
Aux USA, la demande de titulaires de doctorats en informatique explose, et pas seulement au sein des grandes entreprises technologiques. Des secteurs aussi variés que l’agriculture, la santé et la finance recrutent des docteurs parce qu’ils ont besoin de spécialistes plus compétents que les niveaux de licence ou de master, plus spécialisés parfois. Les docteurs en informatique, attirés par des salaires élevés et la promesse de travailler sur des technologies de pointe, se tournent de plus en plus vers l’industrie. Dans le même temps, les universités, en particulier celles axées sur l’enseignement et les institutions spécialisées sur la délivrance de diplômes de premier cycle, peinent à recruter suffisamment d’enseignants-docteurs, ce qui menace la filière qui forme précisément les talents dont l’industrie a besoin. L’Académie américaine des Sciences y a consacré un rapport qui vient d’être publié et annoncé avec des propositions de solutions.
______

Les étudiants internationaux obtiennent la majorité des doctorats en informatique aux États-Unis

___________________

Elle constate que la composition de la filière des doctorats en informatique a radicalement changé. Les étudiants internationaux obtiennent désormais la majorité des doctorats en informatique aux États-Unis, passant d’un peu moins de la moitié (48.5 %) il y a une décennie (2012) à environ trois cinquièmes (60.9 %) en 2022 et, pour ne rien arranger, la plupart viennent de Chine et d’Inde. Le nombre de ces doctorats décernés à des étudiants nationaux a augmenté de 15,8% entre 2012 et 2022 (de 785 à 909), mais la part globale des étudiants nationaux dans les programmes doctoraux a diminué. Ceci rend les États-Unis de plus en plus dépendants des talents venus de l’étranger._____

Cette dépendance est risquée. Les politiques migratoires des US, les opportunités économiques dans les pays d’origine des étudiants et la concurrence mondiale accrue pour les chercheurs peuvent à tout moment tarir cette source. Elle n’est pas appropriée non plus, lit-on, pour des postes de sécurité nationale qui exigent la citoyenneté américaine. Autrement dit, le pays construit son futur vivier de spécialistes en informatique sur des fondations légères, très légères.

Le paradoxe, c’est que sur le papier, il ne devrait pas y avoir de pénurie de candidats potentiels au doctorat. Les universités américaines délivrent un nombre record de diplômes de premier cycle en informatique, et les écoles doctorales les plus sélectives refusent la grande majorité des postulants. Pourtant, relativement peu d’étudiants nationaux choisissent de poursuivre une thèse : ils sont dissuadés par des années de rémunération plus faible, la longueur de la formation et l’incertitude qui entoure les carrières académiques à l’heure où les postes d’enseignants se font chroniquement rares. C’est la double peine : peu de postulants et des écoles doctorales très sélectives pour les plus courageux.

Y remédier demandera plus que de simples ajustements à la marge et c’est bien l’objet du rapport de l’Académie américaine des Sciences.

Être Exposé à la recherche.

Les choix des étudiants de licence de poursuivre ou non en doctorat d’informatique dépendent d’une combinaison de facteurs qui dépassent largement la question de l’argent. Ils se heurtent souvent à un manque de visibilité sur la recherche, à des attentes floues pour constituer un bon dossier et à une procédure d’admission perçue comme opaque, en particulier dans les établissements de premier cycle, les universités régionales et les community colleges, où les carrières de recherche sont peu connues. La recherche est rarement intégrée au cœur des cursus, peu mise en avant dans l’orientation, et même dans les universités de recherche, beaucoup d’étudiants ignorent à la fois ce que font les doctorants et enseignants-chercheurs, et le fait que la plupart des doctorants en informatique sont financés par des bourses ou des contrats de recherche.
______

Les rares données disponibles montrent que les étudiants passés par un projet de recherche en licence sont environ deux fois plus susceptibles de candidater à un doctorat en informatique, et ont de meilleures chances d’être admis, mais ces opportunités ne concernent qu’une petite minorité, d’autant plus restreinte que les effectifs en études informatique explosent. Des programmes nationaux rémunérés offrent des expériences de recherche, souvent dans une autre université, mais le nombre de places ne suit pas la croissance des inscrits, et les aides couvrent mal les frais de logement ou de déplacement. Les indemnités y restent inférieures aux salaires de base du secteur des services et très en deçà de celles des stages en entreprise. Ceux-là, on les met de plus en plus souvent dans les cursus et ils ne sont généralement pas centrés sur la recherche.
______

Les choix des étudiants de licence de poursuivre un doctorat d’informatique dépendent d’une combinaison de facteurs, pas juste de l’argent.

___________________

 

Face à ce constat, Il n’y a qu’une chose à faire, dit l’Académie : ceux qui financent les programmes de recherche, les départements d’informatique, les sociétés savantes et les entreprises doivent élargir l’exposition des étudiants à la recherche et aux carrières scientifiques: davantage d’informations concrètes sur la recherche en informatique, les compétences requises, les dispositifs de financement du doctorat et donc des offres de projets dès la licence. Les universités de recherche et les établissements d’enseignement axés sur le premier cycle doivent aussi nouer des partenariats pour ouvrir leurs laboratoires aux étudiants, tandis que les acteurs industriels doivent offrir des stages véritablement orientés recherche ou cofinancer des programmes de recherche de premier cycle au sein des campus.
______

Admission holistique et transparence

Les procédures d’admission en doctorat d’informatique restent souvent un labyrinthe pour les candidats. Les attentes sont floues, les données sur le caractère sélectif de telle ou telle filière sont difficiles à trouver, et le processus paraît particulièrement opaque pour ceux qui n’ont ni mentor ni conseiller académique. La situation est encore plus complexe dans les départements où chaque directeur de thèse choisit «ses» doctorants, rendant l’évaluation de ses chances d’admission presque impossible.

______

Les acteurs industriels doivent offrir des stages orientés recherche ou cofinancer des programmes de recherche de premier cycle au sein des campus

___________________

D’un programme à l’autre, les critères varient fortement. La valorisation systématique de l’expérience de recherche pénalise les étudiants issus d’établissements de premier cycle, ceux dont très peu de diplômés partent en doctorat. Les grandes écoles doctorales, submergées de dossiers solides, n’ont pas la capacité d’admettre tous les meilleurs profils nationaux, en partie à cause de la concurrence d’excellents candidats internationaux. Les étudiants américains recalés se tournent plus volontiers vers l’industrie que vers des programmes jugés «moins prestigieux», et renoncent souvent à retenter leur chance, laissant la majorité des candidatures dans les autres universités aux étudiants étrangers.
______

Face à ce système, les auteurs appellent à une approche plus globale de la sélection. Les départements d’informatique sont encouragés à mieux accompagner les candidats, notamment les profils nationaux, avec peu de recherche à leur actif, ceux issus d’autres disciplines ou ceux qui n’ont pas encore défini de sujet précis. Les programmes sont invités à publier des informations claires: volume de candidatures, taux d’admission, exemple d’un dossier solide, conditions concrètes d’étude, financement, possibilités de report d’inscription.
______

Les décisions d’admission devraient combiner la sélection par les enseignants-chercheurs, en fonction de leurs thématiques, et l’examen de dossiers prometteurs de candidats aux parcours moins classiques ou encore indécis sur leur spécialisation. Tous les candidats devraient recevoir une réponse, et les profils jugés prometteurs mais non retenus – en particulier nationaux – devraient, quand c’est possible, recevoir un retour constructif et (pour) être encouragés à candidater de nouveau. Enfin, insistent les auteurs, les départements sont invités à créer des programmes «de transition», par exemple sous forme de master passerelle, offrant un temps supplémentaire pour combler les prérequis, un mentorat rapproché et un soutien financier via des postes d’enseignant ou d’assistant, afin d’ouvrir la voie du doctorat à des talents qui échappent aujourd’hui au système.

Les décisions d’admission devraient combiner la sélection par les enseignants-chercheurs, en fonction de leurs thématiques, et l’examen de dossiers prometteurs.
___________________

Pas assez valorisé

En informatique, à la différence d’autres disciplines STEM (sciences, technologie, engineering et mathématiques), le doctorat n’est pas indispensable pour faire carrière: des postes bien rémunérés et des trajectoires attractives s’ouvrent dès le niveau licence. Les programmes de doctorat offrent des financements via des bourses et des contrats d’enseignant ou de chercheur, mais les montants restent loin des salaires d’entrée dans l’industrie et, dans beaucoup d’universités, ne suffisent même pas à assurer un niveau de vie correct, même pour un étudiant seul.

Les auteurs appellent donc les établissements et organismes qui financent ces bourses à relever significativement leurs niveaux, afin de rendre les études doctorales plus compétitives face au marché du travail et plus attractives pour les étudiants nationaux. Ils recommandent d’augmenter les minima de financement en informatique, de les indexer sur l’inflation et de créer des dispositifs complémentaires couvrant logement, assurance santé des ayants droit, congé parental et garde d’enfants, pour sécuriser financièrement le parcours doctoral.
______
Retenir les candidats docteurs
______
Une stratégie clé pour augmenter le nombre de doctorats en informatique consiste à faire grimper les taux de soutenance. Obtenir un doctorat reste un parcours long et exigeant, avec une durée médiane d’environ sept ans entre l’entrée en master et la fin de la thèse.
______

Les départements d’informatique, appuyés par les sociétés savantes, sont appelés à renforcer l’encadrement et le mentorat, en particulier pour les doctorants nationaux, afin de limiter les abandons. Des organismes professionnels sont encouragés à diffuser des guides de bonnes pratiques en matière de mentorat et de suivi des étudiants.

Formons tous les enseignants-chercheurs au rôle de directeur de thèse.

______
Les départements devraient aussi former systématiquement tous les enseignants-chercheurs au rôle de directeur de thèse, avec un accompagnement structuré des jeunes maîtres de conférences pendant leurs trois premières années, centré sur leurs fonctions de chercheurs, d’enseignants et de mentors. Pour les doctorants qui arrivent sans directeur identifié, un référent de département devrait être nommé dès le début du parcours.

Une fois le doctorat en poche, les débouchés sont nombreux, surtout dans les sous-domaines en forte demande, et ne se limitent plus à l’université. Ce n’est pas une raison pour couper le lien avec les universités. Au contraire car la pratique consistant pour des universitaires à occuper des postes en entreprise tout en conservant un pied en académie est une solution et elle gagne du terrain, heureusement. Elle se diffuse largement dans l’écosystème de l’informatique.
______

Lien avec l’industrie

Les auteurs plaident enfin pour que les entreprises et les laboratoires publics financent des doctorats en informatique pour leurs salariés, en échange d’un engagement à revenir travailler chez eux une fois la thèse terminée. L’idée part d’un constat simple: une grande partie des diplômés en informatique part directement dans le privé, tandis que les besoins en profils doctoraux, notamment en IA et en sécurité nationale, restent difficiles à couvrir.

En contrepoint, industries, agences fédérales et programmes de recherche sont encouragés à investir dans leurs propres talents, via de nouvelles bourses et contrats doctoraux assortis d’obligations de service, par exemple sous forme d’années d’enseignement en faculté. L’objectif est double: alimenter en docteurs à la fois les entreprises, les administrations et le monde académique, en particulier dans les domaines les plus stratégiques.

Les départements d’informatique sont aussi invités à revoir leur définition du mérite dans le recrutement et la promotion des enseignants-chercheurs. Il s’agirait de ne plus se limiter aux indicateurs classiques (nombre de publications, prestige du doctorat), mais de valoriser davantage la qualité du mentorat, la préparation des étudiants à leurs carrières futures. C’est l’apport sociétal global qui est alors valorisé.

Cerner le problème est difficile

Les données sur l’embauche dans le secteur privé restent partielles: elles ne sont ni ventilées par domaine, ni complétées par des chiffres sur le recrutement de faculté dans les établissements qui ne délivrent pas de doctorat. Les offres d’emploi ne distinguent pas clairement les postes exigeant un doctorat en informatique. C’est simple de mesurer l’offre — le nombre de doctorats délivrés chaque année — mais beaucoup plus difficile d’évaluer la demande réelle pour ces profils.

Pour y voir plus clair, des experts appellent à suivre de près: le nombre de candidats aux doctorats en informatique, le nombre d’admis chaque année, la durée moyenne des études et les taux de réussite comme d’abandon.

En France, 18 % des offres destinées aux docteurs étaient en CDD (contre 6 % au total), synonyme de risque de précarité.

___________________

Reconnaissons-le, les pistes évoquées par l’académie US des Sciences vont au-delà du refrain trop connu du salaire…. Mais reconnaissons aussi que le constat qu’ils font concernant les États-Unis reste vrai de ce côté de l’Atlantique, et que les politiques publiques pourraient s’en inspirer. En France, cela s’accompagne d’un système qui privilégie les écoles d’ingénieurs, qui poussent encore peu vers le doctorat (même si cela évolue positivement).

______
L’APEC, l’Association pour l’Emploi des Cadres, vient de donner un message en double teinte à destination des docteurs (ou futurs docteurs) : la dégradation du marché du travail affecte moins les docteurs. Le recul des offres d’emploi pour docteurs a reculé de 12 % contre 17 % globalement. Ce sont les spécialités hautement techniques qui l’emportent. 38 % des offres sont en région parisienne. Des régions comme l’Auvergne-Rhône-Alpes s’en sortent car elles disposent de pôles industriels (15 % des offres) et/ou l’Occitanie et la Provence grâce à l’aéronautique. Plus gênant : côté France, d’après l’APEC, 18 % des offres destinées aux docteurs étaient en CDD (contre 6 % au total). Et cerise sur le gâteau, le dispositif Crédit Impôt Recherche (CIR) avait été arrêté en France ? Les entreprises françaises n’ont plus d’encouragements fiscaux pour recruter les jeunes docteurs pour leur premier CDI. Or, c’était très utilisé en France pour développer/consolider les pôles de R&D en entreprises, même chez les grands groupes.

Qu’en pensera un futur doctorant ? Si la carrière académique paie mal et si le privé n’est pas une porte de sortie, à quoi bon ?

______

Charles Cuvelliez, Jean-Jacques Quisquater

Pour en savoir plus :

 

L’article Qui veut encore faire un doctorat en informatique aux USA ? est apparu en premier sur Blog binaire.



Publié le 16.01.2026 à 06:54

IA génératives : le contre et le pour

Les IA génératives ont animé les causeries en famille ou entre amis, autour de bons verres, pendant les fêtes de fin d’année. Vont-elles nous rendre encore plus débiles que nous ne le sommes déjà ? Détruisent-elles nos emplois ? Et nouvelles facettes des débats sur l’environnement, pourrissent-elles la planète ? Cette dernière question est le sujet principal de notre article car cette technologie est véritablement énergivore. Ikram Chraibi Kaadoud et Chloé Mercier.

Sans vouloir être exhaustif sur tous leurs méfaits, la commission pour l’IA a identifié, dans un rapport de 2024, l’ensemble des risques présentés dans le graphique ci-dessous.

cartographie des risques des IA Génératives

Des incidents ont confirmé la survenance de certains de ces risques, comme la production de rapports par un cabinet de conseil contenant de fausses citations d’articles fictifs, ou encore la tragique mort d’un adolescent, dont les parents attribuent la responsabilité à un agent conversationnel. D’autres impacts additionnels ont émergé depuis, comme ceux sur les impacts cognitifs qui commencent à être documentés, par exemple dans ces travaux de recherche du MIT: https://arxiv.org/pdf/2506.08872v1. Et il y a enfin tous les impacts, déjà largement documentés et pourtant largement invisibilisés, communs à l’utilisation de tout terminal numérique. On peut notamment citer, sur le plan sanitaire, l’extraction de minerais comme le coltan en République démocratique du Congo, nécessaire à la fabrication des équipements et à l’origine de nombreux conflits armés. Le numérique pose déjà des questions environnementales ; les IA génératives sont, hélas, un accélérateur de ces impacts.

Des impacts environnementaux directs…

L’ensemble de la matérialité du numérique (terminaux, infrastructures, réseaux, centres de données) est source d’impacts environnementaux tout au long du cycle de vie des équipements, depuis l’extraction des matières premières jusqu’à leur fin de vie. C’est ce qu’on appelle les impacts environnementaux « directs » du numérique, déjà considérés comme non soutenables  avant même l’émergence des IA génératives. L’émergence de ces nouveaux besoins nous éloignent d’autant plus des numériques futurs compatibles avec notre monde fini. En effet, la consommation excessive de matériel et d’énergie nécessaire au fonctionnement des IA génératives accroît significativement les impacts directs du numérique et accentue les dynamiques de croissance des impacts dans les travaux prospectifs, éloignant le numérique d’une trajectoire de soutenabilité.

… mais aussi indirects

Mais au-delà des impacts directs, le numérique agit également comme un catalyseur : il a la capacité d’optimiser et d’améliorer les performances de tous les systèmes auxquels il s’applique. Et quand on l’utilise pour accélérer la consommation de ressources non renouvelables ou pour accroître la productivité d’industries consommant des énergies fossiles, le numérique contribue à ce qu’on appelle la grande accélération, c’est-à-dire l’augmentation rapide des pressions exercées par l’activité humaine sur l’ensemble du système Terre. De par les gains de productivité rendus possibles par l’utilisation des IA génératives, celles-ci risquent donc d’augmenter significativement cette empreinte environnementale « indirecte » du numérique, et c’est probablement le risque environnemental le plus important : qu’au lieu d’être mises au service des enjeux environnementaux, les IA génératives soient majoritairement mises au service des usages délétères du numérique.

Leurs vertus

Avant d’agir trop violemment contre les IA génératives, il est bon de rappeler qu’elles n’ont pas que des effets négatifs. Les journalistes et les politiciens, en particulier en France, soulignent régulièrement (à juste titre) des problèmes posés par la technologie, notamment les intelligences artificielles génératives. Pourtant, si le grand public, les entreprises, les services de l’État, les associations, les élèves… adoptent si rapidement les IA génératives, ce n’est pas seulement par masochisme, pour devenir débiles, pour pourrir le débat public, pour détruire la planète… C’est sans doute aussi parce qu’ils y trouvent quelque chose. Sans chercher une quelconque exhaustivité, on peut citer :

  • Des gains de productivité : une part du travail humain peut être remplacée par l’IA. Si on mesure encore mal quelle part, on s’attend à ce que ce soit de plus en plus dû aux progrès des IA génératives. La productivité n’est pas en soi une bénédiction, mais elle permet notamment d’envisager de mieux vivre et de travailler moins…
  • Remplacer les humains : Bien sûr, si les IA peuvent  améliorer la productivité des humains, en évitant les tâches fastidieuses, elles peuvent aussi les remplacer. C’est positif quand il s’agit de remplacer des humains dans des travaux inhumains, comme le nettoyage de lieux radioactifs, ou de donner un coup de main quand la main-d’œuvre manque, comme dans la médecine ou l’enseignement, en particulier dans certaines régions du monde. Cela soulève évidemment des questions sociétales fondamentales, notamment la redistribution de la valeur produite : cette question qui date du début de l’automatisation n’a malheureusement jamais été traité.
  • Les progrès scientifiques : la recherche s’appuie de plus en plus sur les IA génératives, ou pas. Cela est vrai dans de plus en plus de domaines, notamment, la médecine, la physique, la chimie… jusqu’au sciences humaines et sociales.
  • Art : Pour la littérature, les arts plastiques et la musique, les IA génératives peuvent apporter une aide considérable aux créateurs. Bien sûr, le risque est qu’on se contente de la laisser créer plutôt que de l’utiliser comme outil. Que devient l’art quand l’artiste est artificiel ?
  • Apporter le langage : on s’est parfois trouvé dans l’incapacité d’échanger avec quelqu’un en raison de l’absence de langue commune. Cela n’a plus lieu d’être. Plus dramatique, on peut considérer la difficulté des demandeurs d’asile qui ne maîtrisent pas notre langue pour expliquer leur parcours ou simplement rédiger un CV. Enfin, plus généralement, il faut rappeler que de nombreuses personnes n’arrivent pas à exprimer leurs idées, leurs sentiments, leur colère … parce qu’elles ne maîtrisent pas suffisamment la langue. Les IA génératives leur redonnent la parole. L’utilisation de ces outils pour quelqu’un d’instruit est de l’économie d’effort, voire de la paresse. Pour ceux qui n’ont pas eu la grande chance de longues études, c’est une libération.

Tout cela n’annule certainement pas les problèmes que causent les IA génératives. Mais cela exige d’être prudent quant aux solutions proposées pour limiter leurs usages, voire les interdire.

Les appels à arrêter 

En réaction à l’adoption rapide et à marche forcée poussée par des intérêts économiques de quelques acteurs et dopée par l’adoption enthousiaste des utilisateurs, différents collectifs proposent de résister à ce déploiement technologique, par exemple :

Ne nous faisons pas trop d’illusions : le train est lancé et, du fait de la compétition internationale, il ne semble pas qu’on puisse l’arrêter. Mais on pourrait au moins le ralentir et en focaliser les usages sur les usages positifs. Mais, ce n’est pas simple. On ne peut pas, par exemple, mettre un policier à côté de chaque lycéen pour l’autoriser à utiliser des IA pour mieux faire ses devoirs et lui interdire le gaspillage débile. (Peut-être pourrait-on mettre une IA-policier.) Mais est-ce le monde dans lequel nous voulons vivre !?!

Alors, quoi faire pour limiter les effets délétères des IA génératives sur l’environnement, ou, plus généralement, sur le numérique ? Qu’une grande partie des ressources du secteur numérique (actuellement non soutenable, rappelons le) soit consacrée à la pub ou au marketing ne semble pas, par exemple, raisonnable. La loi et la régulation pourraient y remédier, et il est urgent d’avancer dans cette direction. Une planification environnementale du numérique apparait comme indispensable, et l’introduction en décembre 2025 du numérique dans le Projet de Stratégie National Bas-Carbone N°3, prônant la sobriété du secteur, est un pas en avant.

Les entreprises, et notamment celles du numérique, doivent aussi prendre leur part de responsabilité en évitant le gaspillage d’énergie et d’équipements pour des gadgets numériques sans véritable utilité sociétale.

Les modèles économiques, les stratégies de captation, les biais et les questions de souveraineté derrière les plateformes proposant des services d’IA Générative doivent être également mis sur la table : toutes les solutions ne se valent pas sur ces plans.

Enfin, poser le pied sur le frein passe inévitablement par une nécessaire prise de conscience des utilisateurs. Utiliser une IA générative pour trouver la capitale de l’Argentine ou l’actrice principale de « Quand Harry rencontre Sally », est-ce bien raisonnable ? Interroger des sources d’information directes comme wikipedia génère beaucoup moins d’impacts, chacun dispose d’une énorme responsabilité dans son utilisation des technologies.

Pour que chacun puisse faire des choix éclairés, la formation au numérique et à ses impacts directs et indirects, est plus que jamais indispensable.

Benjamin Ninassi, Inria, Serge Abiteboul, Inria et ENS Paris, Thierry Viéville, Inria, et Frédéric Alexandre, Inria.

L’article IA génératives : le contre et le pour est apparu en premier sur Blog binaire.



Publié le 10.01.2026 à 06:48

IA, création audio générée en temps réel concert

©CC-BY

Cause commune est « la voix des possibles » une radio généraliste libre et indépendante sur les ondes en Ile de France et sur Internet partout dans le monde.
Elle donne la parole à qui veut aider le monde à aller mieux et aide à décloisonner la culture et les savoirs.
Ses contenus sont partagés comme des biens communs, pour toutes et tous.

 

Quand on se questionne sur l’IA, on pense toute de suite à ce qu’elle crée, presque comme voir mieux que des humains. Ici, Ninon Devis Salvy de l’IRCAM, remet l’IA à la place d’outil, complètement disruptif, et en fait … un instrument de musique. Animée par Serge Abiteboul, on aborde dans cette émission radiophonique des questions qui le passionnent autour de la création, de la créativité, de l’évolution du rôle de l’artiste au contact des productions générées par l’IA.  Chloé Mercier et Thierry Viéville.

– Le parcours multidisciplinaire de Ninon Devis Salvy
– La création d’un nouvel instrument de musique : le Neurorack
– La créativité : définition et complexité
– L’IA au service de la créativité humaine vs. l’IA créatrice autonome
– Les risques d’homogénéisation créative
– La divergence active et l’appropriation créative des outils IA
– Les défis éthiques, techniques et philosophiques

L’article IA, création audio générée en temps réel concert est apparu en premier sur Blog binaire.



Publié le 01.01.2026 à 06:05

Bonne année non binaire !

Généré avec ChatGPT par Serge Abiteboul

L’article Bonne année non binaire ! est apparu en premier sur Blog binaire.



 

 Persos A à L
Carmine
Mona CHOLLET
Anna COLIN-LEBEDEV
Julien DEVAUREIX
Cory DOCTOROW
Lionel DRICOT (PLOUM)
EDUC.POP.FR
Marc ENDEWELD
Michel GOYA
Hubert GUILLAUD
Gérard FILOCHE
Alain GRANDJEAN
Hacking-Social
Samuel HAYAT
Dana HILLIOT
François HOUSTE
Tagrawla INEQQIQI
Infiltrés (les)
Clément JEANNEAU
Paul JORION
Michel LEPESANT
 
 Persos M à Z
Henri MALER
Christophe MASUTTI
Jean-Luc MÉLENCHON
MONDE DIPLO (Blogs persos)
Richard MONVOISIN
Corinne MOREL-DARLEUX
Timothée PARRIQUE
Thomas PIKETTY
VisionsCarto
Yannis YOULOUNTAS
Michaël ZEMMOUR
LePartisan.info
 
  Numérique
Blog Binaire
Christophe DESCHAMPS
Louis DERRAC
Olivier ERTZSCHEID
Olivier EZRATY
Framablog
Romain LECLAIRE
Tristan NITOT
Francis PISANI
Irénée RÉGNAULD
Nicolas VIVANT
 
  Collectifs
Arguments
Blogs Mediapart
Bondy Blog
Dérivation
Économistes Atterrés
Dissidences
Mr Mondialisation
Palim Psao
Paris-Luttes.info
ROJAVA Info
 
  Créatifs / Art / Fiction
Nicole ESTEROLLE
Julien HERVIEUX
Alessandro PIGNOCCHI
Laura VAZQUEZ
XKCD
🌞