14.11.2025 à 07:18
Thierry VIEVILLE
La Société Informatique de France (SIF) partage sur binaire un cycle d’interviews sur l’impact de l’intelligence artificielle (IA) sur les métiers. Ici Stéphanie Le Cam, Enseignante-Chercheuse et Directrice de la Ligue des Auteurs Professionnels aborde l’enjeu du métier d’autrice ou auteur à l’heure de l’IA. Interview réalisée Erwan Le Merrer, président du conseil scientifique de […]
L’article De l’impact de l’IA sur les auteurs est apparu en premier sur Blog binaire.

Pouvez-vous nous dire rapidement qui vous êtes, et quel est votre métier ?
Je m’appelle Stéphanie Le Cam. Je suis maître de conférences en droit privé à l’Université Rennes 2, où je travaille plus particulièrement sur le droit d’auteur ainsi que sur le régime social des artistes-auteurs. Parallèlement à mon activité universitaire, j’occupe les fonctions de directrice générale de la Ligue des auteurs professionnels, une organisation qui rassemble aujourd’hui un peu plus de 2 800 autrices et auteurs du livre.
En quoi pensez-vous que l’IA a déjà transformé votre métier ?
En tant qu’enseignante-chercheuse, il est évident que l’intelligence artificielle va transformer en profondeur notre métier. Elle interroge d’abord nos pratiques pédagogiques, notamment les modalités d’évaluation. Demander à un étudiant de rédiger une copie n’a plus le même sens si l’on sait qu’il peut recourir à un modèle d’IAG pour la produire. Cela nous oblige à réfléchir à la finalité de l’enseignement, à la place de l’examen, mais aussi à la manière dont nous transmettons le savoir, longtemps pensée sur un mode très vertical.
Sur le plan de la recherche, l’impact est tout aussi direct. Mes travaux portent sur les transformations du travail de création et sur la précarité structurelle des métiers de la création. Or, l’arrivée de l’IA générative agit comme un véritable séisme dans ce champ : elle redéfinit les conditions de production et les équilibres juridiques et économiques. Elle met à mal de nombreux professionnels de la création et de l’information en les privant d’activités et de rémunérations et en les fragilisant encore plus.
Enfin, dans mes fonctions de directrice générale de la Ligue des auteurs professionnels, je mesure chaque jour à quel point les auteurs sont concernés, en particulier les illustrateurs et traducteurs. L’IA bouleverse déjà leur pratique et leur économie, et il est certain que dans les années à venir, cette question occupera une place centrale dans mon action syndicale.

A quels changements peut-on s’attendre dans le futur ? Par exemple, quelles tâches pourraient être amenées à s’automatiser? A quel horizon ?
D’abord, en tant qu’enseignante-chercheuse, l’IA s’impose comme un outil facilitateur. Dans le montage de projets de recherche, elle permettrait d’aller plus vite pour compiler des données ou préparer des dossiers, mais je ne suis pas convaincue par la réalité de cette accélération, puisqu’elle doit aussi nous obliger à plus de contrôle, plus de vigilance… Si tant est qu’elle existe, elle n’est sans doute pas une bonne chose : la recherche repose aussi sur des temps longs, nécessaires pour construire une véritable analyse et une intelligence collective et définir ensemble les orientations. Si, demain, l’évaluation des projets devait être confiée à des algorithmes, nous perdrions une part essentielle de la délibération académique, et ce ne serait pas vertueux.
Dans l’enseignement, je suis prudente : recourir à l’IA est très risqué, car elle peut fragiliser l’évaluation des étudiants. En revanche, le développement de l’oralité dans les examens pourrait être une piste intéressante. On reproche souvent à l’université de ne pas y consacrer assez de place ; l’IA pourrait paradoxalement nous inciter à la réhabiliter. Enfin, il est certain que des tâches de recherche comme la veille médiatique, juridique ou jurisprudentielle sont déjà de plus en plus automatisées via les bases de données en ligne qui sont mises à la disposition des chercheurs. Cela peut représenter un gain, à condition de rester très vigilant sur la fiabilité et l’intégrité des données produites.
Ensuite, du point de vue des métiers que je représente à la Ligue des auteurs professionnels, l’impact est encore plus brutal. Les illustrateurs, en particulier, se trouvent déjà confrontés à une forme de remplacement massif. La concurrence est rude et le seuil des prix via les outils d’IA est va baisser, ce qui menace directement leur activité. Si nous n’anticipons pas la mise en place d’une vraie protection, beaucoup de professionnels vont être évincés, ce qui est inacceptable.
Si vous devez embaucher de nouveaux employés, quelles connaissances en informatique, en IA, attendez-vous d’eux suivant leurs postes?
Je ne raisonne pas directement en termes « d’embauche », mais plutôt en termes de compétences attendues chez les étudiants que je forme ou chez les professionnels que je côtoie. À l’université, ce que j’attends avant tout, ce n’est pas une expertise technique pointue en informatique ou en intelligence artificielle, mais une capacité à adopter un regard critique et à comprendre les usages de ces outils : savoir quand ils peuvent être utiles, mais aussi percevoir leurs limites et leurs biais.
Dans le monde du livre et de la création, la logique est un peu différente. Les auteurs et autrices doivent savoir en appréhender les mécanismes pour défendre leurs droits et leurs métiers. A titre d’exemple, celui qui l’utilise sans réflexion dans un processus de création, met en péril sa qualité d’auteur et s’expose à des risques juridiques importants. Ce que j’attends donc, ce n’est pas tant une compétence technique qu’une conscience des enjeux : économiques, juridiques, éthiques.
Pouvez-vous préciser quelles formations, à quel niveau?
Dès le lycée, il est important que les élèves acquièrent une culture générale de l’intelligence artificielle : comprendre comment fonctionnent les grands modèles, quelles données ils utilisent, quels biais ils véhiculent et quelles questions éthiques ou juridiques ils posent. Cela ne nécessite pas de compétences techniques avancées, mais bien une initiation critique, indispensable pour tout citoyen aujourd’hui.
Au niveau universitaire, il s’agit d’accompagner les étudiants afin qu’ils ne perdent jamais leur autonomie de pensée ni leur capacité de rédaction et de réflexion.
Pour quelles personnes déjà en poste pensez-vous que des connaissances d’informatique et d’IA sont indispensables?
A mon sens, l’enjeu est civilisationnel et concerne toutes les professions.
Ciblez-vous plutôt des informaticiens à qui vous faites apprendre votre métier, ou des spécialistes de votre métier aussi compétents en informatique?
Je ne crois pas que la question doive se réduire à un choix entre « former des informaticiens à nos métiers » ou « rendre nos spécialistes compétents en informatique ». Bien sûr, les profils d’informaticiens sont précieux, mais à condition qu’ils aient été sensibilisés à d’autres champs : l’éthique, les sciences cognitives, la psychologie sociale ou encore la psychodynamique du travail. Autant de disciplines qui permettent de penser ce que l’IA fait à nos manières de raisonner, de produire du savoir et de transmettre.
Mais je crois surtout qu’il faut ouvrir le spectre au-delà des seuls informaticiens. Les enjeux environnementaux, par exemple, sont majeurs : l’IA a une empreinte énergétique considérable, et il est nécessaire de former aussi des experts capables de mesurer et de réguler cet impact.
Pour les personnes déjà en poste, quelles formations continues vous paraissent indispensables ?
Pour les personnes déjà en poste, je crois que les besoins en formation continue sont exactement les mêmes. Il ne s’agit pas uniquement d’apprendre à manier des outils techniques, mais surtout d’acquérir une culture critique de l’IA.
Un message à passer, ou une requête particulière aux concepteurs de modèles d’IA ?
Je commencerais par dire qu’il serait temps d’arrêter d’aspirer toutes les données sans aucune considération pour leur coût réel, ni pour la valeur du travail qui se cache derrière elles. Chaque donnée extraite pour entraîner un modèle d’IA correspond au travail d’enseignants-chercheurs, d’auteurs, d’illustrateurs, de traducteurs. Or, ces mêmes modèles viennent ensuite concurrencer directement leurs activités. Dans cette logique, il faut envisager d’abord une indemnisation des préjudices subis par l’ensemble des créateurs et des créatrices. Nous devons aussi partir du principe qu’il est encore beaucoup trop tôt de parler de contractualisation et de rémunération au sujets des usages futurs. Aucune rémunération gérée collectivement ne sera suffisante pour permettre aux professionnels de continuer à vivre dignement de leur activité. Il faut donc songer en parallèle à la mise en place d’un statut professionnel fort pour les créateurs et créatrices.
Ce n’est qu’à condition d’accorder la priorité à une création et une information durables que nous relèverons ce défi et continuer de développer dans un cadre équitable, respectueux des créateurs et bénéfique pour la société dans son ensemble.
Interview de Stéphanie Le Cam, Enseignante-Chercheuse et Directrice de la Ligue des Auteurs Professionnels, réalisée par Erwan Le Merrer.
L’article De l’impact de l’IA sur les auteurs est apparu en premier sur Blog binaire.
11.11.2025 à 14:12
Serge ABITEBOUL
Vers une convergence des ruptures technologiques ? Nous avons le plaisir de vous inviter à une matinée consacrée aux technologies quantiques et d’intelligences artificielles, deux transformations majeures dont la complémentarité ouvre des perspectives inédites. La session ouvrira avec un état de l’art scientifique porté par deux experts reconnus du domaine : • Jean Senellart (Docteur […]
L’article Quantum & Intelligence Artificielle est apparu en premier sur Blog binaire.
Nous avons le plaisir de vous inviter à une matinée consacrée aux technologies quantiques et d’intelligences artificielles, deux transformations majeures dont la complémentarité ouvre des perspectives inédites.
La session ouvrira avec un état de l’art scientifique porté par deux experts reconnus du domaine :
• Jean Senellart (Docteur en Informatique Linguistique de l’Université de Paris VII)
• Virginie Ehrlacher (CNRS, spécialiste de la simulation quantique et des modèles hybrides)
Une table ronde réunira des acteurs industriels engagés dans le développement des infrastructures et plateformes quantiques :
Ils partageront leurs visions sur l’ouverture, la mutualisation et les potentiels applicatifs à court terme.
Cet événement s’adresse aux décideurs et aux experts souhaitant anticiper les trajectoires croisées de l’IA et du quantique et discuter des enjeux stratégiques pour l’économie numérique.
Date : 8 décembre 2025
Lieu : BivwAk! (3 rue Rossini 75009 Paris) ou en ligne
Horaires : 9h00 – 12h00
Objectifs de l’événement
L’article Quantum & Intelligence Artificielle est apparu en premier sur Blog binaire.
07.11.2025 à 07:48
Thierry VIEVILLE
Que se passe t’il si un modèle d’intelligence artificielle (IA) générative s’entraine sur une proportion de plus en plus importante d’images auto-générées ? C’est à cette question que Quentin Bertrand, chargé de recherche et l’équipe-projet Malice du centre Inria de Lyon ont tenté de répondre. Pierre Paradinas et Thierry Viéville. L’International Conference on Learning Representations […]
L’article Vers un risque d’effondrement des IA génératives ? est apparu en premier sur Blog binaire.

L’International Conference on Learning Representations 2024 (ICLR 2024) est un événement rassemblant acteurs du monde économique et scientifiques du monde entier autour des avancées en Deep Learning. Lors de cette conférence, Quentin Bertrand, Joey Bose, Alexandre Duplessis, Marco Jiralerspong et Gauthier Gidel ont présenté un article intitulé « On the stability of iterative retraining of generative models on their own data ».
Dans celui-ci, les auteurs explorent ainsi les conditions dans lesquelles un modèle pourrait « s’effondrer » (collapse), un phénomène où, à force d’auto-alimentation, l’IA produit des résultats de plus en plus biaisés, homogènes, appauvris et inexact. Les résultats de cette étude pourraient bien apporter un nouvel éclairage sur un enjeu central des modèles génératifs. Explications.
Un modèle génératif d’images synthétiques ne crée pas d’illustrations à partir de rien. En effet, des modèles connus comme MidJourney, Stable Diffusion ou DALL·E, apprennent en étant alimentés par des jeux de données massifs (images, légendes, métadonnées, titre etc.). Ces données sont extraites de diverses sources sur le Web, souvent via des processus automatisés comme le web scraping, ou d’autres techniques d’acquisition de données. Une fois collectées, elles sont structurées et nettoyées pour l’entraînement de l’IA. Cette phase d’apprentissage permet à l’IA de comprendre ce qu’est un chat, un chien, un style artistique, une couleur ou une texture par exemple. Lorsqu’une requête est soumise, l’IA analyse les mots, les compare à sa base de données et génère une image en fonction des correspondances trouvées.
Et les résultats sont tellement impressionnants que les modèles génératifs remportent un succès grandissant auprès du grand public. Les images dites synthétiques envahissent aujourd’hui Internet. Et… comme un serpent qui se mordrait la queue, les IA commencent à s’entraîner sur une proportion toujours croissante d’images synthétiques. Détecter ce contenu dans les ensembles de données est devenu un problème complexe en soi. Les chercheurs et chercheuses développant de nouvelles générations de modèles génératifs doivent déjà faire face à la réalité suivante : leurs bases d’entraînement contiennent inévitablement du contenu artificiel, rendant ainsi leurs ensembles de données mixtes, c’est-à-dire combinant données réelles et autogénérées.
L’entraînement sur ces ensembles de données mixtes modifie-t-il les performances des modèles ?
Plusieurs articles ont tenté de traiter la question. Parmi eux, citons « AI models collapse when trained on recursively generated data » publié dans la revue Nature. Dans celui-ci, les chercheurs s’interrogent sur le phénomène. Leur conclusion est alarmante : si ce processus n’est pas maîtrisé, il pourrait conduire à un effondrement des modèles génératifs. En effet, à force de traiter des données synthétiques, les productions des IA génératives deviendront de plus en plus homogènes, biaisées et sujettes aux erreurs. En ce sens, les productions vont perdre en diversité ainsi qu’en richesse de contenu. Pour illustrer cela, imaginez un processus de photocopie infinie où chaque nouvelle copie perd un peu plus de la richesse de l’original.

L’article coécrit par Quentin Bertrand apporte une nuance essentielle aux conclusions de l’étude publiée dans Nature. En effet, les expérimentations menées sur les modèles génératifs les plus usités démontrent que l’entraînement peut rester stable, à condition que le modèle initial soit suffisasmment bien entraîné et qu’une part conséquente des données d’entraînement provienne de sources réelles plutôt que synthétiques. Le véritable enjeu n’est pas d’exclure chaque image synthétique mais plutôt de s’assurer d’un pourcentage suffisant d’images non synthétiques. Par contre, si le pourcentage d’images réelles devient trop faible, alors oui, l’IA risque effectivement de s’effondrer.
Par ailleurs, la curation humaine joue un rôle central dans la stabilité du modèle. La plupart des interfaces de modèles génératifs vous proposent parfois de choisir entre deux images générées. Ce processus de curation humaine agit comme une forme de « feedback indirect » pour la machine orientant l’évolution du modèle. En somme, à chaque fois que vous faites un choix, vous orientez manuellement l’IA et corrigez indirectement les erreurs potentielles. Pour être « performante » et contourner le problème d’une quantité toujours croissante d’images synthétiques, une IA générative doit à la fois contenir un pourcentage suffisant d’images réelles et disposer d’une méthode de curation humaine agissant comme feedback final.
Malheureusement non, le processus de curation peut également comporter des risques comme la réduction de la diversité culturelle et ethnique. En effet, si la majorité des utilisateurs préfèrent des images dans un certain style (ex : visages symétriques, peau lisse et blanche), alors l’IA produira plus souvent ce type d’images au détriment d’autres. Concernant les stéréotypes, lorsqu’on demande à une IA de représenter un métier qui ne comporte pas de distinction entre le féminin et le masculin, syntaxiquement parlant (par exemple en anglais : « Imagine a CEO » ou « Imagine a secretary »), l’IA aura tendance à représenter un homme en CEO et une femme en secrétaire.
Idem pour les IA génératives de textes. Si un modèle est réentraîné sur des réponses déjà optimisées pour être populaires, ne risquet-t-on pas d’exclure des styles d’écritures ou des tournures moins courantes ?
En conclusion, l’essor des modèles génératifs repose sur leur capacité à assimiler et reproduire des données issues du monde réel. Pourtant, face à la prolifération des contenus synthétiques, ces modèles doivent éviter l’écueil de l’auto-apprentissage excessif qui pourrait les mener à une homogénéisation appauvrissante, voire à un effondrement.
Loin d’un scénario catastrophe inéluctable, les recherches menées par Quentin Bertrand suggèrent que des solutions existent : maintenir une proportion suffisante de données réelles et intégrer la curation humaine comme garde-fou. Ces approches permettront d’assurer la diversité et la pertinence des contenus générés, tout en préservant la richesse informationnelle du web. Malgré tout, une question éthique demeure : comment s’assurer que la curation humaine respecte la diversité culturelle inhérente à l’espèce humaine ?
Un autre point qui peut être intéressant à mentionner est que nos travaux essaient de fournir une contribution scientifique entre ces deux « opinions répandues » : celle qui vend que les données synthétiques vont détruire les modèles génératifs et celle qui vend que des données synthétiques ¨bien choisies¨ comme solution magique/miracle au manque de données. La réalité est probablement entre les deux et nécessite encore une quantification scientifique précise.
Quentin Bertrand, chargé de recherche au centre Inria de Lyon et membre de l’équipe-projet Malice, écrit par Manuel Jasse, chargé de communication, Centre Inria de Lyon.
L’article Vers un risque d’effondrement des IA génératives ? est apparu en premier sur Blog binaire.
31.10.2025 à 07:57
Serge ABITEBOUL
Et si les intelligence artificielles (IA) servaient aussi à diriger nos entreprises ou leurs projets ? Après que beaucoup de métiers dits d’exécution ne soient plus indispensables, plus besoin de cadres non plus, alors ? Pas tout à fait. Ici, Anne-Cécile Lebrun Ingénieure et Docteure en sciences de gestion, nous propose une analyse de fond […]
L’article Cadres augmentés ou cadres remplacés ? Un enjeu de formation est apparu en premier sur Blog binaire.
L’intelligence artificielle générative (IAg) s’impose dans les entreprises françaises, bouleversant les pratiques des cadres. Si certains postes peuvent être automatisés, des premières analyses indiquent que les fonctions des cadres seraient « augmentées » plutôt que massivement remplacées, en permettant à ceux-ci de se concentrer davantage sur des tâches stratégiques. Cette évolution du métier de cadre nécessite des plans de formation, précédés d’une réflexion sur l’introduction de l’IAg dans l’entreprise.
L’IA n’est plus une tendance futuriste : 53% des grandes entreprises, 46% des PME et 41% des TPE indiquent encourager ou accepter son utilisation au sein de leurs équipes d’après l’APEC. Elle transforme donc déjà le quotidien des entreprises et impacte les métiers de leurs salariés.
Si l’on se focalise sur l’IA générative (IAg), sa particularité est qu’elle est capable de réaliser des tâches complexes et non répétitives associées à des emplois très qualifiés. L’IAg est donc susceptible d’affecter « certains métiers de la connaissance, de la stratégie et de la créativité », comme l’indique la Commission de l’Intelligence Artificielle dans son rapport « IA : notre ambition pour la France » publié en mars 2024.
En théorie donc, les emplois des cadres seraient impactés par l’IAg, ce qui suscite des inquiétudes : va-t-elle supprimer et remplacer des emplois de cadres, ou au contraire stimuler leur productivité et, par le jeu de mécanismes économiques, créer des nouveaux emplois ?

Bien qu’il soit encore à ce stade difficile de prédire les impacts de l’IA sur le marché du travail et sur les emplois car les technologies ne sont pas stables, comme le rappelle l’Organisation Internationale du Travail (OIT), plusieurs études nous permettent d’apporter des premiers éléments de réponse.
Un working paper de l’OIT adopte une approche consistant à décomposer les métiers en tâches, afin d’identifier celles qui peuvent être automatisées, et montre que les postes de managers sembleraient peu menacés de remplacement par l’IAg. Ces postes relèveraient des emplois augmentés : certaines tâches, notamment créatives, seraient refaçonnées ou déléguées à l’IAg, libérant du temps pour celles à forte valeur, difficilement automatisables. Par exemple, Pescher et Tellis (2025) montrent que pour maximiser les effets de l’IAg dans le processus d’idéation, les managers devront plus que jamais concentrer leurs efforts sur la construction d’une culture organisationnelle tournée vers l’innovation. Ils auront également pour rôle d’encadrer l’IAg : prise de recul sur les résultats générés, évaluation et sélection des idées créatives proposées, etc.
Dans son rapport « IA : notre ambition pour la France » publié en mars 2024, qui favorise aussi une décomposition par tâches, la Commission de l’Intelligence Artificielle conclut que l’IA tendrait à avoir un effet global positif sur l’emploi « car celle-ci remplace des tâches et non des emplois ».
Ces études se focalisent sur le métier de « manager », toutefois tous les cadres ne sont pas managers. Si l’on regarde les résultats de l’estimation des effets potentiels de l’IAg sur les professions réalisée par l’OIT en 2025, certaines professions de cadres seraient en revanche très impactées par l’IAg, comme les cadres comptables.
On peut donc avancer que, si l’IAg ne « remplacera » pas la plupart des cadres, elle sera néanmoins vectrice de déplacements des tâches effectuées par ceux-ci et de modifications de leur nature, au-delà d’être un outil à maîtriser pour améliorer ses performances.
Qu’en pensent les cadres eux-mêmes ? L’étude de l’APEC publiée en juin 2025 s’est justement intéressée au regard que ceux-ci portent sur l’IA. Elle révèle qu’en mars 2025, près de 4 cadres sur 10 considèrent l’IA comme une opportunité pour leur métier, soit 15 points de plus qu’en mai 2023.

En effet, plusieurs avantages de l’IAg sont perçus par les cadres qui utilisent celle-ci au travail au moins une fois par semaine : par exemple, 37% d’entre eux reconnaissent l’IA comme un levier de performance permettant de gagner en productivité et en efficacité, 28% comme un moyen d’améliorer la qualité de leur travail.
Cette étude souligne également qu’en mars 2025, 24% des cadres interrogés avaient suivi une formation sur l’IA, alors que 72% souhaitaient bénéficier d’une formation professionnelle, notamment une formation métier, preuve d’une forte demande.
En effet, il paraît difficile d’envisager des mutations plus ou moins importantes des métiers de cadres sans plans de formation appropriés. La formation professionnelle continue apparaît comme un atout stratégique pour anticiper, comprendre et maîtriser ces outils ; « l’investissement dans la formation professionnelle continue des actifs et les dispositifs de formation autour de l’IA » est d’ailleurs une préconisation de la Commission IA. Des incréments de salaire tendent à être observés pour les professionnels qui se forment en réponse à une exposition à l’IA.
Toutefois, nous l’avons dit : il est aujourd’hui encore difficile pour les entreprises de circonscrire avec précision lesdites mutations alors que les technologies de l’IAg ne sont pas stabilisées, et d’en déduire des plans de formation précis. Le risque pour l’entreprise est alors de se disperser et de gaspiller temps et ressources dans des projets d’introduction de l’IAg inadéquats, et en particulier dans des plans de formation de ses managers mal calibrés.
Lors d’un entretien accordé en mai 2025 à la revue MIT Sloan Management Review, l’économiste Daron Acemoğlu invite les dirigeants et cadres d’entreprise à une réflexion structurée et approfondie, en évitant de se lancer dans des projets d’IAg précipitamment, sous prétexte d’une mode, ou de chercher systématiquement à réduire leurs coûts grâce à cette technologie. Selon lui, pour être compétitive et devenir leader dans son domaine à l’ère de l’IAg, une entreprise doit d’abord se demander comment celle-ci peut lui permettre d’améliorer ses produits et services.
Il paraît indispensable d’impliquer les cadres dans cette réflexion stratégique préalable : revue des technologies existantes, veille, évaluations des usages utiles, etc. Cela permettra de mieux anticiper les impacts de cette technologie sur les différentes fonctions et postes au sein de l’organisation. Une première formation d’acculturation à l’IAg à destination des cadres semble ici nécessaire.
Une fois la feuille de route établie, un plan de formation global pour les salariés — et en particulier les cadres — pourra alors être élaboré de façon éclairée, intégrant des modules métiers avancés et ciblés qui répondront avec pertinence aux besoins de l’entreprise.
Anne-Cécile Lebrun, Ingénieure et co-gérante de LBKE
L’article Cadres augmentés ou cadres remplacés ? Un enjeu de formation est apparu en premier sur Blog binaire.
24.10.2025 à 07:45
Serge ABITEBOUL
Le blog binaire change d’adresse, mais pas d’esprit ! En rejoignant La Recherche, notre blog consacré à la culture informatique s’inscrit dans la lignée d’un magazine emblématique du journalisme scientifique francophone, La Recherche . Cette coopération est très naturelle : La Recherche s’est intéressée au numérique depuis longtemps. Nous revenons ici sur quelques articles publiés […]
L’article Coup d’œil dans le rétro de La Recherche est apparu en premier sur Blog binaire.
Des grands entretiens :
Xavier Leroy : En informatique, la notion de confiance est fondamentale, propos recueillis par Philippe Pajot, mensuel 548, juin 2019.
Georges Gonthier : La blockchain est une technologie de rupture, propos recueillis par Philippe Pajot, mensuel 545, mars 2019.
Anne Canteaut : La meilleure garantie de sécurité est l’épreuve du temps, propos recueillis par Philippe Pajot, mensuel 541, novembre 2018.
Et des petits entretiens :
Leslie Ann Goldberg : Mon but est de comprendre combien certains problèmes sont difficiles, propos recueillis par Évrard-Ouicem Eljaouhari et Charlotte Mauger, août 2022.
Romain Gay : L’obfuscation révolutionne les techniques de chiffrement, dans trimestriel 567, octobre-décembre 2021.
Joris van der Hoeven : La complexité de la multiplication, propos recueillis par Philippe Pajot, avril 2019.
Des sujets fondamentaux :
Pascal Michel, Tristan Stérin et Shawn Ligocki : La longue quête du castor affairé, trimestriel 582, juillet-septembre 2025.
Patrick Massot : Pourquoi raconter des maths à unordinateur, trimestriel 571, octobre-décembre 2022.
Théo Ryffel : La nouvelle technologie de protection des données, trimestriel 564, février-mars 2021.
Papiers d’analyses et actualités :
David Chavalarias: La bataille invisible du numérique, trimestriel 582, juillet-septembre 2025.
Pierre-Louis Curien : Un prix pour le rapprochement des mathématiques et de l’informatique, propos recueillis par Philippe Pajot, novembre 2020.
Chroniques :
Serge Abiteboul : Davantage de filles en cours d’informatique : chiche !, mensuel 558, avril 2020.
Gérard Berry : Musique et informatique un mariage d’amour, mensuel 556, février 2020.
Serge Abiteboul : Mais pourquoi les logiciels sont ils si gros , mensuel 544, février 2019.
Gérard Berry : Hommage à Maurice Nivat pionnier de l’informatique théorique, mensuel 530, décembre 2017.
Disponible sur abonnement
Donald Knuth : Programmer, ou l’art d’expliquer des choses à un ordinateur, propos recueillis par Philippe Pajot, trimestriel 583, octobre-décembre 2025.
Chloé Mercier, Serge Abiteboul et Thierry Viéville.
L’article Coup d’œil dans le rétro de La Recherche est apparu en premier sur Blog binaire.
17.10.2025 à 08:00
Pierre PARADINAS
Nous avons invité Ninon Devis Salvy, qui vient de soutenir sa thèse à l’IRCAM et à Sorbonne Université. Ninon propose un texte interrogeant les (r)apports de l’intelligence artificielle dans la démarche artistique. Chercheuse en informatique musicale et artiste, elle développe son travail à la croisée de la recherche académique et de l’innovation, explorant plus particulièrement […]
L’article Aux abords de l’abîme : l’art à l’ère de l’IA est apparu en premier sur Blog binaire.

L’intelligence artificielle ne se contente plus d’assister les artistes, elle génère des œuvres entières. Loin de n’être qu’une révolution technique, cette mutation nous confronte à une question vertigineuse : que reste-t-il de l’acte créateur humain lorsque l’algorithme devient auteur ?
Il y a plus de deux mille ans, dans le Phèdre de Platon, le roi Thamous accueille avec méfiance l’invention de l’écriture, présentée par le dieu Thoth comme un remède à l’oubli. Loin d’être une aide pour la mémoire, avertit le roi, cette technique en sera le simulacre, produisant une sagesse d’apparence au détriment de la véritable connaissance: celle qui naît du dialogue vivant. L’écriture, ce pharmakon – à la fois remède et poison -, allait externaliser la pensée, pour le meilleur et pour le pire.
Aujourd’hui, une nouvelle technologie, nous place devant le même dilemme. L’intelligence artificielle générative, capable de composer une symphonie, d’écrire un poème ou de peindre un tableau en quelques secondes, se présente comme l’ultime auxiliaire de la créativité. Mais ne risque-t-elle pas de vider l’acte créateur de sa substance, en automatisant ce qui relevait jusqu’ici de l’effort, du doute et de l’engagement existentiel ?
La question n’est plus de savoir si l’IA peut créer. Les œuvres sont là, souvent bluffantes de cohérence stylistique. La véritable interrogation, plus profonde, est de savoir ce que cette nouvelle puissance fait à notre propre créativité. Si l’IA devient un partenaire, voire un agent principal du processus artistique, comment cela reconfigure-t-il l’identité de l’artiste, le sens de l’œuvre et les fondements mêmes de l’originalité ?
Pour saisir l’ampleur du séisme, il faut d’abord cartographier ce que l’on cherche à défendre. La notion de créativité a elle-même une histoire. D’abord perçue comme une « folie divine » dans l’Antiquité, une inspiration transcendant l’humain, elle s’est progressivement intériorisée à la Renaissance pour devenir, avec le romantisme, l’attribut du « génie » : une force innée, singulière et inimitable. Or pour Kant, le génie est ce « don naturel qui donne ses règles à l’art », un talent qui ne s’apprend ni ne s’imite.
C’est précisément sur ce point que l’IA semble échouer. Margaret Boden propose une typologie éclairante, distinguant trois formes de créativité. La première, combinatoire, assemble des idées familières de manière nouvelle. La seconde, exploratoire, explore systématiquement les possibilités offertes par un style ou un ensemble de règles. Dans ces deux domaines, l’IA excelle. Nourrie de millions d’œuvres, elle est une virtuose de la recombinaison et de l’extrapolation stylistique.
Mais la troisième forme, la créativité transformationnelle, lui échappe. Il s’agit ici de briser les règles elles-mêmes, de changer le paradigme, de rendre possible ce qui était auparavant impensable. Ce type de rupture ne relève pas de la statistique, mais d’une décision radicale qui semble, pour l’heure, le propre de l’humain.

Image générée par StableDiffusion.
Cette capacité transformationnelle repose sur un triptyque que les algorithmes peinent à simuler. D’abord, l’intentionnalité : l’acte créateur est à propos de quelque chose. Il est dirigé par une vision, un désir d’exprimer une idée ou une émotion. Il ne s’agit pas seulement de produire un résultat, mais de l’orienter vers un sens. Ensuite, la résonance émotionnelle : l’art puise sa force dans l’expérience vécue: la joie, la souffrance, l’émerveillement. L’IA peut analyser et reproduire les codes du pathos, mais elle ne ressent rien. Elle manipule la syntaxe de l’émotion sans en connaître la sémantique. Enfin, l’ancrage culturel : une œuvre ne naît jamais dans le vide. Elle dialogue avec une histoire, des traditions, des luttes sociales. Le punk-rock n’est pas qu’une affaire d’accords de guitare saturés ; c’est une révolte contre des normes sociales et musicales. L’IA peut ingérer des corpus culturels, mais elle n’habite pas le monde qui leur donne leur portée.
Cette distinction philosophique faite, il faut observer comment l’IA s’immisce concrètement dans le processus créatif. Une analyse fine de celui-ci révèle des zones de frictions particulièrement sensibles. Si l’IA est un assistant formidable pour les tâches techniques (tri ou suggestion), son influence devient problématique lorsqu’elle touche au cœur de la création : la génération de l’idée elle-même. C’est dans cette « zone sensible » que le potentiel de l’IA et la subjectivité humaine s’affrontent.
Un phénomène plus préoccupant encore est celui du « chaînage » : la capacité des modèles récents à prendre en charge plusieurs étapes successives du processus de création, de la recherche d’inspiration à la production finale. L’artiste, hier artisan courbé sur sa matière, risque de devenir un simple curateur, un chef d’orchestre d’algorithmes. Son rôle se déplace de la création directe vers l’ingénierie de « prompts » et la sélection parmi une infinité de propositions générées par la machine.
Cette mutation redéfinit la nature même du talent. La maîtrise d’un instrument ou d’une technique cède la place à la dextérité avec laquelle on dialogue avec le système. En musique, par exemple, l’interface n’est plus le manche d’une guitare ou le clavier d’un synthétiseur, mais de plus en plus souvent le langage lui-même. « Crée-moi un morceau, à la fois mélancolique et hypnotique » La création devient un acte de spécification verbale, une abstraction qui met à distance l’engagement corporel, l’imprévu d’un geste, la résistance de la matière qui ont, de tout temps, nourri l’art.
Cette facilité apparente n’est pas sans danger. Le premier est l’érosion du savoir-faire. Le sociologue Richard Sennett a montré combien l’engagement patient et la confrontation avec les difficultés matérielles sont essentiels à la construction du sens et à la motivation. Un processus créatif sans friction, où chaque obstacle est aplani par l’algorithme, risque d’engendrer des œuvres polies mais sans âme, et de priver l’artiste de la joie profonde qui naît du dépassement d’une contrainte.
Le second péril est celui de l’homogénéisation culturelle. Theodor Adorno, dans sa critique de l’« industrie culturelle », alertait déjà sur la standardisation de l’art à des fins commerciales. L’IA pourrait porter cette tendance à son paroxysme. En apprenant à partir de gigantesques bases de données, les modèles identifient les schémas qui ont eu le plus de succès par le passé et les reproduisent. S’instaure alors une boucle de rétroaction : l’IA génère des œuvres qui ressemblent aux succès d’hier, les plateformes les promeuvent car elles correspondent aux attentes du public, et ces nouvelles œuvres viennent à leur tour nourrir les futures IA. Le résultat est un cul-de-sac esthétique, un monde de variations infinies sur les mêmes thèmes, où la véritable rupture, l’avant-garde, peine à émerger.
Le philosophe Bernard Stiegler voyait dans ce processus un risque de « désindividuation » : la perte de la capacité, pour les individus et les collectivités, à forger leur identité et leur avenir à travers des œuvres symboliques singulières. La culture ne serait plus réinventée, mais simplement reproduite.
Mais le danger le plus profond, et le plus subtil, est peut-être la « perte de l’abîme ». L’acte de créer a toujours été une confrontation avec l’inconnu, un saut dans un vide de possibilités. L’artiste se tient au bord d’un abîme et chaque décision (chaque note, chaque couleur) est un engagement irréversible qui ferme d’autres chemins. Ce poids existentiel, ce risque, confère à l’œuvre sa densité. Or, l’IA remplace cet abîme par un « espace latent » : un univers de possibilités certes vaste, mais entièrement cartographié par la statistique. L’inconnu est remplacé par le probable. La décision irréversible cède la place à un continuum infini d’options réversibles. La création, autrefois une aventure, devient une navigation optimisée dans un territoire balisé. Que reste-t-il quand il n’y a plus de vide à affronter ?
Faut-il pour autant voir dans l’IA la fin de l’art ? Peut-être assistons-nous plutôt à l’émergence d’un nouveau paradigme : la méta-créativité. Dans ce modèle, l’acte créateur ne consiste plus à façonner l’œuvre directement, mais à concevoir, guider et contraindre le système qui la génère. La créativité devient une vertu épistémique, une capacité à poser les bonnes questions, à trouver des problèmes plutôt qu’à les résoudre.
Cette vision n’est pas sans noblesse. Après tout, comme le suggère le philosophe Andy Clark, l’être humain est un « cyborg-né », qui a toujours intégré des technologies pour étendre ses capacités cognitives. L’IA pourrait être le plus puissant de ces exosquelettes mentaux.

Image générée par StableDiffusion.
.
Pourtant, la tension demeure. Le véritable danger n’est pas tant une IA super-intelligente qui nous remplacerait, mais, comme l’écrit la philosophe Anne Alombert, « l’industrialisation de la pensée et l’automatisation de l’altérité ». Le risque est que, par souci d’efficacité et d’engagement, nous déléguions aux machines non seulement les tâches fastidieuses, mais aussi la capacité même de penser différemment, de produire cette rupture, cette altérité radicale qui est le moteur de l’évolution culturelle.
Nous sommes à l’aube de cette nouvelle ère. Le mythe de Thoth ne nous dit pas de refuser l’écriture, mais de rester vigilants face à sa double nature. De même, le défi n’est pas de rejeter l’IA, mais de l’intégrer à nos pratiques d’une manière qui augmente notre créativité au lieu de la diminuer. Il s’agit de préserver des espaces de friction, de lenteur et de doute, de continuer à cultiver le dialogue irremplaçable entre un corps, un esprit et la matière. Car c’est peut-être dans cette lutte, dans cette confrontation avec l’abîme, que se loge ce qui, en nous, restera toujours au-delà de tout calcul.
Ninon Devis Salvy
Instagram : https://www.instagram.com/ninon.dvslv/
Website : https://ninon-io.github.io/
Pour aller plus loin:
L’article Aux abords de l’abîme : l’art à l’ère de l’IA est apparu en premier sur Blog binaire.