Blogs Le Monde - L'informatique : science et technique au coeur du numérique
29.11.2024 à 06:16
L’IA peut-elle faire de la science (au point on en est …) ?
binaire
Continuer la lecture de « L’IA peut-elle faire de la science (au point on en est …) ? »
Texte intégral (1820 mots)
A force d’imaginer l’IA* capable de tout faire, il fallait bien qu’on se pose un jour la question de savoir si cette technologie pouvait aussi faire de la science. C’est même la très sérieuse Académie nationale des sciences des Etats-Unis (NAS) qui s’interroge, à l’issue d’un séminaire dont elle a publié un compte-rendu. Charles Cuveliez et Jean-Charles Quisquater nous explique exactement tout ce qu’il ne faut pas faire ! Ikram Chraibi-Kaadoud et Thierry Viéville.
(*) L’expression IA recouvre un ensemble de concepts, d’algorithmes, de systèmes parfois très différents les uns des autres. Dans cet article, nous utilisons cette abréviation simplificatrice pour alléger la lecture.
Une IA qui voudrait faire de la science, devrait posséder certaines qualités d’un scientifique comme la créativité, la curiosité, et la compréhension au sens humain du terme. La science, c’est identifier des causes (qui expliquent les prédictions), c’est se débrouiller avec des données incomplètes, de taille trop petite, c’est faire des choix, tout ce que l’IA ne peut être programmé à faire. C’est se rendre compte des biais dans les données, alors que certains biais sont amplifiés par l’IA. Par contre, l’IA peut détecter des anomalies ou trouver des structures ou des motifs dans de très grands volumes de données, ce qui peut mener le scientifique sur des indices qu’il ne trouverait pas autrement.
Si l’IA peut contribuer à la science, c’est sans doute en automatisant et menant des expériences à la place du scientifique, plus rapidement et donc en plus grand nombre, qu’un humain ne pourrait le faire. Mais tout scientifique expérimentateur sait combien il peut être confronté à des erreurs de mesures ou de calibration. Il faut aussi pouvoir répondre en temps réel aux variations des conditions expérimentales. Un scientifique est formé pour cela. Un système d’IA répondra à des anomalies des appareils de mesure mais dans la mesure de l’apprentissage qu’il a reçu. Dans un récent article ambitieusement nommé: “The AI Scientist: Towards Fully Automated Open-Ended Scientific Discovery” (Sept 2024), leurs auteurs ont proposé un modèle qui automatise le travail d’un chercheur depuis la confrontation d’une idée à la littérature existante (est-elle nouvmaitriseelle) jusqu’à l’écriture du papier, sans doute impressionnant mais où le coup de génie a-t-il sa place dans cette production scientifique aseptisée ?
IA générative
Que peut apporter spécifiquement l’IA générative, et en son sein, les modèles LLM ? Ils sont entraînés et emmagasinent des quantités gigantesques de données de manière agnostique mais ne savent pas faire d’inférence, une autre caractéristique de la science en marche. On a l’impression que l’IA, générative ou non, a une capacité d’inférence : si on lui montre une photo d’un bus qu’elle n’a jamais vu auparavant, pour autant qu’elle ait été entraîné, elle reconnaîtra en effet qu’il s’agit d’un bus. A-t-elle pour autant une compréhension de ce qu’est un bus ? Non car un peu de bruit sur l’image lui fera rater la reconnaissance, contrairement à un humain ! En fait, il ne s’agit pas d’inférence, mais de reconnaissance.
Sans avoir de capacité de raisonnement, l’IA générative est un générateur d’idées plausibles, quitte pour le scientifique à faire le tri entre toutes les idées plausibles et celles peut-être vraies (à lui de le prouver !). L’IA générative peut étudier de large corpus de papiers scientifiques, trouver le papier qui contredit tous les autres et qui a été oublié et est peut-être l’avancée décisive que le scientifique devra déceler. Elle peut aussi résumer ce qui permettra au chercheur de gagner du temps. L’IA générative peut également générer du code informatique qui aide le scientifique. On a même évoqué l’idée de l’IA qui puisse générer des données expérimentales synthétiques, ce qui semble un peu fou mais très tentant lorsque les sujets sont des être humains. Que ne préférerait-on pas une IA générative répondre comme un humain pour des expériences en sciences sociales, sauf que c’est un perroquet stochastique qui vous répondra (Can AI Replace Human Research Participants? These Scientists See Risks, Scientific American, March 2024)
Alors, oui, vu ainsi, l’IA est un assistant pour le scientifique. Les IA n’ont pas la capacité de savoir si leurs réponses sont correctes ou non. Le scientifique oui.
Malheureusement, la foi dans l’IA peut amener les chercheurs à penser de manière moins critique et à peut-être rater des options qu’ils auraient pourtant trouvées sans IA. Il y a un problème de maîtrise de l’IA. Pour faire progresser l’utilisation de l’IA vers la science, il faudrait d’abord qu’elle ne soit plus l’apanage des seuls experts en IA mais qu’elle soit basée sur une étroite collaboration avec les scientifiques du domaine
Introduire l’utilisation de l’IA dans la science présente aussi un risque sociétal : une perte de confiance dans la science induite par le côté boite noire de l’IA.
Il faut donc bel et bien distinguer l’IA qui ferait de la science de manière autonome (elle n’existe pas) ou celle qui aide le scientifique à en faire de manière plus efficace.
Et d’ailleurs, l’IA a déjà contribué, de cette manière-là, à des avancées dans la science dans de nombreuses disciplines comme la recherche sur des matériaux, la chimie, le climat, la biologie ou la cosmologie.
Au final restera la quadrature du cercle : comment une IA peut expliquer son raisonnement pour permettre au scientifique de conseiller son IA à l’assister au mieux.
Jean-Jacques Quisquater (Ecole Polytechnique de Louvain, Université de Louvain et MIT) & Charles Cuvelliez (Ecole Polytechnique de Bruxelles, Université de Bruxelles)
Pour en savoir plus: AI for Scientific Discovery, Proceedings of a Workshop (2024), US National Academies, Medecine, Sciences, Engineering
22.11.2024 à 11:11
Qui a hacké Garoutzia ?
binaire
22.11.2024 à 06:25
Le prochain Nobel récompensera-t-il une IA ?
binaire
Continuer la lecture de « Le prochain Nobel récompensera-t-il une IA ? »
Texte intégral (2598 mots)
En mars 2016, AlphaGo écrasait le légendaire champion de du monde de Go Lee Sedol. Le monde commençait à entrevoir le potentiel extraordinaire de l’intelligence artificielle. Quand en novembre 2022, ChatGPT a été lancé, chacun d’entre nous a commencé à entamer la conversation avec ce nouveau joujou, qui de lui demander d’écrire un discours, qui de lui faire corriger ou de faire un résumé d’un article, qui de le sommer d’écrire un poème ou de lui donner des idées pour résoudre un problème. Quelques mois plus tard, ChatGPT passait avec succès des examens réputés difficiles tel que celui du barreau, écrivait du code à l’envi dans n’importe quel langage informatique ou pondait un nouveau roman dans le style de Zola. Et le monde, oscillant entre ébahissement et inquiétude, de réaliser à quel point, bien que sujets à des hallucinations manifestes, ces algorithmes d’IA générative allaient petit à petit grignoter nos emplois dans bien des domaines du service du droit ou de la médecine.
Et la science dans tout ça ? Est-ce qu’un algorithme d’IA peut aussi remplacer les cerveaux d’un éminent chercheur en physique, d’un prix Nobel de chimie ou d’un historien célèbre ?
Stockholm, le 8 octobre 2024, la vénérable académie des Nobels couronne dans le domaine de la physique, entre autres, … un informaticien, en l’occurrence Jeff Hinton, qui a partagé le prix Turing en 2019 avec Yann Lecun et Yoshua Bengio. Ce même Jeff Hinton qui a dénoncé avec véhémence les dangers de l’intelligence artificielle pour l’humanité du reste il y a quelques temps. Le lendemain, le 9 octobre 2024, cette même académie décerne un prix Nobel de chimie à deux autres informaticiens de DeepMind Demis Hassabis et John Jumper pour leurs travaux sur la structure des protéines.
Outre ces deux exemples iconiques, l’intelligence artificielle participe désormais fréquemment à des découvertes scientifiques dans de nombreux domaines comme ce nouvel algorithme de tri, domaine pourtant ô combien étudié dans la communauté algorithmique, qui émane d’un réseau de neurones en mars 2023 [1], ou encore un circuit exotique, qui de l’avis des physiciens était singulièrement inattendu, issu d’un logiciel d’IA de conceptions de dispositifs photoniques arbitraire[2], et les exemples foisonnent dans les domaines de la médecine ou de la biologie par exemple.
Au-delà de ce qu’on appelle les sciences dures, l’IA a commencé tranquillement à révolutionner aussi les sciences humaines et sociales comme l’illustre l’excellent projet ERC en philologie de J.-B. Camps[3] qui consiste à comprendre comment les cultures humaines évoluent au cours du temps en appliquant des méthodes d’intelligence artificielles utilisées dans la théorie de l’évolution en biologie aux manuscrits anciens afin de comprendre les mécanismes de transmission des textes, de leur survie et la dynamique des canons culturels qu’ ils suscitent.
Il devient donc raisonnable d’envisager une réponse par l’affirmative à la question ci-dessus : oui un prix Nobel pourrait récompenser une IA. Les algorithmes d’intelligence artificielle couplés à des infrastructures puissantes et des systèmes efficaces peuvent eux-aussi apporter leur pierre au bel édifice scientifique que nous construisons depuis la nuit des temps, et ce dans tous les domaines scientifiques.
De la créativité d’AlphaGo
En l’occurrence, AlphaGo, pour y revenir, a d’ores et déjà surpris le monde par sa créativité. AlphaGo s’est attaqué à ce jeu de stratégie d’origine chinoise inventé il y a plusieurs millions d’années qui consiste à placer des pions, appelés des pierres, sur un plateau quadrillé qu’on appelle le goban. Deux joueurs s’affrontent qui cherchent à marquer leur territoire en posant des pierres sur les intersections de la grille, pierres qui peuvent être capturées par encerclement. Je ne vais pas entrer plus en détail dans ce jeu car d’une part ce n’est pas le sujet, d’autre part je ne m’y suis jamais essayée. AlphaGo, lui est devenu champion. Au cœur d’AlphaGo, un arbre de recherche, un arbre de MonteCarlo pour être plus précis, dans lequel AlphaGo cherche son chemin en évaluant chaque coup potentiel et en simulant le jeu entier pour décider s’il doit jouer ce coup ou non. Compte tenu de la dimension de la grille, et la multitude de coups possible, bien plus élevé que le nombre d’atomes dans l’univers, autant dire qu’une exploration exhaustive est impossible. AlphaGo a alors recours à des algorithmes d’apprentissage supervisés entrainés sur des parties jouées par des humains dont la sortie est un ensemble de probabilités, le coup qui a la possibilité de gagner la partie est alors choisi. Cet algorithme est alors utilisé pour guider la recherche dans l’arbre immense des possibilités. Mais AlphaGo est allé plus loin que d’essayer d’imiter la créativité humaine en s’entrainant contre lui-même des dizaines de millions de fois puis d’utiliser ces parties pour s’entrainer ! Smart move…
C’est ainsi qu’AlphaGo a surpris tout le monde avec le fameux « Move 37 » lors de sa partie contre Lee. Ce coup que la pratique assidue depuis des milliers d’années de millions de personnes n’avait jamais considéré, cette idée saugrenue de placer un de ses pierres entre deux pierres de Lee, c’est ce coup défiant toute intuition humaine qui lui a valu la victoire. CQFD, l’IA peut être créative, voire avoir une certaine forme d’intuition au gré du hasard de ses calculs.
Est ce que l’IA peut mener à de grandes découvertes scientifiques ? Le prix Nobel de chimie 2024 en est un très bon exemple, AlphaFold a permis de découvrir les structures de protéines qui auraient demandé des siècles à de brillants chercheurs à grand renforts de manipulations expérimentales complexes et chronophages. On peut d’ailleurs voir la recherche scientifique comme l’activité qui consiste à explorer certaines branches dans une infinité de possibilités, on peut même considérer que l’intuition dont font preuve les brillants chercheurs et qui les mènent à ces moments Euréka, comme dirait Archimède, et comme les appellent Hugo Duminil-Copin, lauréat de la Médaille Fields 2022, permet de choisir les branches les plus prometteuses. Et bien c’est précisément ce que font les IAs, prédire quelles branches ont la plus forte probabilité de mener à un résultat intéressant et de les explorer à vitesse grand V.
Le paradoxe de l’IA
Oui mais voilà, une IA, cette savante combinaison d’algorithmes, de données, de systèmes et d’ordinateurs, est infiniment plus rapide qu’un humain pour effectuer ces explorations, elle est également généralement beaucoup plus fiable, ne dit-on pas que l’erreur est humaine ? En revanche, lorsqu’elle commet des erreurs, elles sont beaucoup plus importantes et se propagent beaucoup plus rapidement. Là la vigilance s’impose, qui pour le moment en tous cas reste humaine.
Certaines méthodes existent par lesquelles les algorithmes d’IA peuvent essayer de se surveiller mais cela ne peut pas aller tellement plus loin que cela. Au siècle dernier, Gödel et Turing, respectivement en 1931 et en 1936, ont montré certaines limites fondamentales en mathématique et informatique. Le théorème d’incomplétude de Gödel a révélé des limites fondamentales en mathématique. Ce théorème en particulier a montré qu’il existe des énoncés vrais dans un système, impossible à démontrer dans un système et qu’un système formel cohérent est incapable de démontrer sa propre cohérence. Dans la même veine, Turing lui s’est intéressé au problème de l’arrêt : est-ce qu’il est possible de déterminer qu’un programme informatique et des entrées, donnés, terminera son exécution ou non. En d’autres termes, peut-on construire un programme capable de de prédire si un autre programme s’arrêtera ou bouclera à l’infini ? Turing a prouvé que le problème de l’arrêt est indécidable c’est-à-dire qu’il est impossible de construire un programme universel capable de résoudre ce problème pour tous les programmes possibles. En particulier car un tel programme pourrait se contredire.
Adopter l’IA sans hésiter mais prudemment
Nos deux compères ont ainsi posé des limites intrinsèques à la puissance des algorithmes indépendamment du volume de données et du nombre de GPUs dont on peut disposer. Ainsi qu’une IA s’assure elle-même de bien fonctionner parait impossible et de manière générale une IA ne peut raisonner à son propre sujet. Est-ce pour cela qu’Alpha, selon D. Hassibis, ne pourrait jamais inventer le jeu de Go et c’est peut-être là sa limite. C’est là que l’humain peut entrer en piste. En d’autres termes, utiliser l’IA pour la découverte scientifique est d’ores et déjà possible et on aurait tort de s’en priver mais il est important de l’utiliser en respectant la démarche scientifique rigoureuse à laquelle nous, chercheurs, sommes rodés.
Les mathématiques ont été créées pour mettre le monde en équations et représenter le monde physique, l’informatique (ou l’IA) met le monde en algorithmes et en fournit des représentations vivantes qui collent si bien à la nature continue de la biologie et la physique mais aussi de bien des domaines des sciences humaine et sociales.
Ainsi, quel que soit son domaine et son pré carré, scientifique, il devient nécessaire de maitriser les fondements de l’IA pour bénéficier de ses prouesses et de son potentiel tout en vérifiant la pertinence des résultats obtenus, en questionnant les découvertes surprises qu’elle pourrait amener mais aussi en s’assurant que les données d’entrainement ne soient ni biaisées ni erronées. Si nous avons d’ores et déjà compris qu’il était temps d’introduire l’informatique dans le secondaire mais également dans beaucoup de cursus du supérieur, surtout scientifiques, il convient de poursuivre cet effort, de l’intensifier même et de l’élargir. Il est temps que l’informatique soit élevée au rang de citoyen de première-classe comme les mathématiques et la physique dans tous les cursus scientifiques. Plus encore, il est tout autant essentiel que les linguistes, les historiens, les sociologues et autres chercheurs des sciences humaines et sociales aient la possibilité d’apprendre les rudiments de l’informatique, et plus si affinité, dans leurs cursus.
Ainsi les académiques doivent s’y préparer, leurs métiers aussi vont être transformés par l’intelligence artificielle, informaticiens compris ! Ces derniers partent avec un petit avantage compétitif, celui de connaître les fondements de l’IA. À tous les autres, à vos marques, si ce n’est pas déjà fait !
Anne-Marie Kermarrec, Professeure à l’EPFL, Lausanne
[1] Mankowitz, D.J., Michi, A., Zhernov, A. et al. Faster sorting algorithms discovered using deep reinforcement learning. Nature 618, 257–263 (2023)
[2] https://nqp.stanford.edu/research/inverse-design-photonics
[3] https://www.chartes.psl.eu/gazette-chartiste/actualites/le-projet-lostma-laureat-de-lappel-du-conseil-europeen-de-la-recherche-erc
15.11.2024 à 15:24
Un référentiel de compétences pour former à la sobriété numérique
binaire
Continuer la lecture de « Un référentiel de compétences pour former à la sobriété numérique »
Texte intégral (1287 mots)
Le numérique est omniprésent dans notre quotidien et le déploiement indifférencié de ses usages semble inéluctable. Or, ses impacts environnementaux sont déjà alarmants. En 2019, il était responsable de 4% des émissions mondiales de gaz à effet de serre et son empreinte carbone risque d’augmenter de 60% en France d’ici à 2040. Le sujet est d’autant plus préoccupant que les nouveaux déploiements massifs de technologies comme l’intelligence artificielle générative, la blockchain ou les objets connectés augmentent déjà considérablement la demande en équipements numériques et en énergie.
Cette dernière devrait par exemple doubler en seulement 3 ans rien que pour alimenter les centres de données.
Afin d’envisager d’infléchir la tendance et de se diriger collectivement vers un usage plus soutenable des technologies numériques, il apparait essentiel d’activer un maximum de leviers possible, comme par exemple :
– accélérer la réduction de la consommation de ressources des produits et services numériques ;
– repenser les usages des outils et services numériques aux différentes échelles, individuelles comme collectives.
Le programme Alt Impact (https://altimpact.fr), coporté par l’ADEME, l’INRIA et le CNRS, a comme objectif de réduire les impacts environnementaux du numérique en France par le déploiement de la démarche de sobriété numérique. On définie celle-ci comme :
« Dans un contexte où les limites planétaires sont dépassées, la sobriété numérique est une démarche indispensable qui consiste, dans le cadre d’une réflexion individuelle et collective, à questionner le besoin et l’usage des produits et services numériques dans un objectif d’équité et d’intérêt général.
Cette démarche vise à concevoir, fabriquer, utiliser et traiter la fin de vie des équipements et services numériques en tenant compte des besoins sociaux fondamentaux et des limites planétaires.Pour cela il est nécessaire d’opérer des changements de politiques publiques, d’organisation, des modes de production et de consommation et plus globalement de mode de vie.
La sobriété numérique est donc complémentaire à une démarche d’efficacité qui ne peut répondre à elle seule aux enjeux cités.
Son objectif est de réduire les impacts environnementaux du numérique, de façon absolue. »
L’une des missions du programme Alt Impact est de déployer et de massifier la formation à la sobriété numérique, comme première étape essentielle du passage à l’action.
Pour accompagner les créateurs de contenus de formations, nous avons réalisé dans le cadre du programme un référentiel de compétences accessible à tous, SOBRIÉTÉ NUMÉRIQUE : Référentiel de compétences socles pour tous, en milieu professionnel (https://hal.science/hal-04752687v1).
Ce référentiel de compétences socles vise à recenser les savoirs et savoirs-faire à maîtriser en matière de sobriété numérique pour les professionnel.le.s de tous secteurs.
Il propose une approche structurée en cinq blocs de compétences, qui reposent sur :
– La capacité à situer les impacts du numérique dans une perspective systémique, en comprenant les enjeux environnementaux globaux liés au cycle de vie des équipements ;
– La nécessité de savoir estimer les impacts de ses activités professionnelles sur l’environnement ;
– L’importance de repenser ses usages et de mettre en place des actions concrètes de sobriété, que ce soit à l’échelle individuelle, collective ou organisationnelle.
Ce référentiel de compétences a été pensé pour être un outil structurant, au service de l’émergence d’usages numériques respectant les limites planétaires. Ce cadre commun est important pour mettre en œuvre une transformation à l’échelle systémique, en permettant à tous les acteurs d’accompagner la mise en place d’une dynamique collective – qu’ils soient des professionnels du secteur, des entreprises, des administrations publiques ou des citoyens. La formation est en cela un levier incontournable pour outiller les individus et les organisations, en leur permettant notamment d’identifier les freins et les ressources mobilisables dans une perspective de sobriété numérique.
Bonne lecture !
Françoise Berthoud (CNRS), Lydie Bousseau (ADEME), Chiara Giraudo (CNRS), Nadège Macé (Inria), Dylan Marivain (ADEME), Benjamin Ninassi (Inria), Jean-Marc Pierson (IRIT, Universtié de Toulouse).
08.11.2024 à 05:47
Moliverse ou la Fusion du Micromonde et de l’Univers
binaire
Continuer la lecture de « Moliverse ou la Fusion du Micromonde et de l’Univers »
Texte intégral (1575 mots)
La visualisation de données scientifiques connaît une transformation radicale depuis quelques années due à l’accroissement du volume de données et de la puissance de calcul, mais aussi grâce à la prolifération d’outils informatiques permettant l’exploration de ces données. Imaginez pouvoir vous balader dans l’immensité du cosmos, explorer aussi bien l’infiniment petit que l’infiniment grand, sans pour autant vous lever de votre chaise. Vous pourriez, par exemple, découvrir les compositions moléculaires de l’atmosphère de plusieurs planètes révélées par le télescope James Webb. C’est l’objectif ambitieux de Moliverse, un logiciel unifiant la visualisation moléculaire avec la visualisation de phénomènes astrophysiques. Mathis Brossier nous explique ici comment ce logiciel fonctionne et quels sont ces objectifs. Lonni Besançon et Pascal Guitton.
Moliverse [1] est une intégration du logiciel de visualisation moléculaire VIAMD [2] avec le logiciel d’astronomie OpenSpace [3]. Ce mariage permet de représenter des structures moléculaires en contexte avec des corps célestes. Concrètement, Moliverse vous permet de voir, par exemple, la composition gazeuse d’une atmosphère planétaire ou les structures moléculaires dans les traînées de comètes, tout en conservant une vue d’ensemble de l’univers.
Le Contexte Scientifique
Au fil des années, les simulations de dynamique moléculaire ont atteint un niveau de réalisme impressionnant. Cependant, les outils utilisés par les chimistes et biologistes pour visualiser ces simulations restent souvent confinés à une utilisation experte. Des logiciels comme VMD [4], Avogadro [5] ou VIAMD sont essentiels pour les experts, mais manquent de fonctionnalités pour rendre ces données accessibles à un public non spécialiste.
L’idée est donc de rendre plus accessibles ces outils d’experts, pour éduquer et attiser la curiosité du grand public [6, 7]. En combinant la puissance de ces outils avec des environnements immersifs comme les planétariums ou les écrans interactifs, on peut créer des expositions éducatives spectaculaires.
Les Défis Techniques
L’un des défis majeurs de Moliverse est de gérer les échelles extrêmes. Une simple molécule est incroyablement petite, mesurant à peine quelques ångströms (de l’ordre de 0,1 nanomètre), tandis que l’univers observable s’étend sur des millions d’années-lumière (c’est-à-dire des dizaines de milliards de milliards (oui, deux fois) de kilomètres). Il est alors très difficile de percevoir la différence d’échelle entre une molécule et un corps céleste.
Moliverse résout ce problème en utilisant des techniques innovantes de transition d’échelle. Plutôt que de passer de manière linéaire d’une échelle à l’autre, ce qui serait impraticable, Moliverse utilise des encadrements illustratifs qui aident à séparer visuellement les différentes échelles.
De gauche à droite: ① Atmosphère de la Terre à 10km d’altitude ② Nuage de méthane sur Titan ③ Comparaison de molécules organiques ④ Visualisation dans un planétarium.
Application et Impact
L’objectif principal de Moliverse réside dans son application comme outil pédagogique. Imaginez-vous dans un planétarium, où l’on vous montre d’abord les planètes, les étoiles, les galaxies et leurs compositions. Ensuite, la caméra zoome jusqu’à la surface d’une planète, révélant la composition moléculaire de son atmosphère, et la plaçant directement dans le contexte de sa découverte. En changeant de point de vue, on peut voir comment la densité et la composition des gaz changent à différentes altitudes et sur différentes planètes. Par exemple, l’atmosphère terrestre est dense et principalement composée d’azote et d’oxygène, tandis que celle de Mars est beaucoup plus fine et dominée par le dioxyde de carbone.
Un autre usage intéressant de Moliverse est de permettre aux scientiques de visualiser leurs données et leurs simulation de dynamiques moléculaires dans plusieurs environnements, allant de l’ordinateur personnel pour leurs travaux de recherche à des larges écrans ou des planétariums pour de l’enseignement tout en incluant des espaces d’analyses collaboratifs.
Moliverse ouvre la voie à une nouvelle forme de communication scientifique. Les enseignants, chercheurs et vulgarisateurs scientifiques disposent désormais d’un outil pour expliquer des concepts complexes de manière visuelle et immersive. Avec l’arrivée du télescope James Webb et les découvertes qu’il promet, la capacité de Moliverse à montrer des compositions chimiques d’exoplanètes en contexte sera particulièrement précieuse. Pour améliorer cet outil, il convient maintenant d’explorer comment permettre une interaction fluide, naturelle, et efficace [8] entre toutes ces échelles, autant pour les chercheurs lorsqu’ils effectuent leurs recherches, que pour le public lors de démonstrations.
Références
[1] M. Brossier et al., “Moliverse???: Contextually embedding the microcosm into the universe,” Computers & Graphics, vol. 112, pp. 22–30, May 2023, doi: 10.1016/j.cag.2023.02.006.
[2] R. Skånberg, I. Hotz, A. Ynnerman, and M. Linares, “VIAMD: a Software for Visual Interactive Analysis of Molecular Dynamics,” J. Chem. Inf. Model., vol. 63, no. 23, pp. 7382–7391, Dec. 2023, doi: 10.1021/acs.jcim.3c01033.
[3] A. Bock et al., “OpenSpace: A System for Astrographics,” IEEE Trans. Visual. Comput. Graphics, pp. 1–1, 2019, doi: 10.1109/TVCG.2019.2934259.
[4] W. Humphrey, A. Dalke, and K. Schulten, “VMD: visual molecular dynamics,” J Mol Graph, vol. 14, no. 1, pp. 33–38, 27–28, Feb. 1996, doi: 10.1016/0263-7855(96)00018-5.
[5] M. D. Hanwell, D. E. Curtis, D. C. Lonie, T. Vandermeersch, E. Zurek, and G. R. Hutchison, “Avogadro: an advanced semantic chemical editor, visualization, and analysis platform,” J Cheminform, vol. 4, p. 17, Aug. 2012, doi: 10.1186/1758-2946-4-17.
[6] A. Ynnerman, P. Ljung, and A. Bock, “Reaching Broad Audiences from a Science Center or Museum Setting,” in Foundations of Data Visualization, M. Chen, H. Hauser, P. Rheingans, and G. Scheuermann, Eds., Cham: Springer International Publishing, 2020, pp. 341–364. doi: 10.1007/978-3-030-34444-3_19.
[7] S. Schwan, A. Grajal, and D. Lewalter, “Understanding and Engagement in Places of Science Experience: Science Museums, Science Centers, Zoos, and Aquariums,” Educational Psychologist, vol. 49, no. 2, pp. 70–85, Apr. 2014, doi: 10.1080/00461520.2014.917588.
[8] L. Besançon, A. Ynnerman, D. F. Keefe, L. Yu, and T. Isenberg, “The State of the Art of Spatial Interfaces for 3D Visualization,” Computer Graphics Forum, vol. 40, no. 1, pp. 293–326, Feb. 2021, doi: 10.1111/cgf.14189.
01.11.2024 à 06:33
L’Art de la Conception Électronique : Sûreté de fonctionnement, Fiabilité et Sécurité
binaire
Texte intégral (2174 mots)
La confiance et le numérique responsable reposent tout deux, entre autres, sur la nécessité de développer des systèmes fiables et sûrs. Cette exigence concerne à la fois la conception hardware (ex : IOT, robotique, cobotique) et celle du software (ex: IA, jumeaux numériques, modélisation numérique). A l’heure où les objets connectés font partie inhérente de nos quotidiens en tant que consommateurs lambda, industriels ou chercheurs, il semble important de questionner les concepts de fiabilité et sécurité dans la conception électronique des objets qui nous entourent. Sébastien SALAS, Chef de projet d’un pôle d’innovation digitale (DIH, Digital Innovation Hub) et directeur de formation au sein du programme CAP’TRONIC dédié à l’expertise des systèmes électroniques pour l’innovation et l’industrie manufacturière, de JESSICA France, nous partage son éclairage sur ce sujet. Ikram Chraibi-Kaadoud et Chloé Mercier.
La conception électronique hardware
Dans l’industrie, un système embarqué est constitué a minima d’une carte avec un microcontrôleur, qui est programmée spécifiquement pour gérer les tâches de l’appareil dans lequel elle s’insère.
Nous interagissons avec des systèmes embarqués tous les jours, souvent sans même nous en rendre compte. Par exemple, la machine à laver qui règle ses cycles de nettoyage selon la charge et le type de linge, le micro-ondes qui chauffe le repas à la perfection avec juste quelques pressions sur des boutons, ou encore le système de freinage dans la voiture qui assure la sécurité en calculant continuellement la pression nécessaire pour arrêter le véhicule efficacement, etc …
Ces systèmes sont « embarqués » car ils font partie intégrante des appareils qu’ils contrôlent. Ils sont souvent compacts, rapides, et conçus pour exécuter leur tâche de manière autonome avec une efficacité maximale et une consommation d’énergie minimale.
C’est le rôle du technicien et ingénieur conception du bureau d’étude de concevoir ce système dit embarqué avec une partie hardware et une partie software.
La conception électronique hardware moderne est un métier très exigeant techniquement qui nécessite une solide compréhension des évolutions technologiques des composants, des besoins des utilisateurs mais aussi de son écosystème technologique. De la conception, au déploiement, au dépannage, à la maintenance, ce métier nécessite de suivre les progrès réalisés dans le domaine de la technologie numérique qui englobe électronique et informatique.
En conception de systèmes embarqués industriels, la prise en compte des notions de Fiabilité – Maintenabilité – Disponibilité – Sécurité, noté aussi sous le sigle FMDS incluant la Sûreté de Fonctionnement (SdF) et la sécurité fonctionnelle est de plus en plus partie intégrante des exigences clients. Intégrer de tels concepts dans les produits peut se passer en douceur si l’entreprise y est bien préparée.
Ces notions représentent les fondamentaux qui assurent la pérennité et l’efficacité des produits une fois en cours d’utilisation. La mise en œuvre de ces notions permet de garantir le meilleur niveau de performance et de satisfaction utilisateur. Comprendre leur implication tout en reconnaissant leur interdépendance est crucial pour les ingénieurs et concepteurs qui visent l’excellence dans la création de produits électroniques pour l’industrie.
Sécurité fonctionnelle
Définition
La sécurité fonctionnelle est une facette critique de la sûreté de fonctionnement centrée sur l’élimination ou la gestion des risques liés aux défaillances potentielles des systèmes électroniques. Elle concerne la capacité d’un système à rester ou à revenir dans un état sûr en cas de défaillance. La sécurité fonctionnelle est donc intrinsèquement liée à la conception et à l’architecture du produit, nécessitant une approche méthodique pour identifier, évaluer et atténuer les risques de défaillance. Cela inclut des mesures telles que les systèmes de détection d’erreurs, les mécanismes de redondance, et les procédures d’arrêt d’urgence.
L’importance de la sécurité fonctionnelle
À l’ère des objets connectés (aussi connus sous le sigle de IoT pour Internet Of Things) et des systèmes embarqués, la sécurité fonctionnelle est devenue un enjeu majeur, en particulier dans des secteurs critiques tels que l’automobile, l’aéronautique, et la santé, où une défaillance peut avoir des conséquences graves. Chaque secteur propose sa propre norme qui a le même objectif, assurer non seulement la protection des utilisateurs mais contribuer également à la confiance et à la crédibilité du produit sur le marché. La sécurité fonctionnelle est garante d’un fonctionnement sûr même en présence de défaillances. Cette dernière requiert une attention particulière dès les premières étapes de conception pour intégrer des stratégies et des mécanismes qui préviennent les incidents.
Que surveiller pour une sécurité fonctionnelle optimale ?
Il existe de nombreux paramètres à surveiller et de nombreuses méthodes à mettre en place pour une sécurité fonctionnelle optimale. Ici deux seront soulignés : La fiabilité et la cybersécurité.
> La fiabilité : La fiabilité mesure la probabilité qu’un produit performe ses fonctions requises, sans faille, sous des conditions définies, pour une période spécifique. C’est la quantification de la durabilité et de la constance d’un produit. Dans la conception hardware, cela se traduit par des choix de composants de haute qualité, des architectures robustes et surtout des tests rigoureux. On aborde ici des notions comme le taux de défaillance, ou encore le calcul de temps moyen entre pannes ou durée moyenne entre pannes, souvent désigné par son sigle anglais MTBF (Mean Time Between Failures) et qui correspond à la moyenne arithmétique du temps de fonctionnement entre les pannes d’un système réparable.
La fiabilité des composants électroniques contribue aux démarches de sûreté de fonctionnement et de sécurité fonctionnelle essentielle dans des domaines où le temps de fonctionnement est critique. Ce sont les disciplines complémentaires à connaître pour anticiper et éviter les défaillances des systèmes. Pour les produits électroniques, il est important de comprendre les calculs de fiabilité et de savoir les analyser.
> La (cyber)sécurité : C’est la protection contre les menaces malveillantes ou les accès non autorisés qui pourraient compromettre les fonctionnalités du produit. Dans le domaine de l’électronique, cela implique la mise en place de barrières physiques (ex: un serveur dans une salle fermée à clé) et logicielles (ex: des mots de passe ou l’obligation d’un VPN) pour protéger les données et les fonctionnalités des appareils. La sécurité est particulièrement pertinente dans le contexte actuel de connectivité accrue, où les risques de cyberattaques et de violations de données sont omniprésents. Ce sujet a été abordé avec Jean Christophe Marpeau, référent cybersécurité chez #CAPTRONIC.
Conclusion
La conception électronique hardware moderne est un équilibre délicat entre sûreté de fonctionnement, fiabilité et sécurité. Ces concepts, bien que distincts, travaillent de concert pour créer des produits non seulement performants mais aussi dignes de confiance et sûrs. Les professionnels de l’électronique ont pour devoir d’harmoniser ces aspects pour répondre aux attentes croissantes en matière de qualité et de sécurité dans notre société connectée.
Sébastien SALAS est chef de projet d’un pôle d’innovation digitale (DIH, Digital Innovation Hub) et directeur de formation au sein du programme CAP’TRONIC de JESSICA France. Il s’attelle à proposer des formations pour les entreprises au croisement des dernières innovations technologiques et des besoins des métiers du numérique et de l’électronique en particulier, pour les aider à développer leurs compétences et leur maturité technologique. |
25.10.2024 à 07:56
Mon enfant, apprivoise l’IA !
binaire
Texte intégral (890 mots)
On parle d’intelligences artificielles génératives, qui produisent en quelques secondes du texte, des images et du contenu audio. Ce sont de vraies prouesses techniques, de gigantesques calculs statistiques. Bien utilisées, ce sont des outils utiles dans de nombreux domaines, y compris de la vie des ados. Mal comprises, elles font peur. Mal utilisées, elles conduisent à de nombreuses erreurs.
Voici un guide malin et bienveillant pour découvrir comment fonctionne l’IA et à quoi elle sert, comment l’utiliser pour booster sa créativité. Il n’ignore pas les dangers de l’IA (fake news, deep fakes, etc.) et propose des pistes pour en garder le contrôle.
Un exemple ? Alors … plus besoin de faire ces devoirs avec l’IA ?
C’est une des premières choses que les élèves essayent et cela marche… mal ! D’abord, on reconnaît assez facilement que la façon de répondre n’est pas celle d’un·e élève, ensuite les réponses peuvent être absurdes comme on l’expérimente. Et surtout… eh bien on perd son temps ! Les devoirs sont faits pour acquérir des compétences alors les faire faire par un humain ou un algorithme, ça se paye ensuite. En fait, quelque chose a changé profondément : avec ces algorithmes, il faut apprendre à faire ses devoirs autrement. C’est ce que nous explique ce joli livre très chouettement illustré.
On le trouve partout y compris chez son éditeur.
Date de parution: 05 septembre 2024.
Editeur Nathan.
Collection C’est pas moi
Nombre de pages: 128
Auteurs: Pierre-Yves Oudeyer, Didier Roy, Clémentine Latron.
Ikram Chraibi-Kaadoud et Thierry Viéville.
18.10.2024 à 08:35
Ils utilisent la lumière pour faire du calcul quantique
binaire
Continuer la lecture de « Ils utilisent la lumière pour faire du calcul quantique »
Texte intégral (3602 mots)
Un nouvel entretien autour de l’informatique.
Pascale Senellart est physicienne, directrice de recherche au Laboratoire de photonique et nanostructures du CNRS de l’Université Paris-Saclay, professeure chargée de cours à l’École polytechnique. Ses travaux se concentrent sur les interactions lumière-matière avec des boîtes quantiques semi-conductrices dans des cavités optiques. Elle a reçu la médaille d’argent du CNRS (en 2014) parmi de nombreuses distinctions scientifiques.
En 2017, Pascale a cofondé avec Valérian Giesz et Niccolo Somaschi la startup Quandela, d’abord pour commercialiser une source de photons uniques s’appuyant sur ses travaux de recherche au C2N, puis pour développer un ordinateur quantique à base de photons.
Jean Senellart est informaticien, pionnier de la traduction automatique. Il a longtemps dirigé la R&D de Systran. Sous son impulsion, Systran a construit un des premiers moteurs de traduction basés sur un réseau de neurones et le framework opensource OpenNMT. Il a rejoint Quandela pour contribuer à son logiciel quantique.
Binaire : Pouvez-vous nous raconter votre parcours ?
Pascale Senellart : je suis directrice de recherche au CNRS, au centre de nanosciences et de nanotechnologies depuis 2002. Physicienne des semi-conducteurs, mon objectif était de reproduire dans ces matériaux des expériences fondamentales de la physique théorique. Cela avait été fait par Serge Haroche et d’autres avec des atomes, et je voulais le faire avec des outils de microélectronique. Il s’agit de développements technologiques basés sur l’étude des même matériaux que ceux étudiés pour réaliser de nombreux composants comme les pointeurs lasers. Mon équipe a ainsi développé de petits composants semi-conducteurs similaires à des LED, mais qui sont des composants émettant des photons un par un.
Vers 2013, j’ai commencé à être contactée par des personnes souhaitant construire des ordinateurs quantiques. La technologie de mon équipe, bien qu’imparfaite, était dix fois plus efficace que ce dont ils disposaient. Idéalement, pour obtenir un photon, il devrait suffire d’appuyer sur un bouton ; l’efficacité de leurs outils était de 1 photon pour 100 essais ; nous en sommes maintenant à 60 photons pour 100.
Pour coder de l’information, on peut utiliser la polarisation du photon (suivant le sens de son champ électrique) ou sa couleur (par exemple bleue ou rouge) ou sa direction (suivant qu’il aille à droite ou à gauche). C’est donc un bit d’information. Mais on peut faire mieux en utilisant le fait qu’une particule peut être en deux endroits en même temps. Par exemple, le photon peut aller à la fois à droite et à gauche. C’est à la base du bit d’information quantique, appelé qubit.
Vers 2016, nous disposions de composants qui intéressaient énormément, en particulier, les laboratoires universitaires. En 2017, nous avons créé une startup, Quandela, pour les commercialiser. Au début, nos clients appartenaient au monde académique ; puis avec le boom international sur le quantique, nous avons eu comme clients des startups. Un spécialiste de l’algorithmique quantique, Shane Mansfield a rejoint l’aventure en 2020 pour porter aussi l’effort dans la direction de l’ordinateur quantique. Il y avait un gouffre entre le monde des algorithmes quantiques, des composants semiconducteurs et celui de l’informatique traditionnelle. L’arrivée de Jean en 2022 a permis de faire un pont entre ces trois mondes.
Jean Senellart : J’ai fait une thèse en informatique linguistique avec Maurice Gross au LADL (Laboratoire d’Automatique Documentaire et Linguistique). Je travaillais sur les aspects formels, puis j’ai fait de la traduction automatique et du développement logiciel industriel. Chez Systran, nous avons utilisé l’intelligence artificielle pour le traitement de la langue naturelle, et développé les premiers traducteurs automatiques basés sur des réseaux de neurones. Ensuite, nous avons même mis des transformers (une architecture d’apprentissage profond introduite par Google) en open source. Le domaine de la traduction automatique a beaucoup progressé, et il est aujourd’hui plutôt dans une phase de perfectionnement. C’est ce qui m’a poussé à chercher de nouveaux défis. L’informatique quantique m’est apparue comme un domaine prometteur où mes compétences en algorithmique et en traitement de données complexes pouvaient être valorisées d’une nouvelle manière. C’est ainsi que j’ai décidé de rejoindre le projet de Quandela de construire et de contrôler un ordinateur quantique.
Binaire : Qu’est-ce qu’un ordinateur quantique ? Qu’est-ce que ça pourrait changer ?
PS : L’ordinateur classique repose notamment sur des composants comme des transistors, qui exploitent déjà des propriétés de la physique quantique. Mais l’ordinateur quantique utilise un concept beaucoup plus puissant et fragile, à savoir, la « superposition quantique » : un photon peut être à droite et à gauche en même temps. Mais, dès que je fais une mesure, le photon est soit à droite soit à gauche, de manière aléatoire, avec la même probabilité alors qu’il était, avant la mesure, aux deux endroits en superposition. Et puis, un autre phénomène est essentiel : « l’intrication ». Si on lance deux pièces de monnaie en l’air, elles tombent chacune sur pile ou face ; en quantique, on peut créer un état intriqué des deux pièces ; elles tomberont toujours de manière aléatoire, mais toutes les deux sur pile, ou toutes les deux sur face et même toutes les deux sur la tranche mais exactement de la même façon. Deux photons, peut-être distants l’un de l’autre, peuvent ainsi être intriqués.
Grâce à la superposition et l’intrication, la physique quantique permet ainsi d’explorer plusieurs possibilités en même temps. Supposons que l’on cherche la sortie d’un labyrinthe. Quand on trouve un branchement, on peut explorer la branche de gauche puis l’autre. On pourrait trouver la sortie beaucoup plus vite si on explorait les deux en même temps. Du point de vue de l’information, on arrive à coder avec n particules une information qui correspondrait à un nombre exponentiel en n de bits.
Je travaille sur le hardware et la vraie difficulté à laquelle nous sommes confrontés est de garder les propriétés de superposition et d’intrication. Pour poursuivre avec l’analogie du labyrinthe, si je demande à l’explorateur du labyrinthe où il est, je perds la superposition et donc tout l’avantage apporté par le calcul quantique. Je fais donc en sorte de ne pas lui demander directement, mais si par exemple des cailloux se trouvent dans le labyrinthe et font trébucher l’explorateur, ces cailloux ont en quelque sorte « interrogé » l’explorateur et feront qu’il ne sera plus dans un état superposé mais uniquement à cet endroit du chemin. Ce phénomène illustre ce qu’on appelle la « décohérence » qui va être source d’erreur dans le calcul quantique. Cet exemple montre aussi que quand on veut programmer avec le quantique, on est conduit à penser différemment, à concevoir d’autres algorithmes – car on ne peut pas interroger le système en cours de calcul comme on le fait couramment avec un ordinateur classique. C’est un vrai défi.
Binaire : Comment programme-t-on un ordinateur quantique ?
JS : Il vaut mieux ne pas être physicien [rire]. Il faut voir l’ordinateur quantique comme un moyen nouveau d’accélérer les calculs. Sur le plan théorique, on dispose de qubits (avec la superposition et l’intrication) qu’on doit pouvoir initialiser (créer des superpositions) et faire des opérations logiques (fabriquer l’intrication) et mesurer. Di Vincenzo d’IBM a ainsi défini les calculateurs quantiques. La première difficulté est de programmer le système physique qui permet de réaliser tout cela au travers de différentes couches logicielles.
En utilisant le photon pour fabriquer un ordinateur quantique, on va pouvoir utiliser les outils de la photonique intégrée pour créer la superposition et l’intrication. On va par exemple utiliser des puces où des guides d’onde qui dirigent les photons dans différentes directions. En changeant localement la température, on peut modifier l’indice de propagation de la lumière dans le verre et programmer la superposition de la particule qui passe à cet endroit-là. En montant en niveau, on va faire en sorte que deux photons se croisent sur la puce à divers endroits pour créer l’intrication. À un niveau supérieur, on utilise cette intrication pour réaliser des analogues quantiques des portes logiques qu’on trouve dans les ordinateurs classiques. Au-dessus de ce niveau, on implémente des algorithmes comme l’algorithme de Shor qui permet, avec un ordinateur quantique très sophistiqué, de décomposer un nombre en facteurs premiers.
Nous avons mis en place un petit ordinateur sur le cloud, avec 10 qubits aujourd’hui. Si nous arrivions à une centaine de qubits, nous pourrions réaliser des calculs actuellement plus vite que les supercalculateurs. Il nous manque donc juste un ordre de grandeur. Mais il ne faut pas sous-estimer la difficulté de passer de 10 à une centaine. Il ne suffit pas d’ajouter des qubits comme on rajoute des processeurs, il faut aussi être capable de les intriquer et ne pas ajouter de la décohérence quand on ajoute des qubits.
Avec quelques qubits, nous avons déjà réalisé de l’apprentissage machine (machine learning) quantique, ou calculé le niveau d’énergie de l’hydrogène avec une précision chimique. Ainsi, nous avons également classifié des images d’iris avec seulement 3 qubits. Le fait qu’avec 3 qubits nous puissions réaliser l’équivalent de ce que nous ferions avec un petit réseau d’une centaine de neurones classiques montre la puissance du calcul quantique en termes de complexité.
Binaire : Le but est de réaliser des calculs encore hors de notre portée. Et, y a-t-il d’autres possibilités pour le calcul quantique ?
PS : Oui, l’objectif est de réaliser des calculs qui ne sont pas accessibles aux ordinateurs classiques actuels. Un autre apport de l’ordinateur quantique pourrait être une consommation d’énergie moindre. En effet, on atteint des limites des ordinateurs classiques non seulement du fait de la taille des transistors qu’on ne peut plus réduire, mais aussi par leur production de chaleur. La dissipation de cette chaleur est un obstacle majeur pour aller vers plus de puissance de calcul. D’un point de vue fondamental, ce n’est pas le cas pour le calcul quantique, qui ne génère pas de chaleur au niveau le plus bas. Alors, il est vrai qu’aujourd’hui, on ne connaît pas de technologie de calcul quantique qui effectue des calculs à température ambiante. Pour générer nos photons, nous travaillons à 4 Kelvin, et cela demande de l’énergie pour faire descendre à cette température notre machine. Mais cette énergie initiale est très faible par rapport à l’économie d’énergie que l’utilisation de la superposition et de l’intrication quantique permet.
Binaire : OVH vous a acheté une machine. Qu’en font-ils ?
PS : Ils génèrent des nombres aléatoires certifiés. Actuellement, les processus de génération de nombres aléatoires en informatique classique sont en fait pseudo-aléatoires (pas vraiment aléatoires), tandis qu’en informatique quantique, nous pouvons générer de véritables nombres aléatoires pour lesquels nous pouvons démontrer qu’il n’y a pas d’information cachée. On a par exemple besoin de vrais nombres aléatoires en cryptographie.
Binaire : Peut-on simuler les ordinateurs quantiques ?
JS : Aujourd’hui, nous pouvons simuler jusqu’à environ 25 qubits photoniques avec des ordinateurs classiques. En utilisant les plus puissants supercalculateurs, il serait possible d’atteindre au maximum une centaine de qubits. Au-delà, comme la puissance de calcul quantique est exponentielle en nombre de qubits, les meilleurs supercalculateurs ne peuvent plus rien faire. Ces simulations sont cruciales pour le développement et la validation d’algorithmes quantiques, et leurs limitations souligne aussi l’importance de construire de véritables ordinateurs quantiques. En effet, dès que nous dépasserons la barre des 100-200 qubits avec des ordinateurs quantiques réels, nous entrerons dans un domaine où la simulation classique devient impossible, ouvrant la voie à de véritables avancées en calcul quantique.
Binaire : Peut-on s’attendre à une révolution avec l’informatique quantique ?
PS : De mon point de vue, nous sommes déjà au cœur d’une révolution technologique. Nous réalisons des avancées dans les laboratoires auxquelles nous n’aurions pas cru il y a 5 ans. Les progrès sont spectaculaires et rapides. Du point de vue des applications, nous en sommes encore aux prémices de l’histoire. Jusqu’à présent, cela restait essentiellement une affaire à des physiciens. Mais maintenant les informaticiens nous rejoignent.
C’est la construction de matériel qui prend du temps. Mais on y arrive. Le passage à l’informatique quantique est pour moi inévitable. Cela va se produire.
Binaire : Doit-on imaginer des machines qui seront uniquement quantiques ou un mélange ?
JS : Cela sera forcément un mélange des deux – tout comme on a ajouté des GPU aux ordinateurs actuels pour gagner en puissance de calcul sur certains problèmes. De la même façon, le quantique accélère certains types de problèmes, mais pas tous. Par exemple, la simulation de molécules complexes ou l’optimisation de grands systèmes sont des domaines où le quantique pourra apporter un avantage significatif. D’ailleurs, suivant les applications, certaines plateformes quantiques sont plus adaptées que d’autres selon les principes sur lesquels elles se fondent. Par exemple, les ordinateurs quantiques à base de qubits supraconducteurs ou de photons uniques ont chacun leurs forces pour différents types de calculs quantiques.
Binaire : Y a-t-il des besoins en matériaux spécifiques ?
PS : Dans les plateformes avec des qubits de silicium, il faut un silicium extrêmement pur, et très peu de pays dans le monde savent produire du silicium à ce degré de pureté. Dans les plateformes avec des photons, comme celle sur laquelle nous travaillons, pas tant que ça. C’est d’ailleurs le type de plateforme le mieux financé au niveau international. Les financements sont énormes aux États-Unis et en Chine, plus modestes en France et en Europe.
Les équipes chinoises du professeur Jan Wei Pan ont réalisé des démonstrations avec des plateformes à photons et ont effectué des calculs inaccessibles au monde classique.
Binaire : Que pouvez-vous dire à ceux qui ne croient pas en l’ordinateur quantique ?
PS : Certains scientifiques voient tous les défis technologiques qu’il faut résoudre pour obtenir un ordinateur quantique très puissant et sont dubitatifs. Pour moi, dire que ce n’est pas possible, ce n’est pas un point de vue scientifique. Regardons ce qui s’est passé sur la première révolution technologique du 20e siècle qui exploitait les concepts de base de la mécanique quantique. Qui aurait pu penser au début du transistor – quand celui-ci faisait la taille d’une ampoule – que ce composant permettrait de révolutionner notre quotidien ? Nous sommes dans une situation analogue – avec des composants permettant d’exploiter des concepts quantiques beaucoup plus puissants.
JS : Aujourd’hui, il est à la fois possible de démontrer théoriquement que certains algorithmes quantiques permettront de résoudre des problèmes que nous ne pouvons qu’approximer avec n’importe quel ordinateur actuel classique aussi puissant soit-il, et à la fois possible de démontrer pratiquement que ces algorithmes fonctionnent déjà à une petite échelle. Il n’est plus possible de ne plus croire au quantique, et ce n’est plus qu’une question de temps.
Binaire : Pascale, quand comptes-tu retourner à la recherche ?
PS : Je n’ai jamais autant fait de recherche. Je suis officiellement à 30% dans Quandela. Et même ma contribution à Quandela, c’est aussi de la recherche.
Binaire : Et toi Jean, les problèmes informatiques que tu rencontres sont-ils aussi intéressants que ceux que tu adressais avant, en apprentissage automatique ?
JS : L’algorithmique a toujours été ma passion. Tout comme ce qui s’est passé avec l’arrivée des réseaux de neurones à grande échelle, le quantique nous permet de revisiter des problèmes classiques avec un outil nouveau, et qui défie souvent l’intuition. Pour chaque problème considéré, trouver la manière de l’aborder avec des primitives quantiques est donc un défi chaque fois renouvelé : il faut être créatif en permanence. De plus, même si on a l’algorithme, la manière de l’exécuter sur un ordinateur quantique particulier est aussi souvent un problème ouvert à part entière, donc oui : les problèmes informatiques existants et à venir sont tout aussi passionnants et stimulants intellectuellement que ceux que j’ai pu rencontrer dans le monde de l’apprentissage automatique et du traitement de la langue.
Serge Abiteboul, Inria et ENS, Paris, Claire Mathieu, CNRS et Université Paris Cité
Pour aller plus loin
Quandela, quand le quantique rencontre le HPC…, Vie des entreprises, novembre 2022, P. Senellart et J. Senellart.
Les entretiens autour de l’informatique
11.10.2024 à 07:47
Petite histoire du TO7
binaire
Texte intégral (2050 mots)
Michel LEDUC a participé à la création d’une des premiers ordinateurs personnels en France. En plus des foyers, cet ordinateur a aussi pénétré les écoles ce qui fait que ce petit TO7 est un peu connu. Michel nous narre cette histoire à l’occasion de la sortie d’un livre sur cette aventure. Pierre Paradinas et Benjamin Ninassi.
Binaire : Comment es tu entré chez Thomson dans les années 1970 ?
Michel LEDUC : Diplômé de l’ESEO en 1973, je recherche du travail à la fin de mon service militaire pendant l’été 1974. Après CV et lettres de motivations, je passe un entretien à Paris pour un poste à Thomson Moulins. Ce fut, un entretien original avec une visite du LCR de Corbeville (le laboratoire de recherche du groupe Thomson) où je suis ébloui par la démonstration d’une maquette de vidéodisque et je suis séduit par l’équipe de chercheurs à l’origine de cette merveilleuse lampe d’Aladin qui permettait d’obtenir une image vidéo à partir d’un bout de plastique avec des milliards de micro-cuvettes ! Ce vidéodisque était la version Thomson du disque optique qui a vu le jour dans le grand public sous le nom de Laservision porté par l’alliance Sony Philips. La version de Thomson portait sur un disque transparent et souple alors que Philips défendait une version réflective sur un disque d’1mm d’épaisseur . L’absence de protection des micro cuvettes du disque Thomson a causé sa perte ainsi que la stratégie de Thomson mais le système de lecture étant similaire, c’est avec les brevets que Thomson a gagné beaucoup d’argent sur tous les lecteurs de CD et de DVD vendus dans le monde. Ma mission était de récupérer le savoir-faire de l’équipe parisienne et de transformer leur maquette en un produit grand public pour la partie électronique. L’arrêt du projet de vidéodisque grand public m’amènera de manière fortuite à la création du TO7.
Binaire: Thomson à l’époque, c’est quelle entreprise ?
ML : Thomson-Houston est déjà un grand groupe alliant électronique grand public (radio, électrophone, machine à laver, réfrigérateurs…), électronique professionnelle et militaire (Thomson CSF). Le LCR où naîtra le vidéodisque est le laboratoire de recherches de l’ensemble du groupe. La division grand public a de nombreuses usines en France : Angers et Saint Pierre Montlimart pour la télévision, Moulins pour l’audio, la Roche sur Yon (machine à laver le linge) et bien d’autres. Le groupe comprend plus de 40 000 personnes à l’époque et détient même une majorité des parts de CII-Honeywell. La situation évoluera avec la nationalisation du groupe en 1982.
Binaire: Peux tu nous décrire le paysage de la micro informatique en France à cette époque ?
ML : Quand on me demande en 1979 de choisir le micro-ordinateur que le groupe va revendre, je m’adresse aux fabricants américains car il n’existe pas de marché en France mais on commence à entendre parler d’Apple, de Commodore, d’Atari… Les dirigeants de Thomson et les équipes marketing ont entendu parler du phénomène qui se développe aux US avec l’arrivée de l’ordinateur individuel dans les foyers américains. L‘objectif principal était de suivre ce qui se passait aux Etats-Unis et d’être présent sur ce marché qui apparaissait prometteur aux US. Quand nous arrivons avec le TO7. Quand le TO7 sortira, près de trois ans après, de nombreux concurrents se sont déjà positionnés sur le marché français mais le TO7 trouvera sa place grâce à son orientation éducative et les accords avec VIFI Nathan qui permettront au TO7 de passer la barrière habituelle que le public français crée à l’arrivée d’une nouvelle technologie ! Ce choix judicieux pour le marché français constituera un obstacle infranchissable pour adresser les autres marchés !
Binaire: On fait comment pour fabriquer un PC dans les années 70 ?
ML : À la fin du vidéodisque grand public, mon patron moulinois m’a proposé de rechercher un micro-ordinateur pour le revendre dans le réseau Thomson. La recherche se solda par un échec et poussé par l’équipe grenobloise de Thomson semi-conducteurs, nous avons proposé d’en fabriquer un ! Je partais de rien. Je me suis appuyé sur les conseils et la volonté de l’équipe de Grenoble de Thomson semi-conducteurs qui me poussaient vers les puces 6800 pour le microprocesseur et vers les chips de TV Antiope pour la vidéo. Ensuite faute d’expertise en logiciel, on a embauché José Henrard, chercheur en sociologie au CNRS, qui bricolait dans le labo de Mr Dupuis à Jussieu et qui avait développé une maquette basée sur un microprocesseur 4 bits. Il avait conçu le moniteur pour la faire fonctionner. Avec ces deux éléments, on a réalisé la première maquette wrappée du T07 avec un microprocesseur 6800, et une interface vidéo réalisée avec 70 circuits TTL. Le tout fonctionnait avec un moniteur et un crayon optique conçu que j’avais conçu. Inutile de dire que cela n’a pas fonctionné du premier coup, mais à force de travail acharné de toute l’équipe on a pu réaliser une démonstration à la direction générale dans des conditions assez rocambolesques !
Binaire: quels rôles pour l’ADI, le centre mondial de l’informatique et l’éducation nationale dans cette aventure ?
ML : Je suis mal placé pour juger du rôle du centre mondial de l’informatique car c’est plutôt José, situé à la SIMIV à Paris, qui avait les relations avec le monde politique. Tout ce que je sais c’est que les relations n’étaient pas les meilleures car JJSS poussait plus pour les produits Apple que vers les TO/MO. Il a, avec quelques autres acteurs du monde éducatif savonner la planche du plan informatique pour tous et a surtout œuvré pour qu’Apple soit l’ordinateur du plan IPT. Je pense qu’il y a eu un apport positif avec Seymour Papert et Logo que l’on utilisé sur le TO7.
Binaire: quel est l’un de tes plus beau souvenir ?
ML : J’en citerai plusieurs :
- l’apparition de la première image sur l’écran et le pilotage par le crayon optique
- le passage de la première pub (les rois mages) à la TV juste avant Noël
Binaire: quelle est ta plus grande fierté ?
ML : Il est clair que ma plus grande fierté a été de voir les TO7 dans les écoles et de pouvoir en faire bénéficier les élèves des classes de mes enfants. De voir les yeux émerveillés des enfants dans la classe de mon fils quand ils faisaient du dessin avec le logiciel PICTOR et le crayon optique. C’est aussi de savoir que de nombreuses personnes sont devenus informaticiens ou tout au moins se sont initiés à l’informatique grâce à ces produits.
Le plus étonnant est de voir encore les fans (nombreux) jouer sur ces produits (ou émulateurs), créer de nouveaux jeux , faire des compétitions! Depuis la sortie du livre des témoignages touchants me racontent avec émotion la place qu’avait pris les TO7 dans leur enfance. Utilisations originales : accord avec Légo pour piloter les moteurs de constructions Légo, pilotage d’outils de laboratoire via l’interface IEEE, la tortue Logo…..
Binaire: des regrets ?
ML : Au niveau stratégique, de ne pas avoir su commuter au bon moment vers le domaine du jeu (tant au niveau hardware que bien sûr logiciel) et ainsi de nous permettre de mieux nous positionner sur le marché européen, et d’avoir été un acteur, malgré moi, des premières délocalisations avec le transfert de la fabrication du TO8 vers la Corée et vers Daewoo!
Pour aller plus loin:
- à propos du CMI : https://www.ina.fr/ina-eclaire-actu/video/cab8300029601/centre-mondial-informatique
- le livre « Le Thomson T07, succès controversé de la microinformatique française« , chez L’écritoire
04.10.2024 à 07:39
La plus grande panne informatique de tous les temps, en attendant la prochaine
binaire
Texte intégral (1614 mots)
Qui mieux que Rachid Guerraoui, un ami de binaire, pour nous parler de la grande panne informatique. Rachid est professeur d’informatique à l’École Polytechnique Fédérale de Lausanne (EPFL) et membre du comité de pilotage du Collège of Computing à l’UM6P. Il a été chercheur aux laboratoires Hewlett Packard de la Silicon Valley et professeur invité au MIT et au Collège de France. Serge Abiteboul et Pierre Paradinas.
Dans le film La Grande Vadrouille, Bourvil vole un uniforme de colonel allemand dans le hammam de la mosquée de Paris pour sauver un pilote britannique caché à l’opéra. Lors d’une représentation de Berlioz dirigée par De Funès devant les hauts gradés allemands, Bourvil, vêtu de son uniforme, accède aux coulisses sans être inquiété. La réalité dépasse parfois la fiction. En avril 2024, des malfrats ont dévalisé les habitants d’une petite commune française grâce à un stratagème ingénieux : l’un d’eux se faisait passer pour un plombier venu vérifier des fuites d’eau, puis ses complices, déguisés en policiers, prétendaient enquêter sur ce faux plombier pour accéder aux coffres des victimes.
Le monde numérique, lui, nous réserve des scénarios encore plus incroyables. Le vendredi 19 juillet 2024, des « policiers » virtuels ont pris la relève de leurs prédécesseurs pour mieux protéger les systèmes informatiques : aéroports, banques, hôpitaux, médias, administrations et entreprises. Leur mission : détecter d’éventuels intrus et les bloquer. Mais ces nouveaux « policiers », une fois introduits dans le cœur des systèmes, les ont bloqués au lieu de les protéger. Près de dix millions d’ordinateurs se sont arrêtés, entraînant un chaos mondial. Avant de tirer les leçons de cette panne informatique sans précédent, posons-nous quelques questions : Qui sont ces « policiers » ? Qui les a envoyés ? Pourquoi ont-ils remplacé les anciens systèmes qui semblaient fonctionner correctement ? Comment ont-ils pu pénétrer le cœur des systèmes et les bloquer à une telle échelle ?
Ces « policiers » sont des segments de programmes envoyés par des messages Internet aux systèmes Windows de Microsoft. Grâce à sa solution Office 365 (Word, Excel, PowerPoint, Outlook, Skype, Teams, etc.), Microsoft est le leader mondial de la bureautique, équipant plus d’un milliard d’utilisateurs. Windows, son système d’exploitation, fait tourner la majorité des ordinateurs de la planète. Les segments de programmes visent à renforcer la sécurité de Windows en s’intégrant au système existant pour contrôler son exécution.
Les messages contenant ces programmes sont envoyés automatiquement par le logiciel Falcon Sensor, hébergé sur le cloud pour le compte de Crowdstrike, un leader mondial de la cybersécurité. Crowdstrike s’est forgé une réputation grâce à ses enquêtes sur des cyberattaques majeures. Son logiciel Falcon Sensor analyse et bloque les attaques informatiques en s’adaptant de manière autonome aux nouvelles menaces, sans intervention humaine, ce qui a séduit Microsoft.
Ces mécanismes de défense jouissent de droits élevés (sous forme de « signatures »), et aucun autre logiciel ne peut les stopper. Ils s’introduisent au cœur du système Windows et s’exécutent avant les autres applications. Toutefois, le mécanisme envoyé le 19 juillet était défaillant. Une « erreur logique » dans un fichier de configuration critique a provoqué une « erreur physique » : des adresses mémoire ont été calculées incorrectement et affectées sans vérification, conduisant Windows à lancer sa procédure de blocage (« Blue Screen Of Death ») sur plus de 8 millions d’ordinateurs.
La panne a coûté plus d’un milliard de dollars. Elle aurait pu être pire, seulement 1 % des machines Windows ont été touchées, et l’envoi du mécanisme a été stoppé après 88 minutes. De nombreux vols ont été annulés, et des interventions médicales reportées, mais heureusement, aucune perte humaine n’est à déplorer.
Deux fausses bonnes idées ont été proposées par certains médias au lendemain de la panne :
- Revenir au crayon et au papier pour se passer du numérique. C’est juste est irréaliste parce que le numérique fait désormais partie intégrante de notre quotidien.
- La souveraineté numérique n’aurait pas prévenu la panne. Les États-Unis, très autonomes dans ce domaine, ont été touchés. Le fait que certains pays, comme la Chine et la Russie, s’en soient mieux sortis tient simplement à ce qu’ils n’utilisent pas Windows et Crowdstrike.
Par contre, je retiendrais au moins trois leçons de la panne :
- Le numérique est un ensemble : les données, l’IA, les réseaux, les systèmes d’exploitation, la sécurité, etc., sont interconnectés et doivent être traités de manière globale. La conception d’un logiciel doit être vérifiée de bout en bout avec des méthodes de génie logiciel. Ajouter des segments de programmes à un logiciel certifié, sans revalider l’ensemble, est une faute grave.
- La probabilité d’erreur n’est jamais nulle, même avec des tests et vérifications. Il ne faut donc pas dépendre d’une seule infrastructure. Ici, des millions de machines cruciales étaient toutes sous le même système d’exploitation et logiciel de sécurité. Espérons que les infrastructures informatiques ne dépendront plus uniquement de Microsoft et Crowdstrike à l’avenir.
- Les architectures ouvertes et décentralisées sont essentielles. La plateforme blockchain de Bitcoin, attaquée régulièrement, fonctionne sans accroc majeur depuis 2009. Bien que le code soit accessible et modifiable par tous, il ne peut être déployé que s’il est accepté par la communauté, contrairement au code fermé de Falcon Sensor, déployé de manière non transparente.
En résumé, un logiciel devrait être considéré dans son intégralité et il faudrait vérifier ses algorithmes et tester sa mise en œuvre de bout en bout ; on ne doit pas dépendre d’un seul type de logiciel pour une infrastructure. critique ; et il faudrait privilégier les architectures ouvertes et décentralisées. Le législateur pourrait imposer aux sociétés informatiques d’ouvrir leurs logiciels et d’offrir des interfaces standards pour diversifier les fournisseurs. La résilience de l’infrastructure DNS, grâce à la diversité de ses implémentations, prouve que cet objectif est réalisable.
Rachid Guerraoui, EPFL
27.09.2024 à 07:09
IA générative et désinformation : quel impact sur les rapports de force existants en géopolitique ?
binaire
Texte intégral (7571 mots)
Alice, Clara et Ikram abordent dans cet article les sujets complexes que sont l’IA générative, la désinformation, les rapports de force et la géopolitique. Ce travail pluridisciplinaire a été présenté à la journée scientifique “Société et IA” à PFIA 2024 à La Rochelle, et est disponible au lien HAL suivant. Il se veut factuel et sans jugement quelconque vis-à-vis d’un pays ou d’une communauté, à des fins d’acculturation et de médiation scientifique pour le grand public et les chercheurs en IA. Les conflits abordés ici sont non-exhaustifs et ne reflètent aucunement un ordre d’importance dans leur présentation ou une vision manichéenne quelconque. Le choix a été réalisé selon la littérature et les expertises des autrices. Consciente qu’elles n’amènent pas forcément de réponses tant les sujets sont complexes et quelques lignes ne suffiraient pas à cela, elles souhaitent cependant par ces même lignes, éveiller les esprits citoyens du monde sur un sujet qui va au-delà des frontières géographiques. Cet article engage les autrices – avec leurs propres biais socio-culturels – et uniquement elles. Aucunement les institutions citées. Thierry Viéville et Pascal Guitton.
INTRODUCTION : Désinformation et Mésinformation, premier risque mondial en 2024
Janvier 2024. 19 000 électeurs taïwanais choisissent d’élire les candidats partisans de l’autonomie malgré le contexte de fortes pressions militaires de la part du Parti Communiste Chinois. Près de 15 000 contenus de désinformation auraient circulé sur les réseaux dans l’objectif d’influencer l’issue de ces élections. Au même moment sur le continent américain, Microsoft alerte sur l’utilisation d’IA générative à l’encontre des Etats-Unis par ses adversaires principaux dans l’échiquier mondial : la Corée du Nord, l’Iran, la Russie et la Chine.
L’IA générative semble permettre la création de nombreux narratifs de désinformation, de meilleure qualité et personnalisés. Mais de quelle manière influencent-ils les rapports de forces existants en géopolitique ?
Cette année plus de la moitié de la population mondiale est appelée aux urnes. Depuis plusieurs mois, les médias à travers le monde s’interrogent sur le risque pour nos démocraties et mettent en avant l’accessibilité et la facilité d’utilisation des outils d’IA générative qui circulent sur internet depuis la sortie de ChatGPT comme peut en témoigne la Figure 2.
Or les journalistes ne sont pas les seuls à s’inquiéter, l’écosystème économique mondial également. En effet, un sondage réalisé par le Forum Économique mondial a placé début 2024 la désinformation et la mésinformation – qui seront défini plus tard – comme premier risque mondial à court terme, avant même les risques climatiques extrêmes (Figure 3).
A ce stade, il est légitime de se demander “Pourquoi est-ce que l’IA générative inquiète autant ?”
Fin 2023, on a observé en France un changement de paradigme sur la perception du grand public de l’IA générative : les journaux télévisés (JT) des chaînes de télévision françaises (TF1, M6, France Info) ont commencé à aborder l’IA générative de manière régulière et cela de manière ludique, avec par exemple l’utilisation d’une image du pape en doudoune (figure 4), alors que jusque là l’IA était majoritairement abordée que lors de reportages ou de moments spécialement dédiés à la technique ou l’innovation.
Cette survenue du sujet de l’IA générative dans les JT grand public a eu pour conséquence d’acculturer et d’informer le grand public de l’émergence et du développement de ces outils tout en les sensibilisant aux fait que ces mêmes outils peuvent être utilisés pour des arnaques très réalistes et de la désinformation.
Par exemple, un exemple ludique serait l’image du Pape en doudoune. Si celle-ci peut prêter à sourire en France, elle peut paraître également vraisemblable et “fort probable” depuis l’étranger. Si par exemple, dans certains pays étrangers, 20 degrés est une température très fraîche qui nécessite un manteau chaud, il est alors possible de penser que le pape François a simplement eu froid un jour d’hiver et que la photo est vraie.
Vraisemblable :
|
Si cet exemple a en réalité peu d’impact sur la dimension géopolitique, il reflète néanmoins une réalité : celle qu’il est possible de profiter de la méconnaissance ou ignorance d’un public cible d’un sujet pour manipuler son comportement au travers d’une stratégie de désinformation.
Afin d’illustrer l’impact au niveau des sociétés, nous pouvons prendre l’exemple d’une image de la tour Eiffel en feu (Figure 4) diffusée sur les réseaux sociaux quelques semaines après l’incendie de notre dame de Paris. Si l’on se rappelle du contexte des manifestations des gilets jaunes quelques mois auparavant et comment elles ont été véhiculé à l’étranger, alors il est légitime de voir émerger une inquiétude hors de France (voir même sur le sol Français) en lien avec cette image vraisemblable. Une conséquence possible : une baisse/annulation des réservations touristiques à Paris!
Il existe donc un impact réel de l’IA générative au niveau individuel et par extension un impact réel au niveau des sociétés civiles, mais qu’en est-il au niveau de la géopolitique et des rapports de forces ? S’il est possible de véhiculer une information “vraisemblable” à l’étranger concernant une situation politique, militaire ou sociétale, cela peut-il impacter les dynamiques entre les pays au niveau politique ? Cela peut-il changer les rapports de force en géopolitique?
Une rapide revue de la littérature réalisée au premier semestre 2024 – beaucoup de littérature et d’analyse d’experts autour de la question du rôle et de l’impact de l’IA générative sur la diffusion de désinformation ont émergé durant cette période là – laisse entendre que deux courants se distinguent lorsqu’il s’agit d’évaluer l’impact en géopolitique : (i) ceux qui considèrent que l’IA générative est une source de danger en matière de désinformation et (ii) ceux qui considèrent que l’arrivée des systèmes génératifs ne change pas fondamentalement la donne, ni sur le plan qualitatif, ni sur le plan quantitatif.
C’est dans ce contexte que nous avons souhaité aborder la problématique suivante : Quelle est l’instrumentalisation de l’IA générative dans les dynamiques de désinformations mondiales et son impact sur les rapports de forces existants ?
Afin d’apporter des éléments de réponse à notre questionnement, nous partageons une analyse factuelle préliminaire autour de 3 rapport de forces, ainsi que la guerre de l’information sous-jacente en lien avec l’utilisation de l’IA générative et la désinformation : La Chine vs Taïwan, les États-unis vs leurs adversaires et enfin la Russie vs l’Ukraine.
Mais avant cela, il semble nécessaire de poser un cadre au travers de quelques définitions.
IA générative & désinformation, définitions
Une IA générative désigne l’ensemble de modèles de deep learning capables de générer du texte, des images et d’autres contenus de haute qualité à partir des données sur lesquelles elles ont été formées [3]. Deux caractéristiques importantes à saisir des IA génératives sont : (1) leur pouvoir de générer du contenu vraisemblable, à savoir plausible; (2) leur simplicité d’utilisation et d’accès pour tous les profils et toutes les intentions. Et c’est justement au croisement de ces deux dimensions que se trouve le danger !
La désinformation est définie comme l’acte de répandre intentionnellement une information fausse ou manipulée dans le but d’alimenter ou miner une idéologie, concernant des enjeux sociétaux, des débats politiques ou encore des conflits sociaux [1]. Se distinguant de la mésinformation et de la malinformation (figure 5) – qui consiste, respectivement en la diffusion d’informations incorrectes mais sans intention malveillante et en la diffusion délibérée de vraies informations dans un but nuisible – , la désinformation peut s’inscrire dans une dynamique de guerre de l’information.
Cette dernière est considérée comme la conduite d’« efforts ciblés » visant à entraver la prise de décision d’un adversaire en portant atteinte à l’information dans son aspect quantitatif (collecte ou entrave à la collecte d’information) aussi bien que qualitatif (propagation ou dégradation) [4].
Dans cette guerre de l’information, des rapports de force existent : ils représentent l’équilibre des pouvoirs dans le système international face aux États les plus puissants. Ils peuvent être internes par le biais de la construction de sa propre force étatique, et externes avec la recherche d’alliances.
Chine vs Taiwan : Le “système immunitaire” de Taiwan
Les outils d’IA génératives démocratisent la création de désinformation de meilleure qualité et en grande quantité.
La quantité et la qualité des narratifs sont certainement des arguments cherchant à prouver l’impact de l’IA générative dont vous avez déjà entendu parler.
Mais pour Simon, Altay et Mercier, ces arguments peuvent tout de même être nuancés [5].
“La consommation de désinformation est principalement limitée par la demande et non par l’offre.”
Il existe déjà une quantité énorme de narratifs de désinformation accessibles à tous sur internet, et ce bien avant le boum de l’IA générative. Manipuler des images, cibler des populations, créer des vidéos entretenant le flou entre réalité et fiction… Tous ces usages font déjà partie intégrante de la guerre de l’information.
Pourtant une large partie de ces contenus n’est pas consommée et une majorité d’entre nous n’y sommes pas exposés. Pourquoi cela ? car la consommation de désinformation est fonction de la demande et non pas de l’offre. Simon, Altay et Mercier argumentent leur proposition en mettant en avant, entre autres, les travaux de recherche autour de l’attention cognitive : notre capacité d’attention étant finie, le nombre de contenus pouvant devenir viraux sur internet l’est aussi.
Par ailleurs, pour que les effets de l’IA générative fassent pencher la balance en faveur de la désinformation, il faudrait une augmentation de l’attrait de la désinformation 20 à 100 fois plus importante que l’augmentation de l’attrait des contenus fiables.
Un élément clé mis en avant par les études de sciences humaines et sociales est que les consommateurs de désinformation ne sont pas plus exposés à la désinformation mais sont surtout plus enclins à la croire.
Le problème n’est pas que les gens n’ont pas accès à de l’information de qualité mais qu’ils la rejettent.
Si le fait d’être enclin à croire ou pas en la désinformation, donc d’y avoir été sensibilisé, représente un rempart contre l’efficacité de l’IA générative dans le domaine, Taïwan l’illustre avec son exposition régulière à la désinformation et le développement en interne d’un système immunitaire de réaction.
Ce système immunitaire de l’île a pu être mis à l’épreuve lors des élections présidentielles de janvier 2024. Malgrè un volume important d’environ 15 000 fausses informations propagées par la Chine, celles-ci n’ont pas eu d’incidence majeure. Cela s’explique par un contexte particulier avec des tensions historiques et une population qui s’attendait aux velléités d’ingérence chinoise.
De plus, ces élections ont été particulières non seulement pour l’enjeu considérable en pleine tension avec le Parti Communiste Chinois, mais également pour l’aspect tripartite des candidatures. Un nouveau parti, le Parti populaire taïwanais, apprécié par la jeunesse, a fait son apparition dans la course au pouvoir. Se présentant comme une alternative aux partis traditionnels bleu et vert, il promeut une vision s’alignant avec le Kuomintang, le Parti nationaliste chinois à propos d’un rapprochement économique avec la Chine, les opposant ainsi avec le Parti démocrate progressiste, parti sortant qui s’est révélé victorieux. Le candidat de ce dernier, William Lai, a été l’objet de nombre d’attaques à but de désinformation au préalable des élections. L’une d’entre elles, provenant d’une chaîne YouTube relayant du contenu politique, a posté une vidéo où le candidat du camp présidentiel fait l’éloge d’une alliance entre bleu et blanc, indiquant qu’un binôme qui en serait issu, “qu’importe lequel est président ou vice-président, n’importe quelle combinaison peut être une bonne équipe.”[6]
La volonté de la Chine est également d’amener l’opinion publique taïwanaise vers l’unification voulue par le Parti avec la diffusion de narratifs visant à dépeindre un portrait négatif des États-Unis. Dans les thématiques de ces narratifs générés par IA (audios et vidéos) on peut citer : les politiques gouvernementales, les relations entre les deux rives du détroit et la suspicion à l’égard des États-Unis. La puissance américaine est désignée comme un ennemi, une tactique de propagande traditionnelle, ce qui fait que si l’IA exacerbe effectivement des dynamiques de désinformations existantes, elle n’en change pas fondamentalement les mécaniques. Si l’IA générative n’augmente pas la demande de désinformation, alors l’augmentation de l’offre ne peut avoir que peu d’impact.
La stratégie longue-termiste de la Chine passe notamment par TikTok pour atteindre les jeunes générations taïwanaises. Si l’IA générative permet ici d’exacerber des dynamiques de désinformations, ces dernières étaient déjà existantes. Cette technologie ne semble donc pas changer fondamentalement les mécaniques existantes de la désinformation[4]. C’est l’alliance de l’IA générative et des plate-formes de diffusion, ou médias alternatifs, qui joue un rôle important dans la propagation rapide et efficace de cette désinformation.
Les États-Unis vs leur adversaires : La guerre des bots
Les narratifs de désinformation, qu’importe leur qualité et leur quantité, ne pourraient trouver leur public cible sans moyens de diffusion. Au-delà de médias plus ou moins affiliés à des Etats, les plateformes en elles-mêmes représentent des actrices à part entière d’évènements sociaux et politiques, comme lors du Printemps arabe, des Gilets Jaunes ou plus récemment l’assaut du Capitole.
Les préoccupations quant à leur responsabilisation, notamment dans la propagation des informations, étaient présentes bien avant que l’IA générative ne soit démocratisée.
Les inquiétudes s’intensifient face à la nouveauté de la technologie et aux nombreux enjeux électoraux de cette année mais ces plateformes ont toujours agit comme des “caisses de résonance” pour les vidéos émotionnelles qui y deviennent virales. Lors des élections de 2016 opposant Hillary Clinton à Donald Trump, une guerre d’influence se menait hors des plateaux télévisés. Des messages postés en masse par des bots – logiciels qui exécutent des tâches automatisées, répétitives et prédéfinies – sur les réseaux sociaux ont été répandus en faveur des deux candidats, profitant notamment des bulles d’activité des internautes sur les sujets de politiques après des débats diffusés. Leur activité et réactivité intensives se mêlent donc aux fervents soutiens des partis opposés, facilitant l’intrusion de fausses informations entre deux opinions. Leur viralité sur les réseaux sociaux, en plus de servir des causes politiques, peuvent également générer du trafic profitable pour les plateformes, dont une modération accentuée est attendue de leur part sur ces sujets[7].
On y retrouve les dynamiques propres à la guerre de l’information dans son aspect qualitatif, notamment à travers la collaboration entre plateformes et États, un exemple notoire étant la surveillance de masse initiée par les agences gouvernementales américaines. En ce sens, on décèle des rapports de force autant dans le volet offensif que défensif, bien qu’ils soient de nature asymétrique dans leur portée. Au sein des instances occidentales, TikTok alarme par son lien étroit avec le Parti Communiste Chinois, qui fait de la plateforme une caisse de résonance considérable face à la popularité des plateformes américaines.
A l’inverse, Microsoft avait alerté en début d’année sur l’utilisation d’IA générative à l’encontre des Etats-Unis par ses adversaires principaux dans l’échiquier mondial : la Corée du Nord, l’Iran, la Russie et la Chine[8]. De par leur importance primordiale dans le paysage numérique et géopolitique, les plateformes possèdent une influence tentaculaire, dont les algorithmes facilitent la propagation de l’information ainsi que la personnalisation et le ciblage.
Russie vs Ukraine : Zelensky appelle à déposer les armes
La diffusion massive de désinformation s’est illustrée également par la multiplicité de deepfakes qui est apparue dans les guerres d’informations de toutes natures, mais qui prend également part dans le conflit armé qui oppose la Russie à l’Ukraine.
Un deepfake correspond à du contenu multimédia (vidéo, image ou audio) généré par IA pour des canulars ou des infox. Par définition, un deepfake véhicule un contenu faux mais de haute qualité lui donnant un aspect vraisemblable. Parmi les exemples les plus connus se trouve la vidéo de 2018 de Barack Obama critiquant Donald Trump, et celle du pape qui fait de la magie.
Dans le contexte du conflit Ukraine-Russie, le deepfake du président ukrainien appelant à déposer les armes (Figure 1), rapidement débunké et désormais supprimé, illustre la diffusion massive de désinformation comme extension de l’effort de guerre. Dans ce conflit où le monde occidental prend parti, la personnalisation de la désinformation russe s’est également étendue à des publics différents. Notamment en Afrique et au Moyen-Orient, où une désinformation traditionnelle est également propagée, en attribuant par exemple l’insécurité alimentaire aux sanctions occidentales. La différence ici est la démocratisation du deepfake combinée à des technologies de ciblage dans le but d’éroder la confiance dans une institution ou une personnalité politique, mais véhiculant finalement les mêmes narratifs dans le prolongement des stratégies existantes de désinformation.
Par ailleurs, dans le cas du conflit russo-ukrainien, la diffusion massive de désinformation russe a été personnalisée pour atteindre différents publics en Afrique et au Moyen Orient. Ici c’est l’alliance des deepfakes et des technologies de ciblage dans le but d’éroder la confiance dans une institution ou une personnalité politique qui est à relever, en permettant de donner une réalité aux narratifs des stratégies existantes de désinformation.
Sur les réseaux sociaux, on trouve 15 à 20% de personnes persuadées pour ou contre une information et les 60% restants sont indécis. Ce sont eux qui vont être ciblé avec l’objectif soit de les faire changer d’avis soit de figer leur opinion, leur retirant ainsi leur capacité à prendre une décision face à l’information.
Un enjeu que l’on peut également mettre en lumière est celui du timing : par exemple, en France, des faux documents fuités la veille des élections présidentielles de 2017 cherchant à incriminer Emmanuel Macron, n’ont pas eu d’incidence majeure sur les élections de par leur caractère relativement ennuyeux et le fait qu’en France, la couverture médiatique des élections est interdite 44 heures avant le vote. Mais un deepfake partagé sur les réseaux sociaux moins de 44 h avant des élections auraient pu avoir des conséquences importantes.
Zoom sur “Inde vs Inde : un rapport de force entre ethnies?”
En Inde, citoyens et politiciens ont bien compris l’intérêt de l’IA générative et l’ont pleinement intégrée dans leurs stratégies de campagne électorale. Parmi les utilisations recensées, on trouve : (i) des messages passés, personnalisés et relayés dans les différents dialectes par les candidats, (ii) des appels automatiques avec la voix des candidats pour encourager les votants en leur faveur, et (iii) une résurrection numérique d’anciens chefs d’Etat décédés pour soutenir leurs successeurs politiques. Les deepfakes ici ne sont pas perçus d’un prisme négatif et accompagnent les ambitions et la volonté de toucher une large audience. Leur utilisation prend ses racines à travers le cinéma bollywoodien qui cultive les mêmes motivations (i.e. large public et multilingue), allant jusqu’à créer des métiers spécialisés dans la production de fausses images et faux sons. Ces derniers ont été approchés par des partis candidats dans plusieurs buts : répandre de la désinformation à propos d’adversaires politiques mais aussi d’altérer leurs propres vidéos, en remplaçant par exemple le visage d’un candidat sur une vidéo véridique par ce même candidat afin d’altérer les caractéristiques de la vidéo (les méta-données). L’objectif ? Inciter l’opposition à partager la vidéo altérée avant de la déclarer falsifiée — et donc miner leur crédibilité. De ce fait, ces candidats anticipent la désinformation à leur égard en contrôlant — à peu près — ce qui est faux ou non, afin de s’ériger en victime et mieux contrôler l’opinion publique. Ces dynamiques révèlent non seulement une véritable adaptation professionnelle et presque institutionnalisée des deepfakes, mais également de véritables stratégies allant au-delà d’une propagation offensive et d’un debunk défensif. C’est la raison pour laquelle le gouvernement de Narendra Modi, premier Ministre Indien, a déclaré une volonté de réguler l’IA en amont des élections législatives indiennes qui ont eu lieu cette année, revenant sur sa position de ne pas intervenir dans le secteur. Ce sursaut est-il à percevoir comme une crainte de perturbation électorale qui pourrait desservir son maintien au pouvoir ou comme une véritable volonté d’éviter une démocratisation de la désinformation ? Soulignons que ces plans de régulation ont été annoncés suite à la réponse positive de Gemini, le chatbot de Google, concernant une question portant sur le caractère fasciste de Modi (Figure 9). Pour en savoir plus : https://www.bbc.com/news/world-asia-india-68918330 ; https://www.wired.com/story/indian-elections-ai-deepfakes/ ; https://www.youtube.com/watch?v=V_NN13Eu8yc |
Peut-on lutter contre la désinformation ?
En résumé, à ce stade de l’étude, il semblerait que bien que ces systèmes d’IA générative n’affectent pas directement les rapports de force mondiaux, ils restent indéniablement un outil de la Guerre de l’information.
En Europe, la protection des citoyens repose en très grande partie sur la richesse et la complexité des réseaux médiatiques et la prise à bras le corps du sujet par les pouvoirs publics.
Par exemple en France, le ministère de la culture écrit : “Les médias traditionnels, presse, radio, télévision, traversent le temps, fascinent et occupent une place à part dans nos vies. Ils sont les garants d’une information fiable dans un monde où chacun semble asséner ses vérités et ses contre-vérités.”
Autrement dit, à l’heure ou les réseaux sociaux s’érigent en plateformes simplifiées d’accès instantané à une connaissance démocratisée pour le grand public – voir à tous types de connaissances, vérifié ou non, scientifique ou non -, il y a une volonté de mettre en lumière les médias traditionnels comme force et acteur d’une information “vérifiée/validée”.
Mais est-ce réellement le cas ? Les médias traditionnels sont-ils à l’abri de la désinformation par l’IA générative ? Sont-ils la solution?
Malheureusement ce n’est pas aussi simple. Du fait que les journalistes sont aussi des humains dotés de ressources cognitives limitées et de biais cognitifs, ils ne sont pas à l’abri de ne pas repérer l’information erronée ou vraisemblable cachée parmi la masse (des milliers) de contenus existants pour un sujet donné.
Or le travail de vérification – appelé aussi fact-checking en anglais- de la véracité des faits, ou d’une information, des sources de celle-ci, de sa temporalité est une partie inhérente du métier de journaliste : nécessaire, chronophage et énergivore. Des cellules spécialisées dans le repérage de la désinformation se sont de plus en plus développées dans les rédactions de médias traditionnels afin de garantir l’information. Mais la aussi, elles sont submergées de travail depuis déjà plusieurs années.
Sans compter que plus un sujet est complexe avec un impact sociétal important plus il nécessite de la vigilance – elle même coûteuse au niveau cognitif – et du temps ou des moyens humains et techniques.
Face à ce sujet titanesque de recherche d’erreurs et de mensonges dans la masse d’informations diffusées chaque jour sur l’ensemble des plateformes, des partenariats journalistes-chercheuses/chercheurs se sont développés pour doter ce corps de métier d’outils d’IA et de science des données spécialisée dans la catégorisation et labellisation les contenus trouvés sur internet pour réaliser leur travail.
Si ces outils ne permettent pas d’atteindre 100% de précisions des informations, et que l’humain est toujours le paramètre incontournable et nécessaire, ils représentent néanmoins une aide précieuse pour les journalistes débutants et plus expérimentés pour s’adapter à cette ère de la consommation rapide et multi-plateforme de l’information.
Le risque de désinformation est-il écarté une fois le deepfake détecté ?
Malheureusement, là aussi ce n’est pas aussi simple.
Un deepfake détecté implique sa non utilisation par les médias traditionnels voir sa labellisation officielle “d’information fausse” via une communication officielle par des autorités compétentes.
Mais cela n’implique nullement sa suppression d’internet. Au contraire, cela peut renforcer dans certaines communautés, le caractère “vérité” du deepfake et certains discours complotistes. Cela peut même contribuer à leur propagation.
Autrement dit, les deepfakes qui ne sont pas assez viraux pour être immédiatement démystifiés, démenties, influencent tout de même l’opinion du public simplement parce qu’ils ne font pas la une des journaux et autres médias traditionnels. Ils peuvent donc avoir un impact immédiat sur la confiance des citoyens dans les médias et les autorités publiques.
Les mettre de côté peut contribuer à les renforcer, ainsi que les utiliser… ils occupent ainsi le paysage médiatique et suscite le débat… Et c’est en cela qu’ils sont dangereux.
En attendant, l’organisation NewsGuard, dédiée à l’évaluation et la certification des sites web d’information, et spécialisé dans l’analyse le degré de crédibilité et de transparence des sites d’information, conseille de procéder directement par source afin d’éviter les goulots d’étranglement dans le traitement du fact checking par articles. En 2022, l’organisation alertait sur le financement par Google de sites internet (116 identifiés) propageant des fausses informations sur la guerre en Ukraine : La situation a depuis été traitée par Google, qui affirme avoir arrêté de monétiser les médias financés par l’Etat russe sur ses plateformes et mis en pause Google Ads en Russie.
Ce financement de sites de désinformation n’est pas volontaire car les bannières publicitaires sont placées par des algorithmes, néanmoins il reflète une réalité : la vitesse des transactions et des instructions sur internet, allié à la masse de l’information à traiter font que les algorithmes peuvent promouvoir, ou ici financer de la désinformation. Selon NewsGuard, chaque année, près de 2,6 milliards de dollars (2,38 milliards d’euros) de revenus publicitaires viennent gonfler les poches des sites de désinformation.
Un des objectifs pourrait donc de faire évoluer la publicité programmatique, pratique consistant à créer des publicités numériques à l’aide d’algorithmes et à automatiser l’achat de médias, afin qu’elle puisse prendre en compte les sites de désinformation.
Que conclure?
Il faut penser la désinformation comme un problème politique, sociétal, d’éducation au numérique et non uniquement technologique.
Johan Farkas, professeur adjoint en études des médias à l’université de Copenhague, prône que « considérer l’IA comme une menace retire la responsabilité de la désinformation au système politique » .
Or les guerres d’informations découlent de rapports de force complexes entre de plusieurs acteurs politiques, sociétaux et technologiques. Ils sont du fait d’acteurs bien humains car ils se caractérisent par la quantité, la qualité et la personnalisation de la désinformation, tel qu’illustré à travers les trois cas d’études cités. Une intention avec un objectif clairement établi guide les stratégies dans les contextes de guerre de l’information or l’intention, à l’heure actuelle, est une caractéristique encore très humaine.
Pour l’ensemble de ces raisons, et en accord avec la thèse de Simon, Altay et Mercier [5], l’IA générative, bien qu’elle soit un bouleversement dans nos sociétés, peut être considérée comme un nouvel outil au service de la désinformation certes, mais un outil qui ne change pas les rapports de force existants. En effet, les parties politiques et les gouvernements impliqués ont su s’adapter et intégrer cette nouvelle famille d’outils dans leur procédés et stratégies.
Alors que faire à ce stade en tant que citoyens et citoyennes d’un monde ultra-connecté face à ce risque de désinformation ?
A défaut d’apporter ou de trouver une réponse claire, nous synthétisons les résultats de nos recherches par un triptyque “Éduquer les plus jeunes, Acculturer le grand public et Former les formateurs (enseignants, professionnels, etc)” à l’IA, son impact sociétal, mais également aux biais cognitifs, biais culturels dans l’information, à la littératie médiatique (désinformation, malinformation, deepfake) et à garder son esprit critique même lorsque l’information est vraisemblable!
En créant, ensemble une culture générale pluridisciplinaire accessible – avec de la médiation scientifique par exemple comme avec Binaire – au croisement du numérique et des sciences humaines et sociales, il serait alors peut-être possible de préserver les individus et sociétés sur les échiquiers des rapports de force en géopolitique.
Références
[1] Courrier international. “Élections. IA et désinformation, le cocktail explosif à l’assaut de nos démocraties”, 2024 (date accès : 27/08/2024) URL : https://www.courrierinternational.com/article/elections-ia-et-desinformation-le-cocktail-explosif-a-l-assaut-de-nos-democraties
[2] The World Economic Forum. Global risks report 2024, 2024.
[3] W Bennett and Steven Livingston. The disinformation age. Cambridge University Press, 2020.
[4] Dragan Z Damjanovic. Types of information warfare ´ and examples of malicious programs of information warfare. Vojnotehnicki glasnik/Military Technical Courier, 65(4) :1044–1059, 2017.
[5] Felix M Simon, Sacha Altay, and Hugo Mercier. Misinformation reloaded ? fears about the impact of generative ai on misinformation are overblown. Harvard Kennedy School Misinformation Review, 4(5), 2023.
[6] « Seeing is not believing—deepfakes and cheap fakes spread during the 2024 presidential election in Taiwan » . 台灣事實查核中心, 25 décembre 2023, tfc-taiwan.org.tw/articles/10025.
[7] Silva, Leo Kelion &. Shiroma. « Pro-Clinton bots “fought back but outnumbered in second debate” » . BBC News, 19 octobre 2016, www.bbc.com/news/technology-37703565.
[8] Intelligence, Microsoft Threat. « Staying ahead of threat actors in the age of AI » . Microsoft Security Blog, 3 juillet 2024, www.microsoft.com/en-us/security/blog/2024/02/14/staying-ahead-of-threat-actors-in-the-age-of-ai.
[9] Citron, D. K., & Chesney, R. (2019). Deepfakes and the new disinformation war. Foreign Affairs.https://perma.cc/TW6Z-Q97D
Les autrices en quelques mots :
Alice Maranne est Chargée de projets européens et collaboratifs et créatrice de contenu de médiation scientifique et technologique. Clara Fontaine-Say est étudiante en géopolitique et cybersécurité, elle crée également du contenu sur ces sujets d’un point de vue sociétal. Ikram Chraibi Kaadoud, Ambassadrice WomenTechMaker de Google, est chercheuse en IA explicable centrée-Humain et Chargée de projet européen IA de confiance passionnée de médiation scientifique.
20.09.2024 à 07:02
Le grand moissonnage des données personnelles
binaire
Continuer la lecture de « Le grand moissonnage des données personnelles »
Texte intégral (2769 mots)
L’IA, en particulier l’IA générative, nécessite de vastes quantités de données pour son entraînement. Certaines de ces données sont collectées directement auprès des individus, tandis que d’autres sont obtenues via une interface de programmation d’application (API) conçue pour une extraction et un partage consensuel des données. Toutefois, la majorité des données sont obtenues par moissonnage. Le moissonnage des données sur Internet consiste à utiliser des logiciels automatisés pour extraire des informations à partir de sites web ou de réseaux sociaux.
1 https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4884485
2 https://www.cnil.fr/fr/technologies/intelligence-artificielle-ia
Moissonnage et Intelligence Artificielle
Le moissonnage de données est un outil essentiel pour les chercheurs et les journalistes qui leur permet d’accéder à des informations cruciales pour leurs projets. En collectant rapidement des données issues de multiples sources, il facilite des recherches et des études qui seraient autrement impossibles. Cette collecte massive des données semble également être essentielle pour le développement et l’amélioration des modèles d’IA, car elle fournit les vastes quantités de données nécessaires à l’entraînement des algorithmes. Par ailleurs, en diversifiant les sources de données à travers différentes régions et cultures, le moissonnage peut aussi aider à éviter les biais dans les modèles d’IA.
Il est par ailleurs souvent avancé que ce moissonnage permet aux petites entreprises de rivaliser avec les grandes plateformes en facilitant l’accès à des informations, ce qui stimule la concurrence, l’innovation et la diversité technologique. Comme le souligne l’autorité de la concurrence dans son rapport sur l’IA générative3, les données, qu’elles soient textuelles, visuelles ou vidéo, sont essentielles pour les modèles de langage et proviennent principalement de sources publiques comme les pages web ou les archives web telles que Common Crawl4.
3 https://www.autoritedelaconcurrence.fr/fr/communiques-de-presse/intelligence-artificielle-generative-lautorite-rend-son-avis-sur-le
4 https://foundation.mozilla.org/en/research/library/generative-ai-training-data/common-crawl/
Moissonnage et vie privée
Bien que le moissonnage offre des avantages importants, il pose de nombreuses questions : protection du secret des affaires, secret industriel, propriété intellectuelle, rétribution des ayants droits et vie privée.
En ce qui concerne la protection de la vie privée, qui nous intéresse ici, le vaste moissonnage des données personnelles soulève des questions inédites. Comme le rappelle la CNIL, “La généralisation des pratiques de moissonnage a ainsi opéré un changement de nature quant à l’utilisation d’internet, dans la mesure où toutes les données publiées en ligne par une personne sont désormais susceptibles d’être lues, collectées et réutilisées par des tiers, ce qui constitue un risque important et inédit pour les personnes5.”
En effet, l’ampleur de ce moissonnage est sans précédent – la quantité de données, notamment de données personnelles, collectées par chaque moissonneur est stupéfiante.
Par exemple, OpenAI a certainement moissonné une partie non négligeable du Web et utilisé ces données pour entraîner les modèles GPT qui sous-tendent notamment ChatGPT. Des entreprises comme ClearviewAI et PimEyes ont moissonné des milliards de photos pour alimenter des outils de reconnaissance faciale. De nouvelles entreprises d’IA apparaissent à un rythme effarant, chacune ayant un appétit vorace pour les données.
Il est important de rappeler que, dans la plupart des juridictions et notamment en Europe, les données personnelles « publiquement disponibles » sur internet sont soumises aux lois sur la protection des données et la vie privée, notamment le RGPD (règlement général sur la protection des données). Les individus et les entreprises qui moissonnent ces informations personnelles ont donc la responsabilité de s’assurer qu’ils respectent les réglementations applicables. Par ailleurs, les entreprises de médias sociaux et les opérateurs d’autres sites web qui hébergent des données personnelles accessibles au public ont également des obligations de protection des données en ce qui concerne le moissonnage par des tiers sur leurs sites.
5 https://www.cnil.fr/fr/focus-interet-legitime-collecte-par-moissonnage
La consultation de la CNIL
La CNIL a régulièrement souligné la nécessité de vigilance concernant les pratiques de moissonnage et a formulé des recommandations pour leur mise en œuvre6. Elle a également demandé à plusieurs reprises un cadre législatif spécifique pour ces pratiques qui permettrait de sécuriser les organismes utilisant ces pratiques, de les encadrer, et de protéger les données personnelles accessibles en ligne7. La CNIL a parfois jugé ces pratiques illégales en l’absence d’un cadre juridique, par exemple lorsque utilisées par des autorités pour détecter des infractions ou lorsque des données sensibles sont collectées8. Cependant, elles ont été acceptées dans certains cas, comme la recherche de fuites d’informations sur Internet, à condition de mettre en place des garanties solides9. En attendant un cadre juridique spécifique, la CNIL rappelle les obligations des responsables de traitement et les conditions à respecter pour le développement de systèmes d’IA.
6 https://www.cnil.fr/fr/focus-interet-legitime-collecte-par-moissonnage
7 https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000047624863
8 https://www.cnil.fr/fr/reconnaissance-faciale-sanction-de-20-millions-deuros-lencontre-de-clearview-ai
9 https://www.cnil.fr/fr/la-recherche-sur-internet-de-fuites-dinformations-rifi
Alors que certains chercheurs, comme Solove et Hartzog, proposent de limiter le moissonnage uniquement aux projets d’intérêt public, le RGPD autorise, sous certaines
conditions, le moissonnage en cas d’intérêt légitime du moissonneur10. Le recours à cette base légale suppose que les intérêts (commerciaux, de sécurité des biens, etc.)
poursuivis par l’organisme traitant les données ne créent pas de déséquilibre au détriment des droits et intérêts des personnes dont les données sont traitées11. Le responsable du traitement doit notamment mettre en place des garanties supplémentaires pour protéger les droits et libertés des individus. La CNIL, dans sa fiche sur l’utilisation de l’intérêt légitime pour développer des systèmes d’IA, souligne que les mesures appropriées varient selon l’usage de l’IA et son impact sur les personnes concernées12. Elle recommande d’exclure la collecte de données à partir de sites sensibles ou s’opposant au moissonnage, et de créer une « liste repoussoir » permettant aux individus de s’opposer à la collecte de leurs données. La collecte doit se limiter aux données librement accessibles et rendues publiques intentionnellement.
De plus, il est conseillé d’anonymiser ou de pseudonymiser les données immédiatement après leur collecte, de diffuser largement les informations relatives à la collecte et aux droits des personnes, et de prévenir le recoupement des données en utilisant des pseudonymes aléatoires propres à chaque contenu.
10 D’autres bases légales, comme le consentement ou la mission d’intérêt public, sont aussi envisageables.
11 https://www.cnil.fr/fr/les-bases-legales/interet-legitime
12 https://www.cnil.fr/fr/focus-interet-legitime-collecte-par-moissonnage
Rendre le moissonnage techniquement plus difficile
Comme mentionné précédemment, les hébergeurs de données personnelles accessibles au public ont également des obligations de protection des données en ce qui concerne le moissonnage. Par exemple, plusieurs autorités de protection des données (APD) du monde entier ont soutenu, dans une déclaration conjointe sur le moissonnage, que les entreprises devraient mettre en œuvre des contrôles techniques et procéduraux multicouches pour atténuer les risques associés à cette pratique13. Ces APD indiquent que les sites web devraient mettre en œuvre des contrôles techniques et procéduraux multicouches pour atténuer les risques. Une combinaison de ces contrôles devrait être utilisée en fonction de la sensibilité des informations. Certaines de ces mesures de protection seraient la limitation du nombre de visites par heure ou par jour pour un seul compte, la surveillance des activités inhabituelles pouvant indiquer un moissonnage frauduleux et la limitation de l’accès en cas de détection, la prise de mesures affirmatives pour détecter et limiter les bots, comme l’implémentation de CAPTCHAs et le blocage des adresses IP, ainsi que la menace ou la prise de mesures légales appropriées et la notification des individus concernés. Des recommandations similaires ont récemment été faites par la CNIL Italienne14. Bien entendu, les grandes plateformes telles que Facebook, X (anciennement Twitter), Reddit, LinkedIn, n’ont pas attendu ces recommandations pour mettre en place des mesures pour limiter le moissonnage. Par exemple, récemment X a constaté des « niveaux extrêmes de moissonnage de données » et a pris des mesures pour le limiter aux moissonneurs connectés15.
13 https://ico.org.uk/media/about-the-ico/documents/4026232/joint-statement-data-scraping-202308.pdf
14 https://www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/10019984#english
15 https://www.socialmediatoday.com/news/twitter-implements-usage-limits-combat-data-scrapers/
Pour Conclure…
Le moissonnage de données est un sujet complexe qui suscite de nombreuses questions et débats. Dans ce contexte, la consultation de la CNIL est cruciale, et il est essentiel que chacun puisse s’exprimer sur ce sujet sensible. Comme le souligne cet article, il est difficile de tout interdire ou de tout autoriser sans discernement.
La clé réside dans un compromis basé sur la transparence et le respect des droits des individus. Il est indispensable que les utilisateurs soient clairement informés des campagnes de moissonnage, de leurs objectifs et de leur droit de s’y opposer. A cette fin, la CNIL propose, dans sa dernière consultation, l’idée de créer un registre sur son site où les organisations utilisant des données collectées par moissonnage pour le développement de systèmes d’IA pourraient s’inscrire. Par ailleurs, chacun a un rôle à jouer en contrôlant les informations qu’il publie en ligne, ce qui souligne le besoin d’une éducation et d’une sensibilisation accrues sur la gestion des données personnelles.
Pour reprendre les mots de Solove et Hartzog, le moissonnage de données devrait être perçu comme un « privilège » qui impose des responsabilités aux moissonneurs. Cela signifie qu’une attention particulière doit être portée au principe de la minimisation des données si cher au RGPD16, à la sécurité des données collectées et au respect des droits des utilisateurs. Une telle approche permettra de trouver un équilibre juste et équitable, garantissant à la fois la protection de la vie privée et le développement responsable de l’Intelligence Artificielle. Finalement, le développement de « l’IA frugale17 » qui consiste à développer des plus petits modèles, utilisant notamment moins de données d’entrainement mais de meilleure qualité, apporte des perspectives intéressantes en termes de protection de nos données.
Claude Castelluccia, Directeur de recherche chez Inria, au sein de l’équipe Privatics de Grenoble, et commissaire à la CNIL en charge de l’Intelligence Artificielle.
16 https://www.cnil.fr/fr/reglement-europeen-protection-donnees/chapitre2#Article5
17 https://www.univ-grenoble-alpes.fr/actualites/the-conversation/sciences/the-conversation-l-ia-peut-elle-vraiment-etre-frugale–1428627.kjsp
13.09.2024 à 08:26
Garoutzia arrive à Paris
binaire
Lire la suite (467 mots)
Après Avignon et d’autres villes de régions, « Qui a hacké Garoutzia ? » arrive à Paris. Binaire ne peut que vous conseiller d’y aller.
06.09.2024 à 07:00
[DA]vid contre Gol[IA]th : Quelle est la place de la créativité humaine dans le paysage de l’intelligence artificielle générative ?
binaire
Texte intégral (6689 mots)
Billet d’introduction: L’expression “David contre Goliath” n’a jamais semblé aussi pertinente que lorsqu’il faut décrire le combat des artistes contre les GAFAM. Cette expression souvent utilisée pour décrire un combat entre deux parties prenantes de force inégale souligne une réalité : celle de la nécessité qu’ont ressenti des artistes de différents milieux et pays de se défendre face à des géants de la tech de l’IA générative pour protéger leur oeuvres, leur passion et leur métier, pour eux et pour les générations futures. Si la Direction Artistique porte le nom de [DA]vid, alors l’IA sera notre Gol[IA]th… C’est parti pour une épopée 5.0 !
Julie Laï-Pei, femme dans la tech, a à cœur de créer un pont entre les nouvelles technologies et le secteur Culturel et Créatif, et d’en animer la communauté. Elle nous partage ici sa réflexion au croisement de ces deux domaines.
Chloé Mercier, Thierry Vieville et Ikram Chraibi Kaadoud
Comment les artistes font-ils face au géant IA, Gol[IA]th ?
A l’heure d’internet, les métiers créatifs ont connu une évolution significative de leur activité. Alors que nous sommes plus que jamais immergés dans un monde d’images, certains artistes évoluent et surfent sur la vague, alors que d’autres reviennent à des méthodes de travail plus classiques. Cependant tous se retrouvent confrontés aux nouvelles technologies et à leurs impacts direct et indirect dans le paysage de la créativité artistique.
Si les artistes, les graphistes, les animateurs devaient faire face à une concurrence sévère dans ce domaine entre eux et face à celle de grands acteurs du milieu, depuis peu (on parle ici de quelques mois), un nouveau concurrent se fait une place : l’Intelligence artificielle générative, la Gen-IA !
C’est dans ce contexte mitigé, entre écosystème mondial de créatifs souvent isolés et puissances économiques démesurées que se posent les questions suivantes :
Quelle est la place de la création graphique dans cet océan numérique ? Comment sont nourris les gros poissons de l’intelligence artificielle pour de la création et quelles en sont les conséquences ?
L’évolution des modèles d’entraînement des IA pour aller vers la Gen-AI que l’on connaît aujourd’hui
Afin qu’une intelligence artificielle soit en capacité de générer de l’image, elle a besoin de consommer une quantité importante d’images pour faire le lien entre la perception de “l’objet” et sa définition nominale. Par exemple, à la question “Qu’est-ce qu’un chat ?” En tant qu’humain, nous pouvons facilement, en quelques coup d’œil, enfant ou adulte, comprendre qu’un chat n’est pas un chien, ni une table ou un loup. Or cela est une tâche complexe pour une intelligence artificielle, et c’est justement pour cela qu’elle a besoin de beaucoup d’exemples !
Ci dessous une frise chronologique de l’évolution des modèles d’apprentissage de l’IA depuis les premiers réseaux de neurones aux Gen-IA :
En 74 ans, les modèles d’IA ont eu une évolution fulgurante, d’abord cantonnée aux sphères techniques ou celle d’entreprises très spécialisées, à récemment en quelques mois en 2023, la société civile au sens large et surtout au sens mondial.
Ainsi, en résumé, si notre IA Gol[IA]th souhaite générer des images de chats, elle doit avoir appris des centaines d’exemples d’images de chat. Même principe pour des images de voitures, des paysages, etc.
Le problème vient du fait que, pour ingurgiter ces quantités d’images pour se développer, Gol[IA]th mange sans discerner ce qu’il engloutit… que ce soit des photos libres de droit, que ce soit des oeuvres photographiques, des planches d’artwork, ou le travail d’une vie d’un artiste, Gol[IA]th ne fait pas de différence, tout n’est “que” nourriture…
Dans cet appétit gargantuesque, les questions d’éthique et de propriétés intellectuelles passent bien après la volonté de développer la meilleure IA générative la plus performante du paysage technologique. Actuellement, les USA ont bien de l’avance sur ce sujet, créant de véritables problématiques pour les acteurs de la création, alors que l’Europe essaie de normer et d’encadrer l’éthique des algorithmes, tout en essayant de mettre en place une réglementation et des actions concrètes dédiées à la question de la propriété intellectuelle, qui est toujours une question en cours à ce jour.
Faisons un petit détour auprès des différents régimes alimentaires de ce géant…
Comment sont alimentées les bases de données d’image pour les Gen-AI ?
L’alimentation des IA génératives en données d’images est une étape cruciale pour leur entraînement et leur performance. Comme tout bon géant, son régime alimentaire est varié et il sait se sustenter par différents procédés… Voici les principales sources et méthodes utilisées pour fournir les calories nécessaires de données d’images aux IA génératives :
-
Les bases de données publiques
Notre Gol[IA]th commence généralement par une alimentation saine, basée sur un des ensembles de données les plus vastes et les plus communément utilisés: par exemple, ImageNet qui est une base de données d’images annotées produite par l’organisation du même nom, à destination des travaux de recherche en vision par ordinateur. Cette dernière représente plus de 14 millions d’images annotées dans des milliers de catégories. Pour obtenir ces résultats, c’est un travail fastidieux qui demande de passer en revue chaque image pour la qualifier, en la déterminant d’après des descriptions, des mot-clefs, des labels, etc…
Entre autres, MNIST, un ensemble de données de chiffres manuscrits, couramment utilisé pour les tâches de classification d’images simples.
Dans ces ensembles de données publics, on retrouve également COCO (à comprendre comme Common Objects in COntext) qui contient plus de 330 000 images d’objets communs dans un contexte annotées, pour l’usage de la segmentation d’objets, la détection d’objets, de la légendes d’image, etc…
Plus à la marge, on retrouve la base de données CelebA qui contient plus de 200 000 images de visages célèbres avec des annotations d’attributs.
-
La collecte de données en ligne (web scraping)
Plus discutable, Gol[IA]th peut également chasser sa pitance… Pour ce faire, il peut utiliser le web scraping. Il s’agit d’un procédé d’extraction automatique d’images à partir de sites web, moteurs de recherche d’images, réseaux sociaux, et autres sources en ligne. Concrètement, au niveau technique, il est possible d’utiliser des APIs (Application Programming Interfaces) pour accéder à des bases de données d’images: il s’agit d’interfaces logicielles qui permettent de “connecter” un logiciel ou un service à un autre logiciel ou service afin d’échanger des données et des fonctionnalités. Il en existe pour Flickr, pour Google Images, et bien d’autres.
Ce procédé pose question sur le plan éthique, notamment au sujet du consentement éclairé des utilisateurs de la toile numérique : Est-ce qu’une IA a le droit d’apprendre de tout, absolument tout, ce qu’il y a en ligne ? Et si un artiste a choisi de partager ses créations sur internet, son œuvre reste-t-elle sa propriété ou devient-elle, en quelque sorte, la propriété de tous ?
Ces questions soulignent un dilemme omniprésent pour tout créatif au partage de leur œuvre sur internet : sans cette visibilité, il n’existe pas, mais avec cette visibilité, ils peuvent se faire spolier leur réalisation sans jamais s’en voir reconnaître la maternité ou paternité.
Il y a en effet peu de safe-places pour les créatifs qui permettent efficacement d’être mis en lumière tout en se prémunissant contre les affres de la copie et du vol de propriété intellectuelle et encore moins de l’appétit titanesque des géants de l’IA.
C’est à cause de cela et notamment de cette méthode arrivée sans fanfare que certains créatifs ont choisi de déserter certaines plateformes/réseaux sociaux: les vannes de la gloutonnerie de l’IA générative avaient été ouvertes avant même que les internautes et les créatifs ne puissent prendre le temps de réfléchir à ces questions. Cette problématique a été aperçue, entre autres, sur Artstation, une plateforme de présentation jouant le rôle de vitrine artistique pour les artistes des jeux, du cinéma, des médias et du divertissement. mais également sur Instagram et bien d’autres : parfois ces plateformes assument ce positionnement ouvertement, mais elles sont rares ; la plupart préfèrent enterrer l’information dans les lignes d’interminables conditions d’utilisation qu’il serait bon de commencer à lire pour prendre conscience de l’impact que cela représente sur notre “propriété numérique”.
-
Les bases de données spécialisées
Dans certains cas, Gol[IA]th peut avoir accès à des bases de données spécialisées, comprenant des données médicales (comme les scans radiographiques, IRM, et autres images médicales disponibles via des initiatives comme ImageCLEF) ou des données satellites (fournies par des agences spatiales comme la NASA et des entreprises privées pour des images de la Terre prises depuis l’espace).
-
Les données synthétiques
Au-delà des images tirées du réel, l’IA peut également être alimentée à partir d’images générées par ordinateur. La création d’images synthétiques par des techniques de rendu 3D permet de simuler des scénarios spécifiques (par exemple, de la simulation d’environnements de conduite pour entraîner des systèmes de conduite autonome), ainsi que des modèles génératifs pré-entraînés. En effet, les images générées par des modèles peuvent également servir pour l’entraînement d’un autre modèle. Mais les ressources peuvent également provenir d’images de jeux vidéo ou d’environnement de réalité virtuelle pour créer des ensembles de données (on pense alors à Unreal Engine ou Unity).
-
Les caméras et les capteurs
L’utilisation de caméras pour capturer des images et des vidéos est souvent employée dans les projets de recherche et développement, et dans une volonté de sources plus fines, de capteurs pour obtenir des images dans des conditions spécifiques, comme des caméras infrarouges pour la vision nocturne, des LIDAR pour la cartographie 3D, etc.
Toutes ces différentes sources d’approvisionnement pour Gol[IA]th sont généralement prétraitées avant d’être utilisées pour l’entraînement : normalisation, redimensionnement, augmentation des données, sont des moyens de préparation des images.
En résumé, il faut retenir que les IA génératives sont alimentées par une vaste gamme de sources de données d’images, allant des ensembles de données publiques aux données collectées en ligne, en passant par les images synthétiques et les captures du monde réel. La diversité et la qualité des données sont essentielles pour entraîner des modèles génératifs performants et capables de produire des images réalistes et variées. Cependant cette performance ne se fait pas toujours avec l’accord éclairé des auteurs des images. Il est en effet compliqué – certains diront impossible – de s’assurer que la gloutonnerie de Gol[IA]th s’est faite dans les règles avec le consentement de tous les créatifs impliqués… Un sujet d’éducation à la propriété numérique est à considérer!
Mais alors, comment [DA]vid et ses créatifs subissent cette naissance monstrueuse ?
Les métiers créatifs voient leur carnet de commande diminuer, les IA se démocratisant à une vitesse folle. [DA]vid, au delà de perdre des revenus en n’étant plus employé par des revues pour faire la couverture du magazine, se retrouve face à une concurrence déloyale : l’image générée a le même style… voir “son style”… Or pour un créatif, le style est l’œuvre du travail d’une vie, un facteur différenciant dans le paysage créatif, et le moteur de compétitivité dans le secteur… Comment faire pour maintenir son statut d’acteur de la compétitivité de l’économie alors que les clients du secteur substituent leur commande par des procédés éthiquement questionnables pour faire des économies ?
Gol[IA]th mange sans se sentir rompu, qu’il s’agisse de données libres ou protégées par des droits d’auteur, la saveur ne change pas. L’espoir de voir les tribunaux s’animer, pays après pays, sur des questionnements de violation, ou non, des lois protégeant les auteurs, s’amenuise dans certaines communautés. En attendant, les [DA]vid créatifs se retrouvent livrés à eux-mêmes, lentement dépossédés de l’espoir de pouvoir échapper au géant Gol[IA]th. Alors que l’inquiétude des artistes et des créateurs grandit à l’idée de voir une série d’algorithmes reproduire et s’accaparer leur style artistique, jusqu’à leur carrière, certains s’organisent pour manifester en occupant l’espace médiatique comme l’ont fait les acteurs en grève à Hollywood en 2023, et d’autres choisissent d’attaquer le sujet directement au niveau informatique en contactant Ben Zhao et Heather Zheng, deux informaticiens de l’Université de Chicago qui ont créé un outil appelé “Fawkes”, capable de modifier des photographies pour déjouer les IA de reconnaissance faciale.
La question s’imposant étant alors :
“Est-ce que Fawkes peut protéger notre style contre des modèles de génération d’images comme Midjourney ou Stable Diffusion ?”
Bien que la réponse immédiate soit “non”, la réflexion a guidé vers une autre solution…
“Glaze”, un camouflage en jus sur une oeuvre
Les chercheurs de l’Université de Chicago se sont penchés sur la recherche d’une option de défense des utilisateurs du web face aux progrès de l’IA. Ils ont mis au point un produit appelé “Glaze”, en 2022, un outil de protection des œuvres d’art contre l’imitation par l’IA. L’idée de postulat est simple : à l’image d’un glacis ( une technique de la peinture à l’huile consistant à poser, sur une toile déjà sèche, une fine couche colorée transparente et lisse) déposer pour désaturer les pigments “Glaze” est un filtre protecteur des créations contre les IAs.
“Glaze” va alors se positionner comme un camouflage numérique : l’objectif est de brouiller la façon dont un modèle d’IA va “percevoir” une image en la laissant inchangée pour les yeux humains.
Ce programme modifie les pixels d’une image de manière systématique mais subtile, de sorte à ce que les modifications restent discrètes pour l’homme, mais déconcertantes pour un modèle d’IA. L’outil tire parti des vulnérabilités de l’architecture sous-jacente d’un modèle d’IA, car en effet, les systèmes de Gen-AI sont formés à partir d’une quantité importante d’images et de textes descriptifs à partir desquels ils apprennent à faire des associations entre certains mots et des caractéristiques visuelles (couleurs, formes). “Ces associations cryptiques sont représentées dans des « cartes » internes massives et multidimensionnelles, où les concepts et les caractéristiques connexes sont regroupés les uns à côté des autres. Les modèles utilisent ces cartes comme guide pour convertir les textes en images nouvellement générées.” (- Lauren Leffer, biologiste et journaliste spécialisée dans les sciences, la santé, la technologie et l’environnement.)
“Glaze” va alors intervenir sur ces cartes internes, en associant des concepts à d’autres, sans qu’il n’y ait de liens entre eux. Pour parvenir à ce résultat, les chercheurs ont utilisé des “extracteurs de caractéristiques” (programmes analytiques qui simplifient ces cartes hypercomplexes et indiquent les concepts que les modèles génératifs regroupent et ceux qu’ils séparent). Les modifications ainsi faites, le style d’un artiste s’en retrouve masqué : cela afin d’empêcher les modèles de s’entraîner à imiter le travail des créateurs. “S’il est nourri d’images « glacées » lors de l’entraînement, un modèle d’IA pourrait interpréter le style d’illustration pétillante et caricatural d’un artiste comme s’il s’apparentait davantage au cubisme de Picasso. Plus on utilise d’images « glacées » pour entraîner un modèle d’imitation potentiel, plus les résultats de l’IA seront mélangés. D’autres outils tels que Mist, également destinés à défendre le style unique des artistes contre le mimétisme de l’IA, fonctionnent de la même manière.” explique M Heather Zheng, un des deux créateurs de cet outil.
Plus simplement, la Gen-AI sera toujours en capacité de reconnaître les éléments de l’image (un arbre, une toiture, une personne) mais ne pourra plus restituer les détails, les palettes de couleurs, les jeux de contrastes qui constituent le “style”, i.e., la “patte” de l’artiste.
Bien que cette méthode soit prometteuse, elle présente des limites techniques et dans son utilisation.
Face à Gol[IA]th, les [DA]vid ne peuvent que se cacher après avoir pris conscience de son arrivée : dans son utilisation, la limite de “Glaze” vient du fait que chaque image que va publier un créatif ou un artiste doit passer par le logiciel avant d’être postée en ligne.. Les œuvres déjà englouties par les modèles d’IA ne peuvent donc pas bénéficier, rétroactivement, de cette solution. De plus, au niveau créatif, l’usage de cette protection génère du bruit sur l’image, ce qui peut détériorer sa qualité et s’apercevoir sur des couleurs faiblement saturées. Enfin au niveau technique, les outils d’occultation mise à l’œuvre ont aussi leurs propres limites et leur efficacité ne pourra se maintenir sur le long terme.
En résumé, à la vitesse à laquelle évoluent les Gen-AI, “Glaze” ne peut être qu’un barrage temporaire, et malheureusement non une solution : un pansement sur une jambe gangrenée, mais c’est un des rares remparts à la créativité humaine et sa préservation.
Il faut savoir que le logiciel a été téléchargé 720 000 fois, et ce, à 10 semaines de sa sortie, ce qui montre une véritable volonté de la part des créatifs de se défendre face aux affronts du géant.
La Gen-AI prend du terrain sur la toile, les [DA]vid se retrouvent forcés à se cacher… Est-ce possible pour eux de trouver de quoi charger leur fronde ? Et bien il s’avère que la crainte a su faire naître la colère et les revendications, et les créatifs et les artistes ont décidé de se rebeller face à l’envahisseur… L’idée n’est plus de se cacher, mais bien de contre-attaquer Gol[IA]th avec les armes à leur disposition…
“Nightshade”, lorsque la riposte s’organise ou comment empoisonner l’IA ?
Les chercheurs de l’Université de Chicago vont pousser la réflexion au delà de “Glaze”, au delà de bloquer le mimétisme de style, “Nightshade” est conçu comme un outil offensif pour déformer les représentations des caractéristiques à l’intérieur même des modèles de générateurs d’image par IA…
« Ce qui est important avec Nightshade, c’est que nous avons prouvé que les artistes n’ont pas à être impuissants », déclare Zheng.
Nightshade ne se contente pas de masquer la touche artistique d’une image, mais va jusqu’à saboter les modèles de Gen-AI existants. Au-delà de simplement occulter l’intégrité de l’image, il la transforme en véritable “poison” pour Gol[IA]th en agissant directement sur l’interprétation de celui-ci. Nightshade va agir sur l’association incorrecte des idées et des images fondamentales. Il faut imaginer une image empoisonnée par “Nightshade” comme une goutte d’eau salée dans un récipient d’eau douce. Une seule goutte n’aura pas grand effet, mais chaque goutte qui s’ajoute va lentement saler le récipient. Il suffit de quelques centaines d’images empoisonnées pour reprogrammer un modèle d’IA générative. C’est en intervenant directement sur la mécanique du modèle que “Nightshade” entrave le processus d’apprentissage, en le rendant plus lent ou plus coûteux pour les développeurs. L’objectif sous-jacent serait, théoriquement, d’inciter les entreprises d’IA à payer les droits d’utilisation des images par le biais des canaux officiels plutôt que d’investir du temps dans le nettoyage et le filtrage des données d’entraînement sans licence récupérée sur le Web.
Ce qu’il faut comprendre de « Nightshade » :
- Empoisonnement des données: Nightshade fonctionne en ajoutant des modifications indétectables mais significatives aux images. Ces modifications sont introduites de manière à ne pas affecter la perception humaine de l’image mais à perturber le processus de formation des modèles d’IA. Il en résulte un contenu généré par l’IA qui s’écarte de l’art prévu ou original.
- Invisibilité: Les altérations introduites par Nightshade sont invisibles à l’œil humain. Cela signifie que lorsque quelqu’un regarde l’image empoisonnée, elle apparaît identique à l’originale. Cependant, lorsqu’un modèle d’IA traite l’image empoisonnée, il peut générer des résultats complètement différents, pouvant potentiellement mal interpréter le contenu.
- Impact: L’impact de l’empoisonnement des données de Nightshade peut être important. Par exemple, un modèle d’IA entraîné sur des données empoisonnées pourrait produire des images dans lesquelles les chiens ressemblent à des chats ou les voitures à des vaches. Cela peut rendre le contenu généré par l’IA moins fiable, inexact et potentiellement inutilisable pour des applications spécifiques.
Voici alors quelques exemples après de concepts empoisonnés :
Plus précisément, « Nightshade transforme les images en échantillons ’empoisonnés’, de sorte que les modèles qui s’entraînent sur ces images sans consentement verront leurs modèles apprendre des comportements imprévisibles qui s’écartent des normes attendues, par exemple une ligne de commande qui demande l’image d’une vache volant dans l’espace pourrait obtenir à la place l’image d’un sac à main flottant dans l’espace », indiquent les chercheurs.
Le « Data Poisoning » est une technique largement répandue. Ce type d’attaque manipule les données d’entraînement pour introduire un comportement inattendu dans le modèle au moment de l’entraînement. L’exploitation de cette vulnérabilité rend possible l’introduction de résultats de mauvaise classification.
« Un nombre modéré d’attaques Nightshade peut déstabiliser les caractéristiques générales d’un modèle texte-image, rendant ainsi inopérante sa capacité à générer des images significatives », affirment-ils.
Cette offensive tend à montrer que les créatifs peuvent impacter les acteurs de la technologie en rendant contre-productif l’ingestion massive de données sans l’accord des ayant-droits.
Plusieurs plaintes ont ainsi émané d’auteurs, accusant OpenAI et Microsoft d’avoir utilisé leurs livres pour entraîner ses grands modèles de langage. Getty Images s’est même fendu d’une accusation contre la start-up d’IA Stability AI connue pour son modèle de conversion texte-image Stable Diffusion, en Février 2023. Celle-ci aurait pillé sa banque d’images pour entraîner son modèle génératif Stable Diffusion. 12 millions d’œuvres auraient été « scrappées » sans autorisation, attribution, ou compensation financière. Cependant, il semble que ces entreprises ne puissent pas se passer d’oeuvres soumises au droit d’auteur, comme l’a récemment révélé OpenAI, dans une déclaration auprès de la Chambre des Lords du Royaume-Uni concernant le droit d’auteur, la start-up a admis qu’il était impossible de créer des outils comme le sien sans utiliser d’œuvres protégées par le droit d’auteur. Un aveu qui pourrait servir dans ses nombreux procès en cours…
Ainsi, quelle est la place de la créativité humaine dans le paysage de l’intelligence artificielle générative ?
En résumé, dans sa gloutonnerie, Gol[IA]th a souhaité engloutir les [DA]vid qui nous entourent, qui ont marqué l’histoire et ceux qui la créent actuellement, dans leur entièreté et leur complexité : en cherchant à dévorer ce qui fait leur créativité, leur style, leur patte, au travers d’une analyse de caractéristiques et de pixels, Gol[IA]th a transformé la créativité humaine qui était sa muse, son idéal à atteindre, en un ensemble de données sans sémantique, ni histoire, ni passion sous-jacente.
C’est peut être un exemple d’amour nocif à l’heure de l’IA, tel que vu par l’IA ?
Sans sous-entendre que les personnes à l’origine de l’écriture des IA génératives ne sont pas des créatifs sans passion, il est probable que la curiosité, la prouesse et l’accélération technologique ont peu à peu fait perdre le fil sur les impacts que pourrait produire un tel engouement.
A l’arrivée de cette technologie sur le Web, les artistes et les créatifs n’avaient pas de connaissance éclairée sur ce qui se produisait à l’abri de leurs regards. Cependant, les modèles d’apprentissage ont commencé à être alimentés en données à l’insu de leur ayant-droits. La protection juridique des ayant-droits n’évoluant pas à la vitesse de la technologie, les créatifs ont rapidement été acculés, parfois trop tard, les Gen-AI ayant déjà collecté le travail d’une vie. Beaucoup d’artistes se sont alors “reclus”, se retirant des plateformes et des réseaux sociaux pour éviter les vols, mais ce choix ne fut pas sans conséquence pour leur visibilité et la suite de leur carrière.
Alors que les réseaux jouaient l’opacité sur leurs conditions liées à la propriété intellectuelle, le choix a été de demander aux créatifs de se “manifester s’ils refusaient que leurs données soient exploitées”, profitant de la méconnaissance des risques pour forcer l’acceptation de condition, sans consentement éclairé. Mais la grogne est montée dans le camp des créatifs, qui commencent à être excédés par l’abus qu’ils subissent. “Glaze” fut une première réaction, une protection pour conserver l’intégrité visuelle de leur œuvre, mais face à une machine toujours plus gloutonne, se protéger semble rapidement ne pas suffire. C’est alors que “Nightshade” voit le jour, avec la volonté de faire respecter le droit des artistes, et de montrer qu’ils ne se laisseraient pas écraser par la pression des modèles.
Il est important de suivre l’évolution des droits des différents pays et de la perception des sociétés civiles dans ces pays de ce sujet car le Web, l’IA et la créativité étant sans limite géographique, l’harmonisation juridique concernant les droits d’auteur, la réglementation autour de la propriété intellectuelle, et l’éducation au numérique pour toutes et tous, vont être – ou sont peut-être déjà – un enjeu d’avenir au niveau mondial.
Rendons à César ce qui est à césar
L’équipe du « Glaze Project »
Profil X du Glaze project
Lien officiel : https://glaze.cs.uchicago.edu/
Pour avoir davantage d’informations sur Glaze et Nightshade : page officielle
Article Glaze : Shan, S., Cryan, J., Wenger, E., Zheng, H., Hanocka, R., & Zhao, B. Y. (2023). Glaze: Protecting artists from style mimicry by {Text-to-Image} models. In 32nd USENIX Security Symposium (USENIX Security 23) (pp. 2187-2204). arXiv preprint arXiv:2302.04222
Article Nightshade : Shan, S., Ding, W., Passananti, J., Zheng, H., & Zhao, B. Y. (2023). Prompt-specific poisoning attacks on text-to-image generative models. arXiv preprint arXiv:2310.13828.
A propos de l’autrice : Julie Laï-Pei, après une première vie dans le secteur artistique et narratif, a rejoint l’émulation de l’innovation en Nouvelle-Aquitaine, en tant que responsable de l’animation d’une communauté technologique Numérique auprès d’un pôle de compétitivité. Femme dans la tech et profondément attachée au secteur Culturel et Créatif, elle a à coeur de partager le résultat de sa veille et de ses recherches sur l’impact des nouvelles technologies dans le monde de la créativité.
30.08.2024 à 07:58
La vision par ordinateur à votre service
binaire
Continuer la lecture de « La vision par ordinateur à votre service »
Texte intégral (3106 mots)
Un nouvel entretien autour de l’informatique.
Gérard Medioni est un informaticien, professeur émérite d’informatique à l’université de Californie du Sud, vice-président et scientifique distingué d’Amazon. Il a des contributions fondamentales à la vision par ordinateur, en particulier à la détection 3D, à la reconstruction de surfaces et à la modélisation d’objets. Il a travaillé sur des questions fondamentales comme : Comment déduire des descriptions d’objets à partir d’images ? Comment « reconnaître » des objets que nous n’avons jamais vus ? Ses recherches ont inspiré nombre d’inventions qu’il a porté dans des startups puis chez Amazon.
Binaire : Peux-tu nous raconter brièvement comment tu es devenu professeur d’informatique à l’Université de Californie du Sud ?
GM : J’ai un parcours classique en France, en passant par le lycée Saint-Louis puis Télécom Paris. J’ai découvert l’informatique à Télécom. J’y ai écrit mon premier programme sur un ordinateur, un Iris 80. Il dessinait des figures de Moiré. J’ai découvert alors que les images pouvaient parler à tous.
Figure de Moiré, Wikipédia Commons (cliquer sur le lien pour voir l’animation)
J’étais attiré par la Californie, un peu à l’image de la chanson de Julien Clerc. J’ai candidaté dans des universités californiennes. J’ai été accepté à l’Université de Californie du Sud, à Los Angeles, dans le département d’Electrical Engineering. J’ai eu une bourse du gouvernement français. Quand je suis arrivé, le département d’informatique, minuscule alors avec seulement 3 professeurs, est venu me proposer de rejoindre ce département en tant qu’assistant.
Je me suis retrouvé assistant du Professeur Nevatia, pour le cours d’Intelligence Artificielle, un sujet qui m’était totalement étranger. J’avais deux semaines d’avance sur les étudiants. J’ai découvert alors que le meilleur moyen d’apprendre un sujet était de l’enseigner. De fil en aiguille, je suis devenu prof dans ce département.
Binaire : Peux-tu nous parler de ta recherche académique à l’Université de Californie du Sud ?
GM : Quand j’étais à Télécom, un grand professeur américain, King-Sun Fu, est venu faire un séminaire. Il nous a présenté l’image d’un cube, et nous a demandé comment un ordinateur pouvait comprendre cette image. Je ne comprenais même pas la question. Et puis, en y réfléchissant, j’ai fini par réaliser la distance qui existe entre une image, un tableau de pixels, et notre perception d’une scène en tant qu’éléments sémantiques, objets, personnes et relations ; nous reconnaissons peut-être un objet, un animal. Comment notre cerveau réalise-t-il cela ? Comment un algorithme peut-il le faire ? J’ai passé ma vie à répondre à ces questions. Elle est assez complexe pour me garantir à vie des sujets de recherche passionnants.
Le sujet est donc la vision par ordinateur qui s’intéresse à donner du sens à des images, des films, à comprendre la sémantique présente dans des nuages de points. Pour y arriver, on a développé toute une gamme de techniques. Par exemple, en observant une même scène en stéréo avec deux caméras qui capturent des images en deux dimensions à partir de points de vue légèrement différents, on peut essayer de reconstruire la troisième dimension.
Binaire : l’intelligence artificielle a-t-elle transformé ce domaine ?
GM : Elle l’a véritablement révolutionné. La vision par ordinateur obtenait de beaux résultats jusqu’en 2012, mais dans des domaines restreints, dans des environnements particuliers. Et puis, on a compris que le deep learning* ouvrait des possibilités fantastiques. Depuis, on a obtenu des résultats extraordinaires en vision par ordinateur. Je pourrais parler de cela quand on arrivera à mon travail sur Just walk out d’Amazon.
Binaire : Tu fais une belle recherche, plutôt fondamentale, avec de superbes résultats. Tu aurais pu en rester là. Qu’est-ce qui te motive pour travailler aussi sur des applications ?
GM : On voit souvent un professeur d’université comme quelqu’un qui invente un problème dans sa tour d’ivoire, et lui trouve une solution. Au final, son problème et sa solution n’intéressent pas grand monde. Ce n’est pas mon truc. J’ai toujours été attiré par les vrais problèmes. Quand les ingénieurs d’une équipe industrielle sont bloqués par un problème, qu’ils n’arrivent pas à le résoudre, ce n’est pas parce qu’ils sont médiocres, c’est souvent parce que le problème est un vrai défi, et que le cœur du sujet est un verrou scientifique. Et là, ça m’intéresse.
Pour prendre un exemple concret, j’ai travaillé plusieurs années sur l’aide à la navigation de personnes aveugles. Le système consistait en une caméra pour étudier l’environnement et de micro-moteurs dans les vestes des personnes pour leur transmettre des signaux. On a réalisé un proof of concept (preuve de concept), et cela a été un franc succès. Et puis, j’ai reçu un courriel d’une personne aveugle qui me demandait quand elle pourrait utiliser le système. Je n’ai pas pu lui répondre et j’ai trouvé cela hyper déprimant. Je voulais aller jusqu’au produit final. Pour faire cela, il fallait travailler directement avec des entreprises.
Binaire : Cela t’a donc conduit à travailler souvent avec des entreprises. Pourrais-tu nous parler de certains de tes travaux ?
GM : J’ai beaucoup travaillé avec des entreprises américaines, israéliennes, ou françaises. J’ai participé au dépôt de nombreux brevets. Une de mes grandes fiertés est d’avoir participé au développement d’une camera 3D qui se trouve aujourd’hui dans des millions de téléphones. J’ai travaillé, pour une entreprise qui s’appelait Primesense, sur une caméra très bon marché qui équipait un produit que vous connaissez peut-être, le Microsoft Kinect. Kinect est rentré dans le Guinness des records comme le consumer electronics device (appareil électronique grand public) le plus rapidement vendu massivement. Primesense a été rachetée ensuite par Apple, et aujourd’hui cette technologie équipe les caméras des Iphones. Je suis fier d’avoir participé au développement de cette technologie !
Et puis, un jour Amazon m’a contacté pour me proposer de m’embaucher pour un projet sur lequel ils ne pouvaient rien me dire. Je leur ai répondu que j’aimais mon travail de prof et que je ne cherchais pas autre chose. Ils ont insisté. Je les ai rencontrés. Et ils ont fini par me parler d’Amazon Go, des boutiques sans caissier. C’était techniquement fou, super complexe. C’était évidemment tentant. Je leur ai posé sans trop y croire des conditions dingues comme de pouvoir recruter plein de chercheurs, de monter un labo de R&D en Israël. Ils ont dit oui à tout. Je bosse pour Amazon depuis 10 ans, et j’aime ce que j’y fais.
Binaire : Pourrais-tu nous en dire un peu plus sur Amazon Go, et sur le projet suivant Just Walk Out ? Quelles étaient les difficultés ?
GM : Avec Amazon Go, le client entre dans un magasin, prend ce qu’il veut et ressort. Il ne s’arrête pas à la caisse pour payer. Les vidéos de caméras placées dans tout le magasin sont analysées en permanence. Le client présente un mode de paiement à l’entrée, auquel une signature visuelle est associée. Ainsi, le système permet de le localiser dans le magasin, de détecter quand il prend ou qu’il pose un objet, quel est cet objet. Un reçu virtuel est mis à jour automatiquement. Quand le client sort du magasin, le reçu virtuel devient un reçu définitif et le paiement s’effectue. On a testé Amazon Go en 2017 dans des magasins pour les employés d’Amazon, et puis on a ouvert au public en 2018.
Une difficulté est qu’il faut que ça fonctionne tout le temps, et pour tous les clients, avec un très bon niveau de précision. On a très peu droit à l’erreur si on ne veut pas perdre la confiance des clients.
Plutôt que de créer des magasins avec tout le métier que cela représente, Amazon a choisi dans un deuxième temps de proposer cette techno à des magasins existants pour les équiper. On est passé à Just Walk Out, il y a deux ans. On équipe aujourd’hui plus de 160 points de vente, notamment dans des stades et des aéroports.
Binaire : Pourrait-on parler maintenant du deep learning et de sa place dans ce projet ?
GM : Au début du projet, Amazon Go n’utilisait pas le deep learning. Et autour de 2012, nous avons été convaincus que cette techno apporterait des améliorations considérables. Cela a un peu été comme de changer le moteur de l’avion en plein vol. Nos équipes travaillaient avant sur des modules séparés que l’on combinait. Mais chaque modification d’un module était lourde à gérer. On est passé avec le deep learning et le end-to-end learning** à un seul module. L’apprentissage permet d’améliorer toutes les facettes de ce module en même temps. Cela n’a pas été simple de faire évoluer toutes les équipes. On y est arrivé, et cela fonctionne bien mieux, plus efficacement.
Binaire : Pourquoi cette technologie ne s’est-elle pas installée sur plus de supermarchés ?
GM : Un problème est que, dans des grandes surfaces, certains produits sont difficiles à gérer : les fruits et légumes au poids, les fleurs, le vrac… La techno s’est donc déployée dans des domaines où l’attente des clients est un vrai problème comme les évènements sportifs et culturels.
Binaire : Tu participes ensuite à la création du service d’identité biométrique Amazon One, pour faciliter le paiement et d’autres fonctions. Pourrais-tu nous dire en quoi cela consiste ?
GM : À Amazon, un souci constant est de résoudre les problèmes de nos clients. Pour Just Walk Out, c’était très clair, personne n’aime faire la queue à la caisse. Avec Amazon One, le problème est celui de valider son identité. Pour faire cela, de nombreuses méthodes peuvent être considérées : ADN, empreinte digitale, iris, etc. Nous avons choisi d’utiliser la paume de la main. On est arrivé à faire plus que de la vérification : de l’identification. On peut trouver une personne parmi des millions dans une base de données, ou détecter qu’elle n’y est pas.
Pour réaliser cela, on prend deux images : une de la surface de la paume de la main et une autre en infrarouge du réseau sanguin. Ces informations indépendantes se complémentent et identifient une personne avec une surprenante précision, 1000 fois plus précis que le visage, et 100 fois plus que les 2 iris des yeux !
Binaire : En vieillissant, ma paume ne va-t-elle pas changer ?
GM : Oui, lentement et progressivement. Mais, à chaque fois que vous utilisez le service, la signature est mise à jour. Si vous ne vous servez pas du service pendant deux ans, on vous demande de vous réidentifier.
Binaire : Et aujourd’hui, sur quoi travailles-tu ?
GM : Je travaille pour le service Prime Video d’Amazon. Nous cherchons à créer de nouvelles expériences vidéos pour le divertissement.
Binaire : Tu es resté lié à des chercheurs français. Pourrais-tu nous dire comment tu vois la différence entre la recherche en informatique aux US et en France ?
GM : L’éducation française est extraordinaire ! La qualité des chercheurs en informatique en France est excellente. Mais l’intelligence artificielle change la donne. La France avec des startups comme Mistral est à la pointe du domaine. Mais, pour rester dans la course, une infrastructure énorme est indispensable. Cela exige d’énormes investissements. Est-ce qu’ils sont là ?
Les talents existent en France. Il faut arriver à construire un cadre, des écosystèmes, dans lesquels ils puissent s’épanouir pour créer de la valeur technologique.
Binaire : Aurais-tu un conseil pour les jeunes chercheurs ?
GM : Le monde de la publication a changé fondamentalement. Les publications dans des journaux ont perdu de leur importance, car elles prennent trop de temps. Et même aujourd’hui, une publication dans une conférence arrive tard. Si on ne suit pas les prépublications comme sur arXiv, on n’est plus dans le coup.
Personne n’avait vu venir le deep learning, les large language models… On vit une révolution technologique incroyable de l’informatique et de l’intelligence artificielle. La puissance des outils qu’on développe est fantastique. Tous les domaines sont impactés, médecine, transport, agriculture, etc.
Les chercheurs vont pouvoir faire plus, beaucoup plus vite. Les jeunes chercheurs vont pouvoir obtenir des résultats dingues. Mais, il va leur falloir être très agiles !
Serge Abiteboul, Inria, & Ikram Chraibi Kaadoud, Inria
(Serge Abiteboul a étudié avec Gérard Médioni à Télécom et USC. Ils sont amis depuis.)
Pour aller plus loin
(*) Le deep learning ou « apprentissage profond » est un sous-domaine de l’intelligence artificielle qui utilise des réseaux neuronaux pour résoudre des tâches complexes.
(**) L’end-to-end learning ou « apprentissage de bout en bout » est un type de processus d’apprentissage profond dans lequel tous les paramètres sont mis au point en même temps, plutôt que séparément.
https://www.lemonde.fr/blog/binaire/les-entretiens-de-la-sif/
19.07.2024 à 07:16
Binaire fait sa pause estivale
binaire
Texte intégral (1118 mots)
Pour un été non binaire : partez avec binaire dans vos favoris.
Nous faisons notre pause estivale avant de revenir partager avec vous des contenus de popularisation sur l’informatique !
À la rentrée nous parlerons à nouveau aussi bien de technologie que de science, d’enseignement, de questions industrielles, d’algorithmes, de data… bref, de tous les sujets en lien avec le monde numérique qui nous entoure …
D’ici là, vous pouvez tout de même passer l’été avec binaire en profitant de nos collections qui contiennent sûrement de beaux articles que vous n’avez pas encore eu le temps de lire*, comme par exemple «Femmes et numérique inclusif par la pratique».
©Catherine Créhangeundessinparjouravec sa gracieuse autorisation.
(*) Voici aussi quelques lectures coup de cœur en lien avec nos sujets :
– Vive les communs numériques ! où des logiciels libres en passant par Wikipédia et la science ouverte, on nous explique tout sur ces ressources partagées, gérées et entretenues par une communauté, pour en faire un bien commun.
– Ada & Zangemann : un joli conte vivant sur l’informatique libre, la camaraderie et le rôle des filles pour une technique au service de l’autonomie.
– Nous sommes les réseaux sociaux s’attaque à la régulation des réseaux sociaux, ces complexes objets mi-humains et mi-algorithmes, qui nous unissent pour le meilleur et pour le pire tandis que c’est à nous toutes et tous de définir ce qui doit être fait.
Et aussi :
– Pour une nouvelle culture de l’attention où on décrypte comme notre temps de cerveau se monnaye sur Internet, comme si nous étions des biens consommables.
– Les IA à l’assaut du cyberespace où on voit comment les GAFAMs, pour leur propre profit, visent à travers leurs algorithmes à nous indiquer quoi faire, que dire et où regarder, au lieu de permettre à l’humanité de partager.
– Mettre l’économie et le numérique au service de l’avenir où une philosophe et un économiste proposent une analyse de la capitalisation de nos esprits et du rapport à notre corps.
– Paresse pour tous où on questionne, avec les possibilités qu’offrent le numérique, la relation temps libre – travail en défendant l’idée que la vie ne se résume pas au travail, à la croissance, à la consommation.
12.07.2024 à 07:01
Exit l’intelligence, vive l’éducabilité !
binaire
Continuer la lecture de « Exit l’intelligence, vive l’éducabilité ! »
Texte intégral (2925 mots)
L’éducabilité, notre avantage darwinien
De la sélection darwinienne à l’émergence des civilisations, des proto-organismes aux humains, l’évolution de la vie n’est selon le récent ouvrage de Leslie Valiant qu’un immense apprentissage « Probablement Approximativement Correct´´ PAC (cf. infra) – notion due à l’auteur et couronnée en 2010 du prestigieux prix Turingii.
Dans les interactions entre individus, entre espèces, avec l’environnement, ce qui « apprend » le mieux prend le dessus. L’auteur explique comment l’évolution « PAC-darwinienne » a fait émerger notre aptitude à construire des Educable Learning Systems (Systèmes d’apprentissage éducable). Le maître mot est là, nous sommes la seule espèce devenue éducable. Dès lors nous n’avons guère le choix, nous devons tout miser sur une éducation à l’épreuve de la scienceiii, c’est notre meilleure chance de donner les bons coups de pagaie pour orienter notre destin dans le flot de l’évolution qui nous emporte. Et comme l’éducabilité tient en PAC une base solide, ce doit être là le pilote des recherches en éducation, qui sont encore trop empiriques, morcelées, voire idéologiques.
Si Charles Darwin avait été informaticien, il aurait pu écrire ce livreiv, qui en donnant une base calculatoire à l’évolution, en étend les règles du vivant aux idées. Valiant a l’habilité de nous amener progressivement à cette thèse au fil des pages. Je suggère néanmoins comme mise en appétit de commencer la lecture par le dernier chapitre, A Species Adriftv, que je viens de résumer.
L’intelligence, une mauvaise notion
Valiant règle en quelques lignes son sort à l’intelligence : c’est un mauvais concept, impossible à définirvi. Il argumente que notre aptitude à traiter de l’information fait sens au niveau de l’espèce et de son histoire plutôt qu’au niveau individuel. Peut-être que la notoriété de Leslie Vaillant et la consistance de ses propos aideront à réviser notre approche de l’intelligence, source de regrettables confusions quand elle touche à l’IA, et parfois de ravages sur les bancs de l’école.
Un texte ambitieux mais facile à aborder
Si le lecteur est informaticien, il a forcément entendu parler de l’apprentissage PACvii, a eu du mal à s’imprégner de la définition, a trouvé le formalisme lourd et les exemples laborieux. Les autres peuvent être rebutés par l’évocation de PAC à chaque page – une coquetterie d’auteur que l’on pardonnera. Dans les deux cas, que l’on se rassure. La lecture est aisée, elle ne demande aucune connaissance particulière. Le style est sobre et l’argumentation solide, digne du grand scientifique qu’est Valiant – qui fustige au passage les vendeurs de peur d’un « grand remplacement » de l’humain par la machine, comme hélas nous en connaissons tous.
PAC : Une vision computationnelleviii de l’évolution, des molécules aux civilisations
Plus en détail, il n’y a aucun formalisme mathématique dans cet ouvrage, PAC est présenté par sa « substantifique moelle ». L’idée est que l’évolution est un apprentissage, et qu’il ne peut y avoir d’apprentissage que Probablement Approximativement Correct (PAC). Approximativement, parce que retenir exactement est retenir par cœur, et cela ne dit rien d’une situation proche si l’on n’englobe pas les deux dans une même approximation ix. Probablement car il existera toujours de rares situations qui n’auront pas été échantillonnées lors de l’apprentissage et ne seront donc même pas approximées x. Enfin, dans un contexte darwinien de compétition, cet apprentissage ne doit pas prendre trop de tempsxi. Le deep learning (l’apprentissage profond, en français) qui fait l’actualité est un exemple d’apprentissage PAC.
L’apprentissage PAC est d’abord un apprentissage par des exemples ; il lie par l’expérience des comportements à des stimuli dans les espèces rudimentaires – Valiant cite les escargots de mer. Au fil de l’évolution, de tels apprentissages peuvent se chaîner en comportements plus complexes, mais ce processus évolutif trouve vite ses limites car si une chaîne se rallonge, les incertitudes se cumulent. La plupart des espèces en sont là, limitées au chaînage de quelques règles élémentaires, qui s’inscrivent par sélection dans leur patrimoine biologique. Pour les espèces plus évoluées, cet inné peut se compléter par l’expérience individuelle, comme pour le chien de Pavlov. Mais seuls les humains ont une capacité corticale suffisante pour transmettre par l’éducation, condition nécessaire à la constitution des civilisations et des cultures. Pour éduquer, il faut nommer les choses ce qui permet d’apprendre sur des mots (plus exactement des tokens – des occurrences) et non seulement sur des stimuli. Valiant nomme de tels corpus de règles sur des tokens des Integrative Learning Systems, qui, combinés à nos capacités individuelles d’apprentissage par l’expérience et de communication, constituent des Educable Learning Systems. L’apport de Valiant est de décrire comment ces capacités sont apparues lors de l’évolution du vivant, par une conjonction fortuite de contingences, et surtout de montrer qu’elles devaient apparaître, d’une façon ou d’une autre, tôt ou tard, tant elles procurent un avantage considérablexii.
Un monde redevenu intelligible
Au fil des pages, on comprend que le monde vivant est structuré, et qu’il ne pouvait pas en être autrement. Il était en effet fort peu probable de passer d’un seul coup des amibes aux humains ! Les mutations et le hasard créent au fil du temps une diversité d’entités apprenantes, les plus adaptées survivent, puis rentrent à nouveau en compétition d’apprentissage. Le neurone est à cet égard une formidable trouvaille. La vie aurait pu évoluer tout autrement, mais forcément en se structurant par assemblage avantageux du plus simple au plus complexe. On peut ainsi relire la boutade des spécialistes du deep learning étonnés par les succès de leurs techniques : « Soit Dieu existe, soit le monde est structuré »xiii. La réponse de Valiant est que le monde est structuré parce qu’il est né du PAC learning, ce qui est une façon de dire que le monde est intelligible, comme le rêvaient les encyclopédistes et les Lumières.
L’apprentissage PAC, conçu il y a un demi-siècle, est au cœur des développements récents des sciences du calcul et des données,au carrefour des statistiques, de l’informatique et des mathématiques, jalonné par le triangle Régularité-Approximation-Parcimoniexiv. On peut regretter l’absence dans l’ouvrage de considérations sur le troisième sommet de ce triangle, le principe de parcimonie xv, alors qu’y faire référence renforcerait les arguments du livre. On peut aussi regretter qu’il ne soit fait aucune allusion aux progrès considérables dans le traitement du signalxvi réalisés ces dernières décennies, et qui sont une des clés du succès de l’apprentissage profond.
Au-delà, le premier mérite de l’ouvrage est de faire réfléchir, de mettre en débats des idées en bonne partie nouvelles. Fussent-elles encore fragiles, celles-ci sont les bienvenues à une époque en manque de perspectives intellectuelles.
Max Dauchet, Université de Lille.
Pour aller un peu plus loin, Max nous propose un complément plus technique pour nous faire partager l’évolution scientifique d’une approche purement statistique à une vision scientifique de l’apprentissage : ici.
i The Importance of Being Educable. A new theory of human uniqueness. Leslie Valiant, Princeton University Press, 2024.
ii Équivalent du prix Nobel pour les sciences informatiques, créé en 1966. Deux Français en ont été lauréats, Joseph Sifakis en 2007 et Yann Le Cun en 2018.
iii Pour Valiant, la science est une croyance qui se distingue des autres par la robustesse de sa méthode : la communauté scientifique internationale la teste, la conteste, la réfute ou la conforte à l’épreuve des expérimentations, alors que les complotismes ne font que se renforcer dans des bulles.
iv Comme chez Darwin, il n’y a aucun finalisme chez Valiant, aucune « main invisible » ne guide l’émergence d’une vie de plus en plus complexe, nous sommes dans le cadre strict de la science.
v Une espèce à la dérive, au sens de soumise aux flots de l’évolution.
vi Cette attitude pourrait paraître désinvolte au regard de la démarche d’un cogniticien comme Daniel Andler, auteur du récent et épais ouvrage Intelligence artificielle, intelligence humaine : la double énigme (collection NRF Essais, Gallimard, 2023). C’est que les buts différents. Valiant s’intéresse aux principes et D. Andler décortique les détails d’une comparaison. S’il s’agissait du vol, le premier étudierait l’aérodynamique et le second comparerait la texture des plumes d’oiseaux à la courbure des ailes d’avions.
vii A Theory of the Learnable CACM, 1984, volume 27, numéro 11, pages 1134-1142. C’est dans cet article fondateur que l’on trouve l’exposé le plus clair des motivations, qui sont déjà dans la perspective du présent ouvrage.
Entre temps, L. Vaillant avait publié en 2013 Probably Approximately Correct: Nature’s Algorithms for Learning and Prospering in a Complex World, traduit en français en 2018 avec une préface de Cédric Villani (Editions Vuibert Cassini). Dans cet ouvrage comme dans son exposé de remise du prix Turing (https://amturing.acm.org/ ), Valiant met l’accent sur l’apprentissage computationnel du vivant, notamment au niveau génétique.
viii Valiant précise que pour lui, l’évolution n’est pas comme un calcul informatique, c’est un calcul.
ix Ainsi apprendre par cœur des mots de passe ne dit rien sur les autres mots de passe ni sur la cryptographie.
x PAC capte précisément cette notion en termes d’outillage statistique.
xi Le cadre théorique est l’apprentissage en temps polynomial, ce qui représente une classe d’algorithmes excluant les explosions combinatoires.
xii L’auteur introduit finalement le Mind’s Eye comme intégrateur des fonctions précédentes. Cet « œil de l’esprit » s’apparente à la capacité cognitive d’un individu de lier les acquis de l’histoire – la condition humaine – à sa propre expérience. Cette notion reste vague, elle est décrite en termes de métaphores informatiques, ce que l’on peut admettre sachant que l’auteur ne considère que des fonctionnalités et non la façon de les réaliser.
xiii Anecdote rapportée par Yann Le Cun.
xiv Cours de Stéphane Mallat, Chaire de Science des Données, Collège de France.
xv Principe qui privilégie les causes simples.
xvi Le traitement du signal permet d’éliminer le bruit d’un signal, et là aussi le principe de parcimonie est un guide.
12.07.2024 à 06:44
De l’apprentissage à l’éducabilité, de Vapnik à Valiant
binaire
Continuer la lecture de « De l’apprentissage à l’éducabilité, de Vapnik à Valiant »
Texte intégral (2381 mots)
Pour mieux situer les travaux de Leslie Valiant, il faut évoquer ceux conduits antérieurement en URSS par Vladimir Vapniki.
La dimension de Vapnik-Chervonenkis (VC-dimension).
La motivation de Vapnik et ses collègues est purement statistique : comment assurer qu’un modèle minimise à la fois l’erreur sur les données d’apprentissage (erreur empirique) et l’erreur de généralisation sur l’ensemble des données ? Comme lors des sondages électoraux, par exemple : s’assurer que ce qui est approximativement vrai sur un échantillon, l’est toujours à peu près sur toute la population visée.
Cette propriété, appelée convergence uniforme, n’est évidemment pas satisfaite en général. En fait, si un modèle possède tellement de paramètres à ajuster, qu’il puisse coller très précisément et de manière spécifique aux données d’apprentissage, il ne saura pas bien prédire des données plus générales.
La VC-dimension est un indicateur de ces classes de modèles – souvent désignées par le terme de classes de concepts – qui conditionne la convergence uniforme.
Pour définir la VC-dimension, considérons un ensemble de données et une classe de modèles. Pour chaque modèle, une donnée satisfait ou ne satisfait pas ce modèle. Par exemple, si l’on considère comme données les points d’un carré de taille 1 du plan, et comme modèles les portions de demi-plans inférieuresii, alors pour tout demi-plan, une donnée appartient ou non à ce demi-plan.
La suite de la définition repose sur la possibilité pour les modèles de prédire si les données correspondent ou pas au modèle. On parle de pulvériser (shatter) des échantillons finis de données pour une classe C de modèles et un échantillon D de données, si pour tout sous-échantillon D’ de D, il existe un modèle de C tel que D’ est la partie de D satisfaisant ce modèle.
La Figure 1 illustre que tout couple de points peut être pulvérisé par des demi-plansiii. Par contre un échantillon de 3 points n’est pas pulvériséiv. La VC-dimension d’une classe de modèles C est alors le plus grand nombre d’échantillons d tel que tous les échantillons D de cette taille soient pulvérisables.
Dans notre exemple, la classe des fonctions affines (ces droites qui définissent des demi-plan) est donc de VC-dimension 2, puisqu’elles pulvérisent tous les couples de 2 points, mais pas de 3.
La Figure 2 illustre l’influence de la VC-dimension. Une parabole (que l’on ignore) définit la fonction à approximer à partir d’échantillons bruités. La classe des fonctions affines (VC-dimension 2) est trop pauvre, l’erreur empirique est grande. La classe des polynômes de degré 5 (VC-dimension 6) est trop riche, elle permet un sur-apprentissage (erreur empirique faible ou nulle mais erreur de généralisation forte).
Dans leur papier fondateur, Vapnik et Chervonenkis établissent que la convergence est uniforme si et seulement si la VC-dimension est finie, et ils bornent en fonction de cette dimension la taille des échantillons nécessaires pour obtenir un résultat d’une précision donnée.
Du cadre de pensée de Vapnik à l’ingénierie algorithmique de Valiant
En un mot : un algorithme ne rase pas gratisvi . Les travaux de Vapnik et Chervonenkis sur la VC-dimension sont publiés en anglais en 1971 dans une revue soviétique renommée. Lorsqu’il introduit l’apprentissage PAC treize ans plus tard, Valiant ne cite pas Vapnik. Pourtant dans la foulée du papier de Valiant il est vite démontré qu’un concept est PAC apprenable si et seulement si sa VC-dimension est finie.
Il y a donc une concordance entre l’approche statistique et l’approche algorithmique, résultat remarquable qui ancre la problématique de l’apprentissagevii. Et c’est la notion de complexité algorithmique promue par Valiant qui a depuis inspiré l’essentiel des recherches en informatique, parce qu’en général la VC-dimension ne dit pas grand-chose du fait qu’il puisse exister un algorithmique d’apprentissage.
L’ingénierie algorithmique de Valiant appliquée au réseaux de neurones
On peut voir également les réseaux d’apprentissage profond avec des neurones artificiels comme des classes de concepts. Une architecture constitue une classe dans laquelle l’apprentissage consiste à trouver un concept en ajustant les coefficients synaptiques. Il est difficile d’en estimer la VC-dimension mais celle-ci est considérable et n’aide pas à expliquer l’efficacité. Comme l’évoquait Yann le Cun déjà cité, l’efficacité d’un réseau profond de neurones et l’importance de bien le dimensionner sont à rechercher dans son adéquation aux structures cachées du monde où il apprend, ce qui rejoint à très grande échelle la problématique sommairement illustrée par la Figure 1. On perçoit bien que disposer d’un cadre théorique solide, ici la notion d’apprenabilité, fournit un cadre de pensée mais ne fournit pas l’ingénierie nécessaire pour le traitement d’une question particulière. Les recherches ont de beaux jours devant elles. Pour en savoir beaucoup plus sur l’apprentissage en sciences informatiques et statistiques, les cours, articles et ouvrages accessibles sur le net ne manquent pas. Le panorama précis de Shai Shalev-Shwartz et Shai Ben-Davidviii peut être combiné avec les vidéos des cours de Stéphane Mallat, titulaire de la chaire de sciences des données au Collège de France.
Max Dauchet, Université de Lille.
i Vapnik, V. N., & Chervonenkis, A. Y. (1971). « On the Uniform Convergence of Relative Frequencies of Events to Their Probabilities. » Theory of Probability and its Applications, 16(2), 264-280.
ii Ensemble des points sous la droite frontière. Il faut en effet considérer les demi-plans et non les droites pour appliquer rigoureusement la définition en termes d’appartenance d’une donnée à un concept.
iii Sauf si les deux points ont même abscisse, ce qui a une probabilité nulle. Pour un échantillon de deux données, il y a 4 cas à étudier, et il y en a 2dpourddonnées.
iv A delà des fonctions affines, qui sont des poylynômes de degré 1, on établit sans peine que la classe des polynômes de degré n est de VC-dimension n+1. La classe de l’ensemble des polynômes est donc de VC-dimension infinie.
v Soit A le point de plus faible ordonnée. Pour aucun demi-plan inférieur A n’est au dessus et les deux autres points en dessous de la droite frontière.
vi En référence au No-Free-Lunch -Theorem qui stipule qu’il n’y a pas d’algorithme universel d’apprentissage.
vii Valiant passera toujours les travaux de Vapnik sous silence, on peut se demander pourquoi, alors qu’il aurait pu faire de la VC-dimension un argument en faveur de la pertinence de sa propre démarche sans prendre ombrage de Vapnik. C’est qu’en général la VC-dimension ne dit pas grand-chose de la praticabilité algorithmique. En effet, pour de nombreuses classes C d’intérêt, le nombre n de paramètres définit une sous classe Cn : c’est le cas pour le degré n des polynômes, la dimension n d’un espace ou le nombre n de variables d’une expression booléenne. Or, c’est la complexité relative à cet n qu’adresse l’algorithmique et la VC-dimension de Cn ne permet pas de la calculer, même si elle est parfois de l’ordre de n comme c’est le cas pour les polynômes. Ainsi, selon les concepts considérés sur les expressions booléennes à n variables ( les structures syntaxiques comme CNF, 3-CNF, DNF ou 3-terms DNF sont des classes de concepts), il existe ou il n’existe pas d’algorithme d’apprentissage en temps polynomial relativement à n, même si la VC-dimension est polynomiale en n.
viii Shai Shalev-Shwartz and Shai Ben-David, Understanding Machine Learning :From Theory to Algorithms, Cambridge University Press, 2014.
05.07.2024 à 07:00
Blocage de Tik Tok en Nouvelle Calédonie : Respectons nos principes !
binaire
Continuer la lecture de « Blocage de Tik Tok en Nouvelle Calédonie : Respectons nos principes ! »
Texte intégral (2113 mots)
La Nouvelle Calédonie traverse une période de troubles ; récemment, le gouvernement a interdit pendant 2 semaines le réseau social TikTok qu’il accusait de servir de contact entre les manifestants. Cette mesure qu’il a « justifiée » par l’état d’urgence pose plusieurs questions. En tout premier lieu, son efficacité, puisque de nombreuses personnes ont continué à l’utiliser en passant par des VPN. Ensuite, et surtout, a-t-elle respecté des principes juridiques fondamentaux ? Saisi par des opposants à cette mesure, dont la Ligue des Droits de l’Homme, le Conseil d’Etat a rejeté ces saisines parce que le caractère d’urgence n’était pas démontré, ce qui a évité de se prononcer sur le fond. Nous avons donné la parole à Karine Favro (Professeure de droit public, Université de Haute Alsace) et à Célia Zolynski (Professeure de droit privé, Université Paris 1 Panthéon-Sorbonne) pour qu’elles nous expliquent ces questions. Pascal Guitton
La gravité des affrontements qui ont meurtri la Nouvelle Calédonie ces dernières semaines a conduit à la déclaration de l’état d’urgence sur l’ensemble du territoire par décret du 15 mai dernier en application de la loi du 3 avril 1955. Dans le même temps, le Premier ministre y annonçait, par voie de presse, l’interdiction de l’accès à TikTok.
Cette mesure était historique pour le gouvernement français car portant pour la première fois sur un réseau social alors que le 17 mai, dans sa décision relative à la loi visant à sécuriser et réguler l’espace numérique, le Conseil Constitutionnel rappelait qu’ “ En l’état actuel des moyens de communication et eu égard au développement généralisé des services de communication au public en ligne ainsi qu’à l’importance prise par ces services pour la participation à la vie démocratique et l’expression des idées et des opinions, ce droit [à la liberté d’expression] implique la liberté d’accéder à ces services et de s’y exprimer”.
Nombreux ont critiqué la légalité de cette décision de blocage. Pour pouvoir se fonder sur l’article 11 de la loi de 1955, un temps envisagé, il aurait fallu que la plateforme ait été utilisée pour provoquer à la “commission d’actes de terrorisme ou en faisant l’apologie”. Quant aux ingérences étrangères, annoncées comme étant ici en cause, celles-ci ne justifient pas à elles seules que soient prononcées ce type de mesure sur le fondement de ce texte. Restaient alors les circonstances exceptionnelles en application de la jurisprudence administrative conférant au Premier ministre des “pouvoirs propres” comme cela a été reconnu lors de la pandémie pour prononcer le confinement avant l’adoption de la loi relative à l’état d’urgence sanitaire. La brutalité de la mesure était également discutée, celle-ci ayant été prise en l’absence de sollicitation de retrait de contenus des autorités auprès de la plateforme.
Le 23 mai, le Conseil d’Etat a rejeté les trois recours en référé-liberté déposé par des opposants à cette décision et contestant la mesure de blocage pour atteinte à la liberté d’expression. Il retient que l’urgence du juge à intervenir n’est pas établie alors qu’il s’agissait de la condition préalable pour accueillir ces demandes. Ne pouvant se déduire de la seule atteinte à la liberté d’expression, l’ordonnance de référé relève que l’urgence n’était pas justifiée en raison du caractère limité de la mesure (il restait possible de s’exprimer sur d’autres réseaux sociaux et médias) et de sa nature temporaire. Le Conseil d’Etat ayant rejeté les recours parce qu’il considérait que la condition d’urgence n’était pas remplie, il ne s’est pas prononcé sur la proportionnalité de l’atteinte à la liberté d’expression qui pouvait résulter de la mesure d’interdiction. Au même motif, le juge administratif n’a pas eu à transmettre la question prioritaire de constitutionnalité déposée par ces mêmes requérants, visant à contester la conformité à la Constitution de l’article 11 de la loi de 1955. La procédure initiée conduit donc à une impasse.
En l’état, la légalité de la décision prise par le Premier ministre reste ainsi incertaine compte tenu de la nature des recours formés, d’autant que le blocage de Tik Tok a été levé le 29 mai. Pourtant, le débat reste entier concernant la légitimité d’une pareille mesure dont la proportionnalité constitue un enjeu fondamental. Cette dernière impose de déterminer si la solution retenue était la plus efficace pour atteindre le but poursuivi et de vérifier qu’elle était accompagnée de toutes les garanties nécessaires. Sa légitimité est également exigée ; or, la question devient éminemment complexe lorsqu’une mesure de police, par nature préventive, est prononcée dans le cadre d’un mouvement populaire sur lequel elle conduit à se positionner. Un recours a d’ailleurs été depuis déposé par la Quadrature du Net afin que le Conseil d’Etat se prononce au fond sur la légalité du blocage, ce qui l’invitera à considérer, dans son principe même, son bien-fondé. Il conteste en particulier le fait que le Premier ministre puisse prendre une telle décision particulièrement attentatoire à la liberté d’expression, sans publication d’aucun décret soit de manière non formalisée et non motivée, en la portant simplement à la connaissance du public par voie de presse ; les requérants soutiennent que cela revenait à “décider de son propre chef, sur des critères flous et sans l’intervention préalable d’un juge, [de] censurer un service de communication au public en ligne”.
Ce point est essentiel car c’est bien le nécessaire respect de nos procédures, consubstantielles à nos libertés, dont il s’agit. Si nous décidons qu’un service met nos principes en difficulté, c’est en respectant nos procédures et nos principes qu’il nous revient de l’interdire. Il aurait été utile de pouvoir appliquer le Règlement sur les services numériques (DSA) que vient d’adopter l’Union européenne, même si le statut particulier de la Nouvelle Calédonie l’exonère de toute obligation de respecter ce texte. En effet, les mécanismes prévus par le DSA visent à garantir le respect du principe de proportionnalité afin d’assurer tout à la fois la protection des libertés et droits fondamentaux et la préservation de l’ordre public, en particulier lors de situations de crise en précisant le cadre des mesures d’urgence à adopter. Il y est bien prévu le blocage temporaire d’une plateforme sur le territoire de l’Union. Néanmoins, il ne s’agit pas d’une mesure immédiate mais de dernier recours. Elle vise les cas de non-coopération répétée avec le régulateur et de non-respect du règlement lorsque sont concernées des infractions graves menaçant la vie et la sécurité des personnes. Le DSA encadre par ailleurs cette décision d’importantes garanties procédurales. Ainsi, le blocage temporaire doit être prononcé après l’intervention de diverses autorités (la Commission européenne, le régulateur national soit en France l’ARCOM) et sous le contrôle d’une autorité judiciaire indépendante.
La situation appelle alors les pouvoirs publics à conduire d’autres actions déterminantes qui dépassent la seule mesure de police. Tout d’abord, mieux garantir une exigence de transparence pour assurer le respect de nos principes démocratiques, mais également pour ne pas altérer la confiance des citoyens dans nos institutions. On perçoit ici l’intérêt du rapport publié dès le 17 mai par Viginum pour documenter l’influence de l’Azerbaïdjan dans la situation de la Nouvelle Calédonie, qui relève d’ailleurs le rôle joué par d’autres réseaux sociaux comme X et Facebook dans le cadre de manœuvres informationnelles. Compte tenu des enjeux, il convient d’aller plus loin et d’organiser des procédures transparentes et indépendantes à des fins de communication au public. Ensuite, mener un examen approfondi de l’ensemble de la sphère médiatique, ce qui est actuellement réalisé dans le cadre des Etats généraux de l’Information. Plus généralement, promouvoir des mesures de régulation des plateformes pour prôner d’autres approches plus respectueuses de nos libertés, en associant l’ensemble des parties prenantes. A ce titre, il est essentiel de mieux comprendre le rôle joué par les réseaux sociaux et d’agir sur les risques systémiques qu’ils comportent pour l’exercice des droits fondamentaux, en particulier la liberté d’expression et d’information. Cela commande de mettre pleinement en œuvre, et au plus vite, l’ensemble des dispositifs issus du DSA dont l’efficacité paraît déjà ressortir des enquêtes formelles lancées par la Commission européenne comme en atteste la suspension de Tik Tok Lite quelques jours après son lancement en Europe.
Karine Favro (Professeure de droit public, Université de Haute Alsace) et Célia Zolynski (Professeure de droit privé, Université Paris 1 Panthéon-Sorbonne)
28.06.2024 à 07:51
Lena fait ses adieux
binaire
Texte intégral (1997 mots)
Il était une fois….
Recadrée à partir des épaules, la photo centrale de Playboy du mannequin suédois Lena Forsén regardant le photographe de dos fut l’étalon improbable des recherches en traitement d’image, et l’une des images les plus reproduites de tous les temps. « Miss November », playmate d’un jour, aura vu son unique cliché pour le magazine sublimé.
Peu après son impression dans le numéro de novembre 1972 du magazine PlayBoy, la photographie a été numérisée par Alexander Sawchuk, professeur assistant à l’université de Californie, à l’aide d’un scanner conçu pour les agences de presse. Sawchuk et son équipe cherchaient de nouvelles données pour tester leurs algorithmes de traitement d’images : la fameuse page centrale du magazine fut élue, et ce choix justifié par la présence d’un visage et d’un mélange de couleurs claires et foncées. Heureusement, les limites du scanner ont fait que seuls les cinq centimètres encadrant le visage ont été scannés, l’épaule nue de Forsén laissant deviner la nature de l’image originale, à une époque où la pornographie et la nudité étaient évaluées différemment de ce qu’elles le sont désormais.
Etalon d’une communauté, la madone ès image processing…
Dès lors, la photo est devenue une image de référence standard, utilisée un nombre incalculable de fois depuis plus de 50 ans dans des articles pour démontrer les progrès de la technologie de compression d’images, tester de nouveaux matériels et logiciels et expliquer les techniques de retouche d’images. L’image aurait même été une des premières à être téléchargée sur ARPANET, son modèle, Lena, ignorant tout de cette soudaine et durable célébrité.
Lena, vraie étudiante suédoise à New York, modèle d’un jour, a enfin droit à faire valoir sa retraite : l’IEEE a publié un avis à l’intention de ses membres mettant en garde contre l’utilisation continue de l’image de Lena dans des articles scientifiques.
« À partir du 1er avril, les nouveaux manuscrits soumis ne seront plus autorisés à inclure l’image de Lena », a écrit Terry BENZEL, vice-président de l’IEEE Computer Society. Citant une motion adoptée par le conseil d’édition du groupe : «La déclaration de l’IEEE sur la diversité et les politiques de soutien telles que le code d’éthique de l’IEEE témoignent de l’engagement de l’IEEE à promouvoir une culture inclusive et équitable qui accueille tout le monde. En accord avec cette culture et dans le respect des souhaits du sujet de l’image, Lena Forsén, l’IEEE n’acceptera plus les articles soumis qui incluent l’image de Lena».
L’IEEE n’est pas la première à « bannir » la photo de ses publications : en 2018, Nature Nanotechnology a publié une déclaration interdisant l’image dans toutes ses revues de recherche, écrivant dans un édito que «…l’histoire de l’image de Lena va à l’encontre des efforts considérables déployés pour promouvoir les femmes qui entreprennent des études supérieures en sciences et en ingénierie… ».
De multiples raisons scientifiques ont été invoquées pour expliquer cette constance dans l’utilisation de cette image-étalon, rare dans nos domaines : la gamme dynamique (nombre de couleurs ou de niveaux de gris utilisées dans une image), la place centrale du visage humain, la finesse des détails des cheveux de Lena et la plume du chapeau qu’elle porte.
Dès 1996, une note dans IEEE Trans on Image Processing déclarait, pour expliquer pourquoi le rédacteur n’avait pas pris de mesures à l’encontre de l’image, que «l’image de Lena est celle d’une femme attirante», ajoutant : «Il n’est pas surprenant que la communauté des chercheurs en traitement d’images [essentiellement masculine] ait gravité autour d’une image qu’elle trouvait attrayante».
Le magazine PlayBoy aurait pu lui-même mettre un terme à la diffusion de l’image de Lena : en 1992, le magazine avait menacé d’agir, mais n’a jamais donné suite. Quelques années plus tard, la société a changé d’avis : «nous avons décidé d’exploiter ce phénomène», a déclaré le vice-président des nouveaux médias de Playboy en 1997.
Lena Forsén elle-même, « sainte patronne des JPEG » a également suggéré que la photo soit retirée. Le documentaire Losing Lena a été le déclencheur pour encourager les chercheurs en informatique à passer à autre chose : «il est temps que je prenne moi aussi ma retraite […] »[2].
“Fabio is the new Lena”
Fabio Lanzoni, top model italien, sera, le temps d’une publication, le « Lena masculin » : dans « Stable image reconstruction using total variation minimization », publié en 2013, Deanna Needell and Rachel Ward décident d’inverser la vision du gender gap (inégalités de genre) en choisissant un modèle masculin.
La légende a débordé du cadre purement académique : en 2016, « Search by Image, Live (Lena/Fabio) », de l’artiste berlinois Sebastian Schmieg, utilise le moteur de recherche d’images inversées de Google pour décortiquer les récits de plus en plus nombreux autour de l’image (tristement) célèbre de Lena [3] : l’installation est basée sur une requête lancée avec l’image de Lena vs. une lancée avec l’effigie du blond mâle Fabio. Son objectif est d’analyser la manière dont les technologies en réseau façonnent les réalités en ligne et hors ligne. Beau cas d’usage pour la story de notre couple !
De Matilda à Lena….
Alors qu’on parle d’effet Matilda et d’invisibilisation des scientifiques, pour le coup, voilà une femme très visible dans une communauté où les femmes sont sous-représentées !
Quel message envoie cet usage d’une photo « légère », indéniablement objectifiée, pour former des générations d’étudiant.e.s en informatique ? Comment expliquer l’usage par une communauté d’un matériel désincarné, alors que le sujet pouvait être considéré comme dégradant pour les femmes ?
Comment interpréter l’usage abusif, irrespecteux du droit d’auteur, du consentement et de l’éthique, par une communauté très masculinisée d’une seule et unique image féminine ? Effet de halo, biais de confirmation ou de représentativité ? L’ancrage du stéréotype est ici exemplaire.
Alors, conformément aux préconisations de l’IEEE, remercions Lena d’avoir permis les progrès des algorithmes de traitement d’images. Engageons-nous désormais à l’oublier, marquant ainsi « un changement durable pour demain », et à accueillir toutes les futures générations de femmes scientifiques !
Florence SEDES, Professeur d’informatique (Université Paul Sabatier, Toulouse),
[1] https://ieeefrance.org/a-propos-de-ieee/
[2] https://vimeo.com/372265771
[3] https://thephotographersgallery.org.uk/whats-on/sebastian-schmieg-search-image-live-lenafabio
- Persos A à L
- Mona CHOLLET
- Anna COLIN-LEBEDEV
- Julien DEVAUREIX
- Cory DOCTOROW
- EDUC.POP.FR
- Marc ENDEWELD
- Michel GOYA
- Hubert GUILLAUD
- Gérard FILOCHE
- Alain GRANDJEAN
- Hacking-Social
- Samuel HAYAT
- Dana HILLIOT
- François HOUSTE
- Tagrawla INEQQIQI
- Infiltrés (les)
- Clément JEANNEAU
- Paul JORION
- Michel LEPESANT
- Frédéric LORDON
- Blogs persos du Diplo
- LePartisan.info
- Persos M à Z
- Henri MALER
- Christophe MASUTTI
- Romain MIELCAREK
- Richard MONVOISIN
- Corinne MOREL-DARLEUX
- Fabrice NICOLINO
- Timothée PARRIQUE
- Emmanuel PONT
- VisionsCarto
- Yannis YOULOUNTAS
- Michaël ZEMMOUR
- Numérique
- Binaire [Blogs Le Monde]
- Christophe DESCHAMPS
- Louis DERRAC
- Olivier ERTZSCHEID
- Olivier EZRATY
- Framablog
- Francis PISANI
- Pixel de Tracking
- Irénée RÉGNAULD
- Nicolas VIVANT
- Collectifs
- Arguments
- Bondy Blog
- Dérivation
- Dissidences
- Mr Mondialisation
- Palim Psao
- Paris-Luttes.info
- ROJAVA Info
- Créatifs / Art / Fiction
- Nicole ESTEROLLE
- Julien HERVIEUX
- Alessandro PIGNOCCHI
- XKCD