LePartisan.info À propos Podcasts Fil web Écologie BLOGS Revues Médias
binaire
Souscrire à ce FLUX

BINAIRE

Société Informatique de France

Blogs Le Monde - L'informatique : science et technique au coeur du numérique

▸ les 20 dernières parutions

30.08.2024 à 07:58

La vision par ordinateur à votre service

binaire

Un nouvel entretien autour de l’informatique. Gérard Medioni est un informaticien, professeur émérite d’informatique à l’université de Californie du Sud, vice-président et scientifique distingué d’Amazon. Il a des contributions fondamentales à la vision par ordinateur, en particulier à la détection 3D, à la reconstruction de surfaces et à la modélisation d’objets. Il a travaillé sur …
Texte intégral (3106 mots)

Un nouvel entretien autour de l’informatique.

Gérard Medioni est un informaticien, professeur émérite d’informatique à l’université de Californie du Sud, vice-président et scientifique distingué d’Amazon. Il a des contributions fondamentales à la vision par ordinateur, en particulier à la détection 3D, à la reconstruction de surfaces et à la modélisation d’objets. Il a travaillé sur des questions fondamentales comme : Comment déduire des descriptions d’objets à partir d’images ? Comment « reconnaître » des objets que nous n’avons jamais vus ? Ses recherches ont inspiré nombre d’inventions qu’il a porté dans des startups puis chez Amazon.

Gérard Médioni (Source G. Médioni)

 

Binaire : Peux-tu nous raconter brièvement comment tu es devenu professeur d’informatique à l’Université de Californie du Sud ?

GM : J’ai un parcours classique en France, en passant par le lycée Saint-Louis puis Télécom Paris. J’ai découvert l’informatique à Télécom. J’y ai écrit mon premier programme sur un ordinateur, un Iris 80. Il dessinait des figures de Moiré. J’ai découvert alors que les images pouvaient parler à tous.

Figure de Moiré, Wikipédia Commons (cliquer sur le lien pour voir l’animation)

J’étais attiré par la Californie, un peu à l’image de la chanson de Julien Clerc. J’ai candidaté dans des universités californiennes. J’ai été accepté à l’Université de Californie du Sud, à Los Angeles, dans le département d’Electrical Engineering. J’ai eu une bourse du gouvernement français. Quand je suis arrivé, le département d’informatique, minuscule alors avec seulement 3 professeurs, est venu me proposer de rejoindre ce département en tant qu’assistant.

Je me suis retrouvé assistant du Professeur Nevatia, pour le cours d’Intelligence Artificielle, un sujet qui m’était totalement étranger. J’avais deux semaines d’avance sur les étudiants. J’ai découvert alors que le meilleur moyen d’apprendre un sujet était de l’enseigner. De fil en aiguille, je suis devenu prof dans ce département.

Partition de « La Californie », musée Sacem

 

Binaire : Peux-tu nous parler de ta recherche académique à l’Université de Californie du Sud ?

GM : Quand j’étais à Télécom, un grand professeur américain, King-Sun Fu, est venu faire un séminaire. Il nous a présenté l’image d’un cube, et nous a demandé comment un ordinateur pouvait comprendre cette image. Je ne comprenais même pas la question. Et puis, en y réfléchissant, j’ai fini par réaliser la distance qui existe entre une image, un tableau de pixels, et notre perception d’une scène en tant qu’éléments sémantiques, objets, personnes et relations ; nous reconnaissons peut-être un objet, un animal. Comment notre cerveau réalise-t-il cela ? Comment un algorithme peut-il le faire ? J’ai passé ma vie à répondre à ces questions. Elle est assez complexe pour me garantir à vie des sujets de recherche passionnants.

Le sujet est donc la vision par ordinateur qui s’intéresse à donner du sens à des images, des films, à comprendre la sémantique présente dans des nuages de points. Pour y arriver, on a développé toute une gamme de techniques. Par exemple, en observant une même scène en stéréo avec deux caméras qui capturent des images en deux dimensions à partir de points de vue légèrement différents, on peut essayer de reconstruire la troisième dimension.

Binaire : l’intelligence artificielle a-t-elle transformé ce domaine ?

GM : Elle l’a véritablement révolutionné. La vision par ordinateur obtenait de beaux résultats jusqu’en 2012, mais dans des domaines restreints, dans des environnements particuliers. Et puis, on a compris que le deep learning* ouvrait des possibilités fantastiques. Depuis, on a obtenu des résultats extraordinaires en vision par ordinateur. Je pourrais parler de cela quand on arrivera à mon travail sur Just walk out d’Amazon.

Binaire : Tu fais une belle recherche, plutôt fondamentale, avec de superbes résultats. Tu aurais pu en rester là. Qu’est-ce qui te motive pour travailler aussi sur des applications ?

GM : On voit souvent un professeur d’université comme quelqu’un qui invente un problème dans sa tour d’ivoire, et lui trouve une solution. Au final, son problème et sa solution n’intéressent pas grand monde. Ce n’est pas mon truc. J’ai toujours été attiré par les vrais problèmes. Quand les ingénieurs d’une équipe industrielle sont bloqués par un problème, qu’ils n’arrivent pas à le résoudre, ce n’est pas parce qu’ils sont médiocres, c’est souvent parce que le problème est un vrai défi, et que le cœur du sujet est un verrou scientifique. Et là, ça m’intéresse.

Aide visuelle pour les aveugles (Source G. Médioni) 

 

Pour prendre un exemple concret, j’ai travaillé plusieurs années sur l’aide à la navigation de personnes aveugles. Le système consistait en une caméra pour étudier l’environnement et de micro-moteurs dans les vestes des personnes pour leur transmettre des signaux. On a réalisé un proof of concept (preuve de concept), et cela a été un franc succès. Et puis, j’ai reçu un courriel d’une personne aveugle qui me demandait quand elle pourrait utiliser le système. Je n’ai pas pu lui répondre et j’ai trouvé cela hyper déprimant. Je voulais aller jusqu’au produit final. Pour faire cela, il fallait travailler directement avec des entreprises.

Binaire : Cela t’a donc conduit à travailler souvent avec des entreprises. Pourrais-tu nous parler de certains de tes travaux ?

GM : J’ai beaucoup travaillé avec des entreprises américaines, israéliennes, ou françaises. J’ai participé au dépôt de nombreux brevets. Une de mes grandes fiertés est d’avoir participé au développement d’une camera 3D qui se trouve aujourd’hui dans des millions de téléphones. J’ai travaillé, pour une entreprise qui s’appelait Primesense, sur une caméra très bon marché qui équipait un produit que vous connaissez peut-être, le Microsoft Kinect. Kinect est rentré dans le Guinness des records comme le consumer electronics device (appareil électronique grand public) le plus rapidement vendu massivement. Primesense a été rachetée ensuite par Apple, et aujourd’hui cette technologie équipe les caméras des Iphones.  Je suis fier d’avoir participé au développement de cette technologie !

Senseur Primesensense intégré dans l’iPhone (Source G.Médioni)

 

Et puis, un jour Amazon m’a contacté pour me proposer de m’embaucher pour un projet sur lequel ils ne pouvaient rien me dire. Je leur ai répondu que j’aimais mon travail de prof et que je ne cherchais pas autre chose. Ils ont insisté. Je les ai rencontrés. Et ils ont fini par me parler d’Amazon Go, des boutiques sans caissier. C’était techniquement fou, super complexe. C’était évidemment tentant. Je leur ai posé sans trop y croire des conditions dingues comme de pouvoir recruter plein de chercheurs, de monter un labo de R&D en Israël. Ils ont dit oui à tout. Je bosse pour Amazon depuis 10 ans, et j’aime ce que j’y fais.

Binaire : Pourrais-tu nous en dire un peu plus sur Amazon Go, et sur le projet suivant Just Walk Out ? Quelles étaient les difficultés ?

GM : Avec Amazon Go, le client entre dans un magasin, prend ce qu’il veut et ressort. Il ne s’arrête pas à la caisse pour payer. Les vidéos de caméras placées dans tout le magasin sont analysées en permanence. Le client présente un mode de paiement à l’entrée, auquel une signature visuelle est associée. Ainsi, le système permet de le localiser dans le magasin, de détecter quand il prend ou qu’il pose un objet, quel est cet objet. Un reçu virtuel est mis à jour automatiquement. Quand le client sort du magasin, le reçu virtuel devient un reçu définitif et le paiement s’effectue. On a testé Amazon Go en 2017 dans des magasins pour les employés d’Amazon, et puis on a ouvert au public en 2018.

Une difficulté est qu’il faut que ça fonctionne tout le temps, et pour tous les clients, avec un très bon niveau de précision. On a très peu droit à l’erreur si on ne veut pas perdre la confiance des clients.

Plutôt que de créer des magasins avec tout le métier que cela représente, Amazon a choisi dans un deuxième temps de proposer cette techno à des magasins existants pour les équiper. On est passé à Just Walk Out, il y a deux ans. On équipe aujourd’hui plus de 160 points de vente, notamment dans des stades et des aéroports.

Binaire : Pourrait-on parler maintenant du deep learning et de sa place dans ce projet ?

GM : Au début du projet, Amazon Go n’utilisait pas le deep learning. Et autour de 2012, nous avons été convaincus que cette techno apporterait des améliorations considérables. Cela a un peu été comme de changer le moteur de l’avion en plein vol. Nos équipes travaillaient avant sur des modules séparés que l’on combinait. Mais chaque modification d’un module était lourde à gérer. On est passé avec le deep learning et le end-to-end learning** à un seul module. L’apprentissage permet d’améliorer toutes les facettes de ce module en même temps. Cela n’a pas été simple de faire évoluer toutes les équipes. On y est arrivé, et cela fonctionne bien mieux, plus efficacement.  

Binaire : Pourquoi cette technologie ne s’est-elle pas installée sur plus de supermarchés ?

GM : Un problème est que, dans des grandes surfaces, certains produits sont difficiles à gérer : les fruits et légumes au poids, les fleurs, le vrac… La techno s’est donc déployée dans des domaines où l’attente des clients est un vrai problème comme les évènements sportifs et culturels.

Binaire : Tu participes ensuite à la création du service d’identité biométrique Amazon One, pour faciliter le paiement et d’autres fonctions. Pourrais-tu nous dire en quoi cela consiste ?

GM : À Amazon, un souci constant est de résoudre les problèmes de nos clients. Pour Just Walk Out, c’était très clair, personne n’aime faire la queue à la caisse. Avec Amazon One, le problème est celui de valider son identité. Pour faire cela, de nombreuses méthodes peuvent être considérées : ADN, empreinte digitale, iris, etc. Nous avons choisi d’utiliser la paume de la main. On est arrivé à faire plus que de la vérification : de l’identification. On peut trouver une personne parmi des millions dans une base de données, ou détecter qu’elle n’y est pas.

Pour réaliser cela, on prend deux images : une de la surface de la paume de la main et une autre en infrarouge du réseau sanguin. Ces informations indépendantes se complémentent et identifient une personne avec une surprenante précision, 1000 fois plus précis que le visage, et 100 fois plus que les 2 iris des yeux !

L’appareil de Amazon One, ©Amazon

 

Binaire : En vieillissant, ma paume ne va-t-elle pas changer ?

GM : Oui, lentement et progressivement. Mais, à chaque fois que vous utilisez le service, la signature est mise à jour. Si vous ne vous servez pas du service pendant deux ans, on vous demande de vous réidentifier.

Binaire : Et aujourd’hui, sur quoi travailles-tu ?

GM : Je travaille pour le service Prime Video d’Amazon. Nous cherchons à créer de nouvelles expériences vidéos pour le divertissement.

Binaire : Tu es resté lié à des chercheurs français. Pourrais-tu nous dire comment tu vois la différence entre la recherche en informatique aux US et en France ?

GM : L’éducation française est extraordinaire ! La qualité des chercheurs en informatique en France est excellente. Mais l’intelligence artificielle change la donne. La France avec des startups comme Mistral est à la pointe du domaine. Mais, pour rester dans la course, une infrastructure énorme est indispensable. Cela exige d’énormes investissements. Est-ce qu’ils sont là ?

Les talents existent en France. Il faut arriver à construire un cadre, des écosystèmes, dans lesquels ils puissent s’épanouir pour créer de la valeur technologique.

Binaire : Aurais-tu un conseil pour les jeunes chercheurs ?

GM : Le monde de la publication a changé fondamentalement. Les publications dans des journaux ont perdu de leur importance, car elles prennent trop de temps. Et même aujourd’hui, une publication dans une conférence arrive tard. Si on ne suit pas les prépublications comme sur arXiv, on n’est plus dans le coup.

Personne n’avait vu venir le deep learning, les large language models… On vit une révolution technologique incroyable de l’informatique et de l’intelligence artificielle.  La puissance des outils qu’on développe est fantastique. Tous les domaines sont impactés, médecine, transport, agriculture, etc.

Les chercheurs vont pouvoir faire plus, beaucoup plus vite. Les jeunes chercheurs vont pouvoir obtenir des résultats dingues. Mais, il va leur falloir être très agiles !

Serge Abiteboul, Inria, & Ikram Chraibi Kaadoud, Inria

(Serge Abiteboul a étudié avec Gérard Médioni à Télécom et USC. Ils sont amis depuis.)

Pour aller plus loin 

(*) Le deep learning ou « apprentissage profond » est un sous-domaine de l’intelligence artificielle qui utilise des réseaux neuronaux pour résoudre des tâches complexes.

(**) L’end-to-end learning ou « apprentissage de bout en bout » est un type de processus d’apprentissage profond dans lequel tous les paramètres sont mis au point en même temps, plutôt que séparément.

 

https://www.lemonde.fr/blog/binaire/les-entretiens-de-la-sif/

 

19.07.2024 à 07:16

Binaire fait sa pause estivale

binaire

Pour un été non binaire : partez avec binaire dans vos favoris. Nous faisons notre pause estivale avant de revenir partager avec vous des contenus de popularisation sur l’informatique ! À la rentrée nous parlerons à nouveau aussi bien de technologie que de science, d’enseignement, de questions industrielles, d’algorithmes, de data… bref, de tous les …
Texte intégral (1118 mots)

Pour un été non binaire : partez avec binaire dans vos favoris.

Nous faisons notre pause estivale avant de revenir partager avec vous des contenus de popularisation sur l’informatique !

À la rentrée nous parlerons à nouveau aussi bien de technologie que de science, d’enseignement, de questions industrielles, d’algorithmes, de data… bref, de tous les sujets en lien avec le monde numérique qui nous entoure …

D’ici là, vous pouvez tout de même passer l’été avec binaire en profitant de nos collections qui contiennent sûrement de beaux articles que vous n’avez pas encore eu le temps de lire*, comme par exemple «Femmes et numérique inclusif par la pratique».

©Catherine Créhangeundessinparjouravec sa gracieuse autorisation.

(*) Voici aussi quelques lectures coup de cœur en lien avec nos sujets :

Vive les communs numériques ! où des logiciels libres en passant par Wikipédia et la science ouverte, on nous explique tout sur ces  ressources partagées, gérées et entretenues par une communauté, pour en faire un bien commun.

 

 

 

 – Ada & Zangemann : un joli conte vivant sur l’informatique libre, la camaraderie et le rôle des filles pour une technique au service de l’autonomie.

 

 

Nous sommes les réseaux sociaux s’attaque à la régulation des réseaux sociaux, ces complexes objets mi-humains et mi-algorithmes, qui nous unissent pour le meilleur et pour le pire tandis que c’est à nous toutes et tous de définir ce qui doit être fait.

 

 

 

Et aussi :

– Pour une nouvelle culture de l’attention où on décrypte comme notre temps de cerveau se monnaye sur Internet, comme si nous étions des biens consommables.

Les IA à l’assaut du cyberespace où on voit comment les GAFAMs, pour leur propre profit, visent à travers leurs algorithmes à nous indiquer quoi faire, que dire et où regarder, au lieu de permettre à l’humanité de partager.

 – Mettre l’économie et le numérique au service de l’avenir où une philosophe et un économiste proposent une analyse de la capitalisation de nos esprits  et du rapport à notre corps. 

Paresse pour tous où on questionne, avec les possibilités qu’offrent le numérique, la relation temps libre – travail  en défendant l’idée que la vie ne se résume pas au travail, à la croissance, à la consommation.

12.07.2024 à 07:01

Exit l’intelligence, vive l’éducabilité !

binaire

Max Dauchet nous parle d’une nouvelle théorie de la singularité humaine, d’après Leslie Valiant i. Il offre aux lecteurs de binaire l’occasion d’approcher une idée fondamentale : l’apprentissage Probablement Approximativement Correct (PAC). Le livre de Leslie Vaillant dont il nous parle est intéressant, pas si difficile à lire. Mais il n’est pas simple à résumer. Max y …
Texte intégral (2925 mots)
Max Dauchet nous parle d’une nouvelle théorie de la singularité humaine, d’après Leslie Valiant i. Il offre aux lecteurs de binaire l’occasion d’approcher une idée fondamentale : l’apprentissage Probablement Approximativement Correct (PAC). Le livre de Leslie Vaillant dont il nous parle est intéressant, pas si difficile à lire. Mais il n’est pas simple à résumer. Max y arrive. Serge Abiteboul et Thierry Viéville.

L’éducabilité, notre avantage darwinien

De la sélection darwinienne à l’émergence des civilisations, des proto-organismes aux humains, l’évolution de la vie n’est selon le récent ouvrage de Leslie Valiant qu’un immense apprentissage « Probablement Approximativement Correct´´ PAC (cf. infra) – notion due à l’auteur et couronnée en 2010 du prestigieux prix Turingii.

Dans les interactions entre individus, entre espèces, avec l’environnement, ce qui « apprend » le mieux prend le dessus. L’auteur explique comment l’évolution « PAC-darwinienne » a fait émerger notre aptitude à construire des Educable Learning Systems (Systèmes d’apprentissage éducable). Le maître mot est là, nous sommes la seule espèce devenue éducable. Dès lors nous n’avons guère le choix, nous devons tout miser sur une éducation à l’épreuve de la scienceiii, c’est notre meilleure chance de donner les bons coups de pagaie pour orienter notre destin dans le flot de l’évolution qui nous emporte. Et comme l’éducabilité tient en PAC une base solide, ce doit être là le pilote des recherches en éducation, qui sont encore trop empiriques, morcelées, voire idéologiques.

Si Charles Darwin avait été informaticien, il aurait pu écrire ce livreiv, qui en donnant une base calculatoire à l’évolution, en étend les règles du vivant aux idées. Valiant a l’habilité de nous amener progressivement à cette thèse au fil des pages. Je suggère néanmoins comme mise en appétit de commencer la lecture par le dernier chapitre, A Species Adriftv, que je viens de résumer.

L’intelligence, une mauvaise notion

Valiant règle en quelques lignes son sort à l’intelligence : c’est un mauvais concept, impossible à définirvi. Il argumente que notre aptitude à traiter de l’information fait sens au niveau de l’espèce et de son histoire plutôt qu’au niveau individuel. Peut-être que la notoriété de Leslie Vaillant et la consistance de ses propos aideront à réviser notre approche de l’intelligence, source de regrettables confusions quand elle touche à l’IA, et parfois de ravages sur les bancs de l’école.

Un texte ambitieux mais facile à aborder

Si le lecteur est informaticien, il a forcément entendu parler de l’apprentissage PACvii, a eu du mal à s’imprégner de la définition, a trouvé le formalisme lourd et les exemples laborieux. Les autres peuvent être rebutés par l’évocation de PAC à chaque page – une coquetterie d’auteur que l’on pardonnera. Dans les deux cas, que l’on se rassure. La lecture est aisée, elle ne demande aucune connaissance particulière. Le style est sobre et l’argumentation solide, digne du grand scientifique qu’est Valiant – qui fustige au passage les vendeurs de peur d’un « grand remplacement » de l’humain par la machine, comme hélas nous en connaissons tous.

PAC : Une vision computationnelleviii de l’évolution, des molécules aux civilisations

Plus en détail, il n’y a aucun formalisme mathématique dans cet ouvrage, PAC est présenté par sa « substantifique moelle ». L’idée est que l’évolution est un apprentissage, et qu’il ne peut y avoir d’apprentissage que Probablement Approximativement Correct (PAC). Approximativement, parce que retenir exactement est retenir par cœur, et cela ne dit rien d’une situation proche si l’on n’englobe pas les deux dans une même approximation ix. Probablement car il existera toujours de rares situations qui n’auront pas été échantillonnées lors de l’apprentissage et ne seront donc même pas approximées x. Enfin, dans un contexte darwinien de compétition, cet apprentissage ne doit pas prendre trop de tempsxi. Le deep learning (l’apprentissage profond, en français) qui fait l’actualité est un exemple d’apprentissage PAC.  

L’apprentissage PAC est d’abord un apprentissage par des exemples ; il lie par l’expérience des comportements à des stimuli dans les espèces rudimentaires – Valiant cite les escargots de mer. Au fil de l’évolution, de tels apprentissages peuvent se chaîner en comportements plus complexes, mais ce processus évolutif trouve vite ses limites car si une chaîne se rallonge, les incertitudes se cumulent. La plupart des espèces en sont là, limitées au chaînage de quelques règles élémentaires, qui s’inscrivent par sélection dans leur patrimoine biologique. Pour les espèces plus évoluées, cet inné peut se compléter par l’expérience individuelle, comme pour le chien de Pavlov. Mais seuls les humains ont une capacité corticale suffisante pour transmettre par l’éducation, condition nécessaire à la constitution des civilisations et des cultures. Pour éduquer, il faut nommer les choses ce qui permet d’apprendre sur des mots (plus exactement des tokens – des occurrences) et non seulement sur des stimuli. Valiant nomme de tels corpus de règles sur des tokens des Integrative Learning Systems, qui, combinés à nos capacités individuelles d’apprentissage par l’expérience et de communication, constituent des Educable Learning Systems. L’apport de Valiant est de décrire comment ces capacités sont apparues lors de l’évolution du vivant, par une conjonction fortuite de contingences, et surtout de montrer qu’elles devaient apparaître, d’une façon ou d’une autre, tôt ou tard, tant elles procurent un avantage considérablexii.

Un monde redevenu intelligible

Au fil des pages, on comprend que le monde vivant est structuré, et qu’il ne pouvait pas en être autrement. Il était en effet fort peu probable de passer d’un seul coup des amibes aux humains ! Les mutations et le hasard créent au fil du temps une diversité d’entités apprenantes, les plus adaptées survivent, puis rentrent à nouveau en compétition d’apprentissage. Le neurone est à cet égard une formidable trouvaille. La vie aurait pu évoluer tout autrement, mais forcément en se structurant par assemblage avantageux du plus simple au plus complexe. On peut ainsi relire la boutade des spécialistes du deep learning étonnés par les succès de leurs techniques : « Soit Dieu existe, soit le monde est structuré »xiii. La réponse de Valiant est que le monde est structuré parce qu’il est né du PAC learning, ce qui est une façon de dire que le monde est intelligible, comme le rêvaient les encyclopédistes et les Lumières.

L’apprentissage PAC, conçu il y a un demi-siècle, est au cœur des développements récents des sciences du calcul et des données,au carrefour des statistiques, de l’informatique et des mathématiques, jalonné par le triangle Régularité-Approximation-Parcimoniexiv. On peut regretter l’absence dans l’ouvrage de considérations sur le troisième sommet de ce triangle, le principe de parcimonie xv, alors qu’y faire référence renforcerait les arguments du livre. On peut aussi regretter qu’il ne soit fait aucune allusion aux progrès considérables dans le traitement du signalxvi réalisés ces dernières décennies, et qui sont une des clés du succès de l’apprentissage profond.

Au-delà, le premier mérite de l’ouvrage est de faire réfléchir, de mettre en débats des idées en bonne partie nouvelles. Fussent-elles encore fragiles, celles-ci sont les bienvenues à une époque en manque de perspectives intellectuelles.

Max Dauchet, Université de Lille.

Pour aller un peu plus loin, Max nous propose un complément plus technique pour nous faire partager l’évolution scientifique d’une approche purement statistique à une vision scientifique de l’apprentissage : ici.

i The Importance of Being Educable. A new theory of human uniqueness. Leslie Valiant, Princeton University Press, 2024.

ii Équivalent du prix Nobel pour les sciences informatiques, créé en 1966. Deux Français en ont été lauréats, Joseph Sifakis en 2007 et Yann Le Cun en 2018.

iii Pour Valiant, la science est une croyance qui se distingue des autres par la robustesse de sa méthode : la communauté scientifique internationale la teste, la conteste, la réfute ou la conforte à l’épreuve des expérimentations, alors que les complotismes ne font que se renforcer dans des bulles.

iv Comme chez Darwin, il n’y a aucun finalisme chez Valiant, aucune « main invisible » ne guide l’émergence d’une vie de plus en plus complexe, nous sommes dans le cadre strict de la science.

v Une espèce à la dérive, au sens de soumise aux flots de l’évolution.

vi Cette attitude pourrait paraître désinvolte au regard de la démarche d’un cogniticien comme Daniel Andler, auteur du récent et épais ouvrage Intelligence artificielle, intelligence humaine : la double énigme (collection NRF Essais, Gallimard, 2023). C’est que les buts différents. Valiant s’intéresse aux principes et D. Andler décortique les détails d’une comparaison. S’il s’agissait du vol, le premier étudierait l’aérodynamique et le second comparerait la texture des plumes d’oiseaux à la courbure des ailes d’avions.

vii A Theory of the Learnable CACM, 1984, volume 27, numéro 11, pages 1134-1142. C’est dans cet article fondateur que l’on trouve l’exposé le plus clair des motivations, qui sont déjà dans la perspective du présent ouvrage.

Entre temps, L. Vaillant avait publié en 2013 Probably Approximately Correct: Nature’s Algorithms for Learning and Prospering in a Complex World, traduit en français en 2018 avec une préface de Cédric Villani (Editions Vuibert Cassini). Dans cet ouvrage comme dans son exposé de remise du prix Turing (https://amturing.acm.org/ ), Valiant met l’accent sur l’apprentissage computationnel du vivant, notamment au niveau génétique.

viii Valiant précise que pour lui, l’évolution n’est pas comme un calcul informatique, c’est un calcul.

ix Ainsi apprendre par cœur des mots de passe ne dit rien sur les autres mots de passe ni sur la cryptographie.

x PAC capte précisément cette notion en termes d’outillage statistique.

xi Le cadre théorique est l’apprentissage en temps polynomial, ce qui représente une classe d’algorithmes excluant les explosions combinatoires.

xii L’auteur introduit finalement le Mind’s Eye comme intégrateur des fonctions précédentes. Cet « œil de l’esprit » s’apparente à la capacité cognitive d’un individu de lier les acquis de l’histoire – la condition humaine – à sa propre expérience. Cette notion reste vague, elle est décrite en termes de métaphores informatiques, ce que l’on peut admettre sachant que l’auteur ne considère que des fonctionnalités et non la façon de les réaliser.

xiii Anecdote rapportée par Yann Le Cun.

xiv Cours de Stéphane Mallat, Chaire de Science des Données, Collège de France.

xv Principe qui privilégie les causes simples.

xvi Le traitement du signal permet d’éliminer le bruit d’un signal, et là aussi le principe de parcimonie est un guide.

12.07.2024 à 06:44

De l’apprentissage à l’éducabilité, de Vapnik à Valiant

binaire

Max Dauchet nous a parlé ici d’une nouvelle théorie de l’apprentissage Probablement Approximativement Correct (PAC) en présentant le dernier livre de Leslie Vaillant. Ici, pour nous permettre d’aller un peu plus loin, il nous fait partager l’évolution scientifique d’une approche purement statistique à la vision scientifique de l’apprentissage. Max y arrive, sans alourdir son propos d’aucune …
Texte intégral (2381 mots)
Max Dauchet nous a parlé ici d’une nouvelle théorie de l’apprentissage Probablement Approximativement Correct (PAC) en présentant le dernier livre de Leslie Vaillant. Ici, pour nous permettre d’aller un peu plus loin, il nous fait partager l’évolution scientifique d’une approche purement statistique à la vision scientifique de l’apprentissage. Max y arrive, sans alourdir son propos d’aucune équation. Serge Abiteboul et Thierry Viéville.

Pour mieux situer les travaux de Leslie Valiant, il faut évoquer ceux conduits antérieurement en URSS par Vladimir Vapniki.

La dimension de Vapnik-Chervonenkis (VC-dimension). 

La motivation de Vapnik et ses collègues est purement statistique : comment assurer qu’un modèle minimise à la fois l’erreur sur les données d’apprentissage (erreur empirique) et l’erreur de généralisation sur l’ensemble des données ? Comme lors des sondages électoraux, par exemple : s’assurer que ce qui est approximativement vrai sur un échantillon, l’est toujours à peu près sur toute la population visée.

Cette propriété, appelée convergence uniforme, n’est évidemment pas satisfaite en général. En fait, si un modèle possède tellement de paramètres à ajuster, qu’il puisse coller très précisément et de manière spécifique aux données d’apprentissage, il ne saura pas bien prédire des données plus générales.

La VC-dimension est un indicateur de ces classes de modèles – souvent désignées par le terme de classes de concepts – qui conditionne la convergence uniforme. 

Pour définir la VC-dimension, considérons un ensemble de données et une classe de modèles. Pour chaque modèle, une donnée satisfait ou ne satisfait pas ce modèle. Par exemple, si l’on considère comme données les points d’un carré de taille 1 du plan, et comme modèles les portions de demi-plans inférieuresii, alors pour tout demi-plan, une donnée appartient ou non à ce demi-plan.
La suite de la définition repose sur la possibilité pour les modèles de prédire si les données correspondent ou pas au modèle. On parle de pulvériser (shatter) des échantillons finis de données pour une classe C de modèles et un échantillon D de données, si pour tout sous-échantillon D’ de D, il existe un modèle de C tel que D’ est la partie de D satisfaisant ce modèle.

Figure 1 : tout échantillon de deux données est pulvérisé par un demi-plan  : que A ou B lui appartiennent ou ne lui appartiennent pas , il y a toujours un demi plan qui satisfait ce résultat.

La Figure 1 illustre que tout couple de points peut être pulvérisé par des demi-plansiii. Par contre un échantillon de 3 points n’est pas pulvériséiv. La VC-dimension d’une classe de modèles C est alors le plus grand nombre d’échantillons d tel que tous les échantillons D de cette taille soient pulvérisables.

Dans notre exemple, la classe des fonctions affines (ces droites qui définissent des demi-plan) est donc de VC-dimension 2, puisqu’elles pulvérisent tous les couples de 2 points, mais pas de 3.

Figure 2 : approximer par une classe de modèles ni trop simple ni trop large, les données correspondant aux 5 points, en noir par une droite, en pointillé rouge par une parabole, en violet par une courbe qui passe par tous les points.

 

La Figure 2 illustre l’influence de la VC-dimension. Une parabole (que l’on ignore) définit la fonction à approximer à partir d’échantillons bruités. La classe des fonctions affines (VC-dimension 2) est trop pauvre, l’erreur empirique est grande. La classe des polynômes de degré 5 (VC-dimension 6) est trop riche, elle permet un sur-apprentissage (erreur empirique faible ou nulle mais erreur de généralisation forte).

Dans leur papier fondateur, Vapnik et Chervonenkis établissent que la convergence est uniforme si et seulement si la VC-dimension est finie, et ils bornent en fonction de cette dimension la taille des échantillons nécessaires pour obtenir un résultat d’une précision donnée.

 Du cadre de pensée de Vapnik à l’ingénierie algorithmique de Valiant

En un mot : un algorithme ne rase pas gratisvi . Les travaux de Vapnik et Chervonenkis sur la VC-dimension sont publiés en anglais en 1971 dans une revue soviétique renommée. Lorsqu’il introduit l’apprentissage PAC treize ans plus tard, Valiant ne cite pas Vapnik. Pourtant dans la foulée du papier de Valiant il est vite démontré  qu’un concept est PAC apprenable si et seulement si sa VC-dimension est finie.

Il y a donc une concordance entre l’approche statistique et l’approche algorithmique,  résultat remarquable qui ancre la problématique de l’apprentissagevii. Et c’est la notion de complexité algorithmique promue par Valiant qui a depuis inspiré l’essentiel des recherches en informatique, parce qu’en général la VC-dimension ne dit pas grand-chose du fait qu’il puisse exister un algorithmique d’apprentissage.

 L’ingénierie algorithmique de Valiant appliquée au réseaux de neurones

 On peut voir également les réseaux d’apprentissage profond avec des neurones artificiels comme des classes de concepts. Une architecture constitue une classe dans laquelle l’apprentissage consiste à trouver un concept en ajustant les coefficients synaptiques. Il est difficile d’en estimer la VC-dimension mais celle-ci est considérable et n’aide pas à expliquer l’efficacité. Comme l’évoquait Yann le Cun déjà cité, l’efficacité d’un réseau profond de neurones et l’importance de bien le dimensionner sont à rechercher dans son adéquation aux structures cachées du monde où il apprend, ce qui rejoint à très grande échelle la problématique sommairement illustrée par la Figure 1. On perçoit bien que disposer d’un cadre théorique solide, ici la notion d’apprenabilité, fournit un cadre de pensée mais ne fournit pas l’ingénierie nécessaire pour le traitement d’une question particulière. Les recherches ont de beaux jours devant elles. Pour en savoir beaucoup plus sur l’apprentissage en sciences informatiques et statistiques, les cours, articles et ouvrages accessibles sur le net ne manquent pas. Le panorama précis de Shai Shalev-Shwartz et Shai Ben-Davidviii peut être combiné avec les vidéos des cours de Stéphane Mallat, titulaire de la chaire de sciences des données au Collège de France.

Max Dauchet, Université de Lille.

i Vapnik, V. N., & Chervonenkis, A. Y. (1971). « On the Uniform Convergence of Relative Frequencies of Events to Their Probabilities. » Theory of Probability and its Applications, 16(2), 264-280.

ii Ensemble des points sous la droite frontière. Il faut en effet considérer les demi-plans et non les droites pour appliquer rigoureusement la définition en termes d’appartenance d’une donnée à un concept.

iii Sauf si les deux points ont même abscisse, ce qui a une probabilité nulle. Pour un échantillon de deux données, il y a 4 cas à étudier, et il y en a 2dpourddonnées.

iv A delà des fonctions affines, qui sont des poylynômes de degré 1, on établit sans peine que la classe des polynômes de degré n est de VC-dimension n+1. La classe de l’ensemble des polynômes est donc de VC-dimension infinie.

v Soit A le point de plus faible ordonnée. Pour aucun demi-plan inférieur A n’est au dessus et les deux autres points en dessous de la droite frontière.

vi En référence au No-Free-Lunch -Theorem qui stipule qu’il n’y a pas d’algorithme universel d’apprentissage.

vii Valiant passera toujours les travaux de Vapnik sous silence, on peut se demander pourquoi, alors qu’il aurait pu faire de la VC-dimension un argument en faveur de la pertinence de sa propre démarche sans prendre ombrage de Vapnik. C’est qu’en général la VC-dimension ne dit pas grand-chose de la praticabilité algorithmique. En effet, pour de nombreuses classes d’intérêt, le nombre n de paramètres définit une sous classe Cn : c’est le cas pour le degré n des polynômes, la dimension n d’un espace ou le nombre n de variables d’une expression booléenne. Or, c’est la complexité relative à cet qu’adresse l’algorithmique et la VC-dimension de Cn ne permet pas de la calculer, même si elle est parfois de l’ordre de n comme c’est le cas pour les polynômes. Ainsi, selon les concepts considérés sur les expressions booléennes à n variables ( les structures syntaxiques comme CNF, 3-CNF, DNF ou 3-terms DNF sont des classes de concepts), il existe ou il n’existe pas d’algorithme d’apprentissage en temps polynomial relativement à n, même si la VC-dimension est polynomiale en n.

viii Shai Shalev-Shwartz and Shai Ben-David, Understanding Machine Learning :From Theory to Algorithms, Cambridge University Press, 2014.

05.07.2024 à 07:00

Blocage de Tik Tok en Nouvelle Calédonie : Respectons nos principes !

binaire

La Nouvelle Calédonie traverse une période de troubles ; récemment, le gouvernement a interdit pendant 2 semaines le réseau social TikTok qu’il accusait de servir de contact entre les manifestants.  Cette mesure qu’il a « justifiée » par l’état d’urgence pose plusieurs questions. En tout premier lieu, son efficacité, puisque de nombreuses personnes ont continué à l’utiliser …
Texte intégral (2113 mots)

La Nouvelle Calédonie traverse une période de troubles ; récemment, le gouvernement a interdit pendant 2 semaines le réseau social TikTok qu’il accusait de servir de contact entre les manifestants.  Cette mesure qu’il a « justifiée » par l’état d’urgence pose plusieurs questions. En tout premier lieu, son efficacité, puisque de nombreuses personnes ont continué à l’utiliser en passant par des VPN. Ensuite, et surtout, a-t-elle respecté des principes juridiques fondamentaux ? Saisi par des opposants à cette mesure, dont la Ligue des Droits de l’Homme, le Conseil d’Etat a rejeté ces saisines parce que le caractère d’urgence n’était pas démontré, ce qui a évité de se prononcer sur le fond.  Nous avons donné la parole à Karine Favro (Professeure de droit public, Université de Haute Alsace) et à Célia Zolynski (Professeure de droit privé, Université Paris 1 Panthéon-Sorbonne) pour qu’elles nous expliquent ces questions. Pascal Guitton

La gravité des affrontements qui ont meurtri la Nouvelle Calédonie ces dernières semaines a conduit à la déclaration de l’état d’urgence sur l’ensemble du territoire par décret du 15 mai dernier en application de la loi du 3 avril 1955. Dans le même temps, le Premier ministre y annonçait, par voie de presse, l’interdiction de l’accès à TikTok.

Image générée par ChatGPT

Cette mesure était historique pour le gouvernement français car portant pour la première fois sur un réseau social alors que le 17 mai, dans sa décision relative à la loi visant à sécuriser et réguler l’espace numérique, le Conseil Constitutionnel rappelait  qu’ “ En l’état actuel des moyens de communication et eu égard au développement généralisé des services de communication au public en ligne ainsi qu’à l’importance prise par ces services pour la participation à la vie démocratique et l’expression des idées et des opinions, ce droit [à la liberté d’expression] implique la liberté d’accéder à ces services et de s’y exprimer”.

Nombreux ont critiqué la légalité de cette décision de blocage. Pour pouvoir se fonder sur l’article 11 de la loi de 1955, un temps envisagé, il aurait fallu que la plateforme ait été utilisée pour provoquer à la “commission d’actes de terrorisme ou en faisant l’apologie”. Quant aux ingérences étrangères, annoncées comme étant ici en cause, celles-ci ne justifient pas à elles seules que soient prononcées ce type de mesure sur le fondement de ce texte. Restaient alors les circonstances exceptionnelles en application de la jurisprudence administrative conférant au Premier ministre des “pouvoirs propres” comme cela a été reconnu lors de la pandémie pour prononcer le confinement avant l’adoption de la loi relative à l’état d’urgence sanitaire. La brutalité de la mesure était également discutée, celle-ci ayant été prise en l’absence de sollicitation de retrait de contenus des autorités auprès de la plateforme.

Le 23 mai, le Conseil d’Etat a rejeté les trois recours en référé-liberté déposé par des opposants à cette décision et contestant la mesure de blocage pour atteinte à la liberté d’expression. Il retient que l’urgence du juge à intervenir n’est pas établie alors qu’il s’agissait de la condition préalable pour accueillir ces demandes. Ne pouvant se déduire de la seule atteinte à la liberté d’expression, l’ordonnance de référé relève que l’urgence n’était pas justifiée en raison du caractère limité de la mesure (il restait possible de s’exprimer sur d’autres réseaux sociaux et médias) et de sa nature temporaire. Le Conseil d’Etat ayant rejeté les recours parce qu’il considérait que la condition d’urgence n’était pas remplie, il ne s’est pas prononcé sur la proportionnalité de l’atteinte à la liberté d’expression qui pouvait résulter de la mesure d’interdiction. Au même motif, le juge administratif n’a pas eu à transmettre la question prioritaire de constitutionnalité déposée par ces mêmes requérants, visant à contester la conformité à la Constitution de l’article 11 de la loi de 1955.  La procédure initiée conduit donc à une impasse.

En l’état, la légalité de la décision prise par le Premier ministre reste ainsi incertaine compte tenu de la nature des recours formés, d’autant que le blocage de Tik Tok a été levé le 29 mai. Pourtant, le débat reste entier concernant la légitimité d’une pareille mesure dont la proportionnalité constitue un enjeu fondamental. Cette dernière impose de déterminer si la solution retenue était la plus efficace pour atteindre le but poursuivi et de vérifier qu’elle était accompagnée de toutes les garanties nécessaires. Sa légitimité est également exigée ; or, la question devient éminemment complexe lorsqu’une mesure de police, par nature préventive, est prononcée dans le cadre d’un mouvement populaire sur lequel elle conduit à se positionner. Un recours a d’ailleurs été depuis déposé par la Quadrature du Net afin que le Conseil d’Etat se prononce au fond sur la légalité du blocage, ce qui l’invitera à considérer, dans son principe même, son bien-fondé. Il conteste en particulier le fait que le Premier ministre puisse prendre une telle décision particulièrement attentatoire à la liberté d’expression, sans publication d’aucun décret soit de manière non formalisée et non motivée, en la portant simplement à la connaissance du public par voie de presse ; les requérants soutiennent que cela revenait à “décider de son propre chef, sur des critères flous et sans l’intervention préalable d’un juge, [de] censurer un service de communication au public en ligne”.

Ce point est essentiel car c’est bien le nécessaire respect de nos procédures, consubstantielles à nos libertés, dont il s’agit. Si nous décidons qu’un service met nos principes en difficulté, c’est en respectant nos procédures et nos principes qu’il nous revient de l’interdire. Il aurait été utile de pouvoir appliquer le Règlement sur les services numériques (DSA) que vient d’adopter l’Union européenne, même si le statut particulier de la Nouvelle Calédonie l’exonère de toute obligation de respecter ce texte. En effet, les mécanismes prévus par le DSA visent à garantir le respect du principe de proportionnalité afin d’assurer tout à la fois la protection des libertés et droits fondamentaux et la préservation de l’ordre public, en particulier lors de situations de crise en précisant le cadre des mesures d’urgence à adopter. Il y est bien prévu le blocage temporaire d’une plateforme sur le territoire de l’Union. Néanmoins, il ne s’agit pas d’une mesure immédiate mais de dernier recours. Elle vise les cas de non-coopération répétée avec le régulateur et de non-respect du règlement lorsque sont concernées des infractions graves menaçant la vie et la sécurité des personnes. Le DSA encadre par ailleurs cette décision d’importantes garanties procédurales. Ainsi, le blocage temporaire doit être prononcé après l’intervention de diverses autorités (la Commission européenne, le régulateur national soit en France l’ARCOM) et sous le contrôle d’une autorité judiciaire indépendante.

La situation appelle alors les pouvoirs publics à conduire d’autres actions déterminantes qui dépassent la seule mesure de police. Tout d’abord, mieux garantir une exigence de transparence pour assurer le respect de nos principes démocratiques, mais également pour ne pas altérer la confiance des citoyens dans nos institutions. On perçoit ici l’intérêt du rapport publié dès le 17 mai par Viginum pour documenter l’influence de l’Azerbaïdjan dans la situation de la Nouvelle Calédonie, qui relève d’ailleurs le rôle joué par d’autres réseaux sociaux comme X et Facebook dans le cadre de manœuvres informationnelles. Compte tenu des enjeux, il convient d’aller plus loin et d’organiser des procédures transparentes et indépendantes à des fins de communication au public. Ensuite, mener un examen approfondi de l’ensemble de la sphère médiatique, ce qui est actuellement réalisé dans le cadre des Etats généraux de l’Information. Plus généralement, promouvoir des mesures de régulation des plateformes pour prôner d’autres approches plus respectueuses de nos libertés, en associant l’ensemble des parties prenantes. A ce titre, il est essentiel de mieux comprendre le rôle joué par les réseaux sociaux et d’agir sur les risques systémiques qu’ils comportent pour l’exercice des droits fondamentaux, en particulier la liberté d’expression et d’information. Cela commande de mettre pleinement en œuvre, et au plus vite, l’ensemble des dispositifs issus du DSA dont l’efficacité paraît déjà ressortir des enquêtes formelles lancées par la Commission européenne comme en atteste la suspension de Tik Tok Lite quelques jours après son lancement en Europe.

Karine Favro (Professeure de droit public, Université de Haute Alsace) et Célia Zolynski (Professeure de droit privé, Université Paris 1 Panthéon-Sorbonne)

28.06.2024 à 07:51

Lena fait ses adieux

binaire

Dans beaucoup de domaines de la recherche en informatique, il existe  des « objets » que l’on retrouve dans grand nombre d’articles pour illustrer des résultats. Ainsi des dialogues entre Alice et Bob pour la cryptographie, de l’affichage de « Hello world » pour les langages de programmation, de la théière pour la synthèse d’images, etc. Pour l’analyse et …
Texte intégral (1997 mots)
© CNRS / Femmes & Sciences
Dans beaucoup de domaines de la recherche en informatique, il existe  des « objets » que l’on retrouve dans grand nombre d’articles pour illustrer des résultats. Ainsi des dialogues entre Alice et Bob pour la cryptographie, de l’affichage de « Hello world » pour les langages de programmation, de la théière pour la synthèse d’images, etc. Pour l’analyse et le traitement d’images, c’est l’image d’un mannequin suédois, Lena Forsén, qui ser[vai]t d’image de référence depuis les années 70’s. L’IEEE, association dédiée à l’avancement de la technologie au profit de l’humanité et qui  regroupe plusieurs centaines de milliers de membres  [1], vient de demander aux auteurs d’articles publiés dans ses revues et ses conférences de la remplacer par une autre image. Florence SEDES qui est professeure d’informatique (Université Paul Sabatier à Toulouse et présidente de ) nous explique pourquoi. Pascal Guitton

Il était une fois….

Recadrée à partir des épaules, la photo centrale de Playboy du mannequin suédois Lena Forsén regardant le photographe de dos fut l’étalon improbable des recherches en traitement d’image, et l’une des images les plus reproduites de tous les temps. « Miss November », playmate d’un jour, aura vu son unique cliché pour le magazine sublimé.

Peu après son impression dans le numéro de novembre 1972 du magazine PlayBoy, la photographie a été numérisée par Alexander Sawchuk, professeur assistant à l’université de Californie, à l’aide d’un scanner conçu pour les agences de presse. Sawchuk et son équipe cherchaient de nouvelles données pour tester leurs algorithmes de traitement d’images : la fameuse page centrale du magazine fut élue, et ce choix justifié par la présence d’un visage et d’un mélange de couleurs claires et foncées. Heureusement, les limites du scanner ont fait que seuls les cinq centimètres encadrant le visage ont été scannés, l’épaule nue de Forsén laissant deviner la nature de l’image originale, à une époque où la pornographie et la nudité étaient évaluées différemment de ce qu’elles le sont désormais.

Etalon d’une communauté, la madone ès image processing…

Dès lors, la photo est devenue une image de référence standard, utilisée un nombre incalculable de fois depuis plus de 50 ans dans des articles pour démontrer les progrès de la technologie de compression d’images, tester de nouveaux matériels et logiciels et expliquer les techniques de retouche d’images. L’image aurait même été une des premières à être téléchargée sur ARPANET, son modèle, Lena, ignorant tout de cette soudaine et durable célébrité.

Lena, vraie étudiante suédoise à New York, modèle d’un jour, a enfin droit à faire valoir sa retraite : l’IEEE a publié un avis à l’intention de ses membres mettant en garde contre l’utilisation continue de l’image de Lena dans des articles scientifiques.

« À partir du 1er avril, les nouveaux manuscrits soumis ne seront plus autorisés à inclure l’image de Lena », a écrit Terry BENZEL, vice-président de l’IEEE Computer Society. Citant une motion adoptée par le conseil d’édition du groupe : «La déclaration de l’IEEE sur la diversité et les politiques de soutien telles que le code d’éthique de l’IEEE témoignent de l’engagement de l’IEEE à promouvoir une culture inclusive et équitable qui accueille tout le monde. En accord avec cette culture et dans le respect des souhaits du sujet de l’image, Lena Forsén, l’IEEE n’acceptera plus les articles soumis qui incluent l’image de Lena».

L’IEEE n’est pas la première à « bannir » la photo de ses publications : en 2018, Nature Nanotechnology a publié une déclaration interdisant l’image dans toutes ses revues de recherche, écrivant dans un édito que «…l’histoire de l’image de Lena va à l’encontre des efforts considérables déployés pour promouvoir les femmes qui entreprennent des études supérieures en sciences et en ingénierie… ».

De multiples raisons scientifiques ont été invoquées pour expliquer cette constance dans l’utilisation de cette image-étalon, rare dans nos domaines : la gamme dynamique (nombre de couleurs ou de niveaux de gris utilisées dans une image), la place centrale du visage humain, la finesse des détails des cheveux de Lena et la plume du chapeau qu’elle porte.

Dès 1996, une note dans IEEE Trans on Image Processing déclarait, pour expliquer pourquoi le rédacteur n’avait pas pris de mesures à l’encontre de l’image, que «l’image de Lena est celle d’une femme attirante», ajoutant : «Il n’est pas surprenant que la communauté des chercheurs en traitement d’images [essentiellement masculine] ait gravité autour d’une image qu’elle trouvait attrayante».

Le magazine PlayBoy aurait pu lui-même mettre un terme à la diffusion de l’image de Lena : en 1992, le magazine avait menacé d’agir, mais n’a jamais donné suite. Quelques années plus tard, la société a changé d’avis : «nous avons décidé d’exploiter ce phénomène», a déclaré le vice-président des nouveaux médias de Playboy en 1997.

Lena Forsén elle-même, « sainte patronne des JPEG » a également suggéré que la photo soit retirée. Le documentaire Losing Lena a été le déclencheur pour encourager les chercheurs en informatique à passer à autre chose :  «il est temps que je prenne moi aussi ma retraite […] »[2].

“Fabio is the new Lena”

Fabio Lanzoni, top model italien, sera, le temps d’une publication, le « Lena masculin » : dans « Stable image reconstruction using total variation minimization », publié en 2013, Deanna Needell and Rachel Ward décident d’inverser la vision du gender gap (inégalités de genre) en choisissant un modèle masculin.

La légende a débordé du cadre purement académique : en 2016, « Search by Image, Live (Lena/Fabio) », de l’artiste berlinois Sebastian Schmieg, utilise le moteur de recherche d’images inversées de Google pour décortiquer les récits de plus en plus nombreux autour de l’image (tristement) célèbre de Lena [3] : l’installation est basée sur une requête lancée avec l’image de Lena vs. une lancée avec l’effigie du blond mâle Fabio. Son objectif est d’analyser la manière dont les technologies en réseau façonnent les réalités en ligne et hors ligne. Beau cas d’usage pour la story de notre couple !

De Matilda à Lena….

Alors qu’on parle d’effet Matilda et d’invisibilisation des scientifiques, pour le coup, voilà une femme très visible dans une communauté où les femmes sont sous-représentées !

Quel message envoie cet usage d’une photo « légère », indéniablement objectifiée, pour former des générations d’étudiant.e.s en informatique ? Comment expliquer l’usage par une communauté d’un matériel désincarné, alors que le sujet pouvait être considéré comme dégradant pour les femmes ?

Comment interpréter l’usage abusif, irrespecteux du droit d’auteur, du consentement et de l’éthique, par une communauté très masculinisée d’une seule et unique image féminine ? Effet de halo, biais de confirmation ou de représentativité ? L’ancrage du stéréotype est ici exemplaire.

Amélioration d’image avec le logiciel libre gimp © charmuzelle

Alors, conformément aux préconisations de l’IEEE, remercions Lena d’avoir permis les progrès des algorithmes de traitement d’images. Engageons-nous désormais à l’oublier, marquant ainsi  « un changement durable pour demain », et à accueillir toutes les futures générations de femmes scientifiques !

Florence SEDES, Professeur d’informatique (Université Paul Sabatier, Toulouse),

[1] https://ieeefrance.org/a-propos-de-ieee/

[2] https://vimeo.com/372265771

[3] https://thephotographersgallery.org.uk/whats-on/sebastian-schmieg-search-image-live-lenafabio

 

26.06.2024 à 19:07

Science et scientifiques : des points de détail pour l’extrême-droite ?

binaire

 Posté le:26/06/2024 sur le site de la Société Informatique de France. Observer, décrire, modéliser et analyser pour comprendre le monde réel, puis l’observer plus efficacement en retour : tel est le cercle vertueux de toute démarche scientifique. Avec un axiome chevillé à l’esprit de chaque scientifique : les savoirs ainsi accumulés doivent être au service de l’humanité …
Texte intégral (936 mots)

Observer, décrire, modéliser et analyser pour comprendre le monde réel, puis l’observer plus efficacement en retour : tel est le cercle vertueux de toute démarche scientifique. Avec un axiome chevillé à l’esprit de chaque scientifique : les savoirs ainsi accumulés doivent être au service de l’humanité toute entière. Ces savoirs ont démontré que l’existence du dérèglement climatique n’est pas une opinion, mais un fait malheureusement avéré et mesurable, aux causes identifiées (essentiellement, les émissions de gaz à effet de serre). Que les êtres humains relèvent tous d’une même espèce, au sens biologique du terme, et que le concept de race humaine n’a aucun fondement scientifique. Qu’il n’y a jamais eu de différence de capacité intellectuelle entre les femmes et les hommes, ni entre aucun des groupes et sous-groupes ethniques et culturels qui constituent l’humanité. Et plus récemment que la vaccination anti-Covid est efficace. L’accumulation des savoirs au profit de l’humanité ne peut prospérer que via une coopération mondiale, ouverte, et garantie par une liberté académique totale.

Or l’extrême droite propose – notamment – la suppression du droit du sol et la préférence nationale au point d’effectuer des distinguos entre français mono-nationaux et bi-nationaux. Elle promeut le renforcement physique et juridique des frontières sous couvert de préoccupation sécuritaire et de bien-être économique. Elle minimise la portée des travaux du GIEC sur le climat. Elle manifeste une méfiance à peine voilée à l’endroit des scientifiques en général et fait aujourd’hui encore le lit des théories complotistes anti-vaccinales concernant la Covid. Ce faisant, elle contrevient directement à plusieurs des principes édictés par la « Déclaration universelle des droits de l’Homme et du citoyen ». Elle porte en outre atteinte à la libre circulation des êtres humains, des biens et des idées, circulation pourtant indispensable aux progrès de la science et de la raison.

C’est pourquoi, nous, Société informatique de France, porteurs de valeurs humanistes et d’une science informatique – libre et ouverte – interagissant avec les autres sciences pour mieux appréhender le réel, appelons avec la plus vive énergie à faire barrage à l’extrême-droite pour que notre pays demeure celui des Lumières, de la rationalité, de la liberté, de l’égalité et de la fraternité.

Télécharger le communiqué.

21.06.2024 à 06:55

L’autopsie numérique en réalité mixte : une révolution pour la médecine légale?

binaire

L’autopsie traditionnelle, telle que nous la connaissons, pourrait-elle bientôt être remplacée par une méthode plus moderne et moins invasive grâce aux avancées en réalité mixte (MR)? Une équipe de recherche internationale a exploré les opportunités et les défis de l’autopsie numérique en utilisant des techniques de visualisation immersives. Leur étude révèle des perspectives prometteuses pour …
Texte intégral (1693 mots)
L’autopsie traditionnelle, telle que nous la connaissons, pourrait-elle bientôt être remplacée par une méthode plus moderne et moins invasive grâce aux avancées en réalité mixte (MR)? Une équipe de recherche internationale a exploré les opportunités et les défis de l’autopsie numérique en utilisant des techniques de visualisation immersives. Leur étude révèle des perspectives prometteuses pour améliorer les pratiques de la médecine légale tout en réduisant les impacts émotionnels et culturels des autopsies physiques.

Ajouter de l’immersion pour l’autopsie

Depuis longtemps, les légistes analysent des données intrinsèques en 3D sur des écrans 2D, une tâche qui nécessite une reconstruction mentale complexe. L’émergence des technologies de réalité mixte (MR pour Mixed reality)) offre des possibilités prometteuses pour l’autopsie numérique en permettant aux légistes une immersion dans ces données 3D combinée à des techniques d’interaction appropriés avec les jeux de données [1, 2]. L’utilisation de ces technologies à des fins d’analyses de données et génération de savoir est souvent regroupée sous le terme « Immersive Analytics » [1]. Les bénéfices en terme d’immersion, de collaboration, ou de génération de savoir ont été étudiés dans plusieurs domaines et sont notamment visibles lorsque les données sont spatiales ou multi-dimensionnelles. Dans cette étude [3], les auteurs explorent l’utilisation de techniques de visualisation et d’interaction immersive en réalité augmentée permettant l’autopsie numérique à travers l’analyse d’imagerie en 3D, tout en impliquant les utilisateurs finaux, à savoir les praticiens légistes, dans un processus de conception dit « centré sur l’utilisateur ». L’étude s’est par conséquent déroulée en quatre phases de retour d’expérience utilisateur :

  1. Interviews Formatives : Six experts du domaine ont été interviewés pour identifier les opportunités et exigences de la réalité augmentée dans le domaine des autopsies.
  2. Atelier de Travail : Quinze pathologistes ont participé à un atelier pour identifier les limitations du prototype initial et proposer de nouvelles idées d’interaction leur permettant d’analyser les jeux de données nécessaires à leurs travail.
  3. Validation Qualitative : Deux séries de tests utilisateurs ont été menées pour évaluer des prototypes successifs avec des techniques d’interaction novatrices.
  4. Étude Qualitative : Validation finale des prototypes avec cinq experts utilisant la réalité augmentée pour des cas réels d’autopsie.

Techniques de Visualisation Immersive

Le projet a développé plusieurs techniques pour améliorer l’interaction et l’analyse des données médicales en 3D :

  • Tunnel de Couleurs : Permet d’enlever virtuellement les tissus mous pour examiner des structures plus profondes.
  • Forme de Découpe : Utilisation d’une boîte de découpe flexible pour isoler un volume d’intérêt.
  • Gomme : Outil permettant de retirer des voxels ( ou »volume pixel », similaire à un pixel mais dans un espace 3D.) de données indésirables ou artefacts.
  • Curseur Zoomable : Technique permettant de manipuler avec précision les tranches d’images obtenues par tomodensitométrie (images de scanneur médical) grâce à un contrôle de gain ajustable.

Toutes ces techniques sont visibles sur une démonstration du prototype vidéo accessible en ligne:

 Le retour des experts

Les médecins légistes et radiologues impliqués dans l’évaluation du prototype ont souligné le potentiel de la réalité augmentée pour améliorer l’autopsie numérique, notamment sur les points suivant.

  • Accessibilité des données : La réalité mixte permet aux praticiens d’accéder facilement aux données dans n’importe quel environnement, y compris à distance, et de visualiser le corps entier en taille réelle.
  • Interaction naturelle : Les gestes manuels intuitifs remplacent l’utilisation de la souris et du clavier, facilitant ainsi l’exploration des données tout en portant des gants.
  • Enseignement et démonstration : Cette technologie offre une méthode d’enseignement plus immersive et réaliste pour les étudiants en médecine légale et peut être utilisée pour des démonstrations en salle d’audience.
  • Réduction des autopsies physiques : En combinant les images 3D et les nouvelles techniques de visualisation, il est possible de réaliser des autopsies virtuelles qui sont moins invasives et respectueuses des croyances culturelles et religieuses et permettent donc d’éviter les autopsies « physiques » pour les cas les plus simples.

Malgré les avantages, l’étude a aussi mis en évidence certaines limitations actuelles des technologies de MR, comme le champ de vision limité, les problèmes de suivi des gestes, et la résolution des images. Les chercheurs ont également souligné la nécessité d’une formation adéquate pour maîtriser ces nouveaux outils.

Cette étude ajoute donc à l’ensemble des preuves de l’utilité des technologies immersives pour analyser des données volumétriques ou spatiales [4,5,6]. Cependant, il faut considérer que le passage à la réalité augmentée tout en obtenant une précision d’interaction fidèle peut-être, à minima aujourd’hui, couteux car il nécessite d’utiliser des systèmes de tracking des mains précis et, pour le moment, onéreux.

Lonni Besançon, Assistant Professor, Linköping University, Sweden.

[1] Marriott, K., Schreiber, F., Dwyer, T., Klein, K., Riche, N. H., Itoh, T., … & Thomas, B. H. (Eds.). (2018). Immersive analytics(Vol. 11190). Springer.

[2] Besançon, L., Ynnerman, A., Keefe, D.F., Yu, L. and Isenberg, T. (2021), The State of the Art of Spatial Interfaces for 3D Visualization. Computer Graphics Forum, 40: 293-326. https://doi.org/10.1111/cgf.14189

[3] Vahid Pooryousef, Maxime Cordeil, Lonni Besançon, Christophe Hurter, Tim Dwyer, and Richard Bassed. 2023. Working with Forensic Practitioners to Understand the Opportunities and Challenges for Mixed-Reality Digital Autopsy. In Proceedings of the 2023 CHI Conference on Human Factors in Computing Systems (CHI ’23). Association for Computing Machinery, New York, NY, USA. https://doi.org/10.1145/3544548.3580768. https://enac.hal.science/hal-03999121/document 

[4] B. Lee, D. Brown, B. Lee, C. Hurter, S. Drucker and T. Dwyer, « Data Visceralization: Enabling Deeper Understanding of Data Using Virtual Reality, » in IEEE Transactions on Visualization and Computer Graphics, vol. 27, no. 2, pp. 1095-1105, Feb. 2021, https://doi.org/10.1109/TVCG.2020.3030435

[5] Shringi A, Arashpour M, Golafshani EM, Rajabifard A, Dwyer T, Li H. Efficiency of VR-Based Safety Training for Construction Equipment: Hazard Recognition in Heavy Machinery Operations. Buildings. 2022; 12(12):2084. https://doi.org/10.3390/buildings12122084 

[6] Wang, X., Besançon, L., Rousseau, D., Sereno, M., Ammi, M., & Isenberg, T. (2020, April). Towards an understanding of augmented reality extensions for existing 3D data analysis tools. In Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems (pp. 1-13). https://doi.org/10.1145/3313831.3376657

20 / 20
 Persos A à L
Mona CHOLLET
Anna COLIN-LEBEDEV
Julien DEVAUREIX
Cory DOCTOROW
EDUC.POP.FR
Marc ENDEWELD
Michel GOYA
Hubert GUILLAUD
Gérard FILOCHE
Alain GRANDJEAN
Hacking-Social
Samuel HAYAT
Dana HILLIOT
François HOUSTE
Tagrawla INEQQIQI
Infiltrés (les)
Clément JEANNEAU
Paul JORION
Michel LEPESANT
Frédéric LORDON
Blogs persos du Diplo
LePartisan.info
 
 Persos M à Z
Henri MALER
Christophe MASUTTI
Romain MIELCAREK
Richard MONVOISIN
Corinne MOREL-DARLEUX
Fabrice NICOLINO
Timothée PARRIQUE
Emmanuel PONT
VisionsCarto
Yannis YOULOUNTAS
Michaël ZEMMOUR
 
  Numérique
Binaire [Blogs Le Monde]
Christophe DESCHAMPS
Louis DERRAC
Olivier ERTZSCHEID
Olivier EZRATY
Framablog
Francis PISANI
Pixel de Tracking
Irénée RÉGNAULD
Nicolas VIVANT
 
  Collectifs
Arguments
Bondy Blog
Dérivation
Dissidences
Mr Mondialisation
Palim Psao
Paris-Luttes.info
ROJAVA Info
 
  Créatifs / Art / Fiction
Nicole ESTEROLLE
Julien HERVIEUX
Alessandro PIGNOCCHI
XKCD
🌓