Big browser Liberté Egalité Sexualité Pixels
BINAIRE
L'informatique : science et technique au coeur du numérique - avec la Société Informatique de France
Publié le 28.03.2025 à 06:18
Le watermarking à la rescousse
Vous ouvrez Instagram et tombez nez à nez avec une photo du pape en streetwear. Vous avez tout de même du mal à y croire, et vous avez bien raison ! De nombreux “deepfakes” circulent sur internet : au-delà d’être un outil formidable, l’IA générative présente donc aussi des dangers. La diffusion massive de données générées par IA impose donc de protéger leur propriété, authentifier leur auteur, détecter les plagiats etc. Une solution émerge : le watermarking (ou “tatouage numérique”) qui répond à ces attentes.

Créer un « deep watermartking ».
Le watermarking devient de plus en plus sophistiqué. On observe une évolution des techniques de watermarking qui se basaient jusqu’ici sur des concepts assez simples comme un filigrane transparent qui recouvre l’image (« watermark » encodée dans la donnée et qui reste en apparence identique). Apparaît désormais le “deep watermarking” qui induit une altération plus subtile des données, mais qui est aussi plus robuste aux dégradations liées aux manipulations de l’image. Pour être qualifié de “deep watermarking”, un filigrane doit respecter les trois règles suivantes:
- l’imperceptibilité : la distorsion doit restée invisible à l’œil humain.
- la capacité : on doit pouvoir introduire de l’information dans le tatouage comme la date ou une signature.
- la robustesse : le filigrane doit rester détectable même si l’on transforme l’image.
Pourquoi utilise-t-on le terme “deep” ? Parce que ces méthodes se basent sur des algorithmes d’apprentissage profond, ou “deep learning” en anglais. Il s’agit d’un procédé d’apprentissage automatique utilisant des réseaux de neurones possédant plusieurs couches de neurones cachées.
Il est possible d’appliquer de tels filigranes sur des images préexistantes par un processus qualifié “d’encodeur-décodeur” :
– Le modèle d’encodage prend deux entrées : une image brute et un message texte. Il cache le texte dans l’image en essayant de le rendre le moins perceptible possible.
– Le décodeur prend en entrée l’image tatouée et tente de récupérer le texte caché.
L’encodeur et le décodeur sont entraînés pour travailler ensemble : le premier pour cacher un message dans une image sans l’altérer visuellement et le second pour retrouver le message dans cette image altérée.
Comme, en pratique, l’image tatouée peut subir des modifications (recadrage, rotation, flou, ajout de bruit), des altérations aléatoires sont appliquées aux images exemples, au cours du processus, pour entraîner le décodeur à tenir compte de ces altérations.
Mieux encore, on peut intégrer, donc encoder, le tatouage directement lors de la création d’images.
Comment fonctionnent les générateurs d’images avec watermark ?
Les générateurs d’images sont basés sur ce qu’on nomme en intelligence artificielle des modèles de diffusions, comme expliqué le puis simplement possible ici.
Assez simplement, le système apprend, à partir d’un énorme nombre d’exemples, à passer d’une image où toutes les valeurs sont tirées au hasard (un bruit visuel aléatoire), en prenant en entrée une indication textuelle décrivant l’image souhaitée, à des images de moins en moins aléatoires, jusqu’à créer l’image finale. C’est cette idée de diffuser progressivement l’information textuelle dans cette suite d’images de plus en plus proches d’une image attendue qui fait le succès de la méthode.

Il est alors possible d’incorporer le watermark directement lors de la diffusion : on oriente ce processus en le déformant (on parle de biais statistique), en fonction du code secret, qu’est le watermark. Comme cette déformation ne peut être décodée, seule l’entité générant le texte, peut détecter si le tatouage, est présent.
Comment ça marche en pratique ?
Le watermarking est comme un produit « radioactif » : un modèle entraîné sur des données tatouées reproduit le tatouage présent dedans. Ainsi, si un éditeur utilise le produit tatoué d’un concurrent pour l’entraînement de ses propres modèles, les sorties de ce dernier posséderont également la marque de fabrique du premier !
Le watermarking a donc vocation de permettre aux éditeurs de modèles de génération de protéger leur propriété, puisque c’est une technique robuste pour déterminer si un contenu est généré par une IA et pour faire respecter les licences et conditions d’utilisation des modèles génératifs. Cela dit, il est essentiel de continuer à développer des techniques plus robustes, car tous les modèles open-source n’intègrent pas encore de mécanismes de watermarking.

Cet article est issu d’une présentation donnée par Tom Sander chez datacraft. Tom est doctorant chez Meta et travaille sur des méthodes de préservation de la vie privée pour les modèles d’apprentissage profond, ainsi que sur des techniques de marquage numérique. Nous tenons à remercier Tom pour son temps et sa présentation.
Jeanne Gautier, Data scientist chez datacraft & Raphaël Vienne, Head of AI chez datacraft .
Pour aller plus loin :
Publié le 21.03.2025 à 05:56
À Framasoft, la priorité, c’est le changement de société
Angie Gaudion, chargée de relations publiques au sein de Framasoft, revient sur l’histoire de l’association, son financement, son évolution, leur positionnement dans l’écosystème numérique et, plus largement, le soutien apporté aux communs numériques. Cet article a été publié le 21 octobre 2022 sur le site de cnnumerique.fr et est remis en partage ici, les en remerciant. Serge Abiteboul et Thierry Viéville.
Framasoft, qu’est-ce que c’est ?
Pour comprendre Framasoft, il faut s’intéresser à son histoire. Née en 2001, Framasoft était d’abord une sous-catégorie du site participatif Framanet, lequel regroupait des ressources à destination des enseignants et mettait en avant des logiciels éducatifs gratuits (libres et non-libres). Framasoft est devenu « indépendant » et 100% libre plusieurs années plus tard. Mais il y a déjà une volonté de valoriser le logiciel libre dans le milieu de l’enseignement. D’ailleurs, en juin 2002, Framasoft est, avec l’AFUL, à l’origine de l’action Libérons les logiciels libres à l’école.
Entre 2001 et 2004, un collectif se structure autour de la promotion des logiciels libres et propose des interventions sur ces questions (conférences, ateliers, stands, etc.). C’est en 2004 que Framasoft se structure en association avec pour objet la promotion du logiciel libre et de la culture libre. Pour atteindre cet objectif, apparaissent entre 2004 et 2014 plusieurs projets comme les Framakey (clé USB contenant des logiciels libres permettant de les utiliser sans avoir à les installer sur son ordinateur), Framabook (maison d’édition d’ouvrages sous licence libre), Framablog (chroniques autour du Libre, traductions originales et annonces des nouveautés de l’ensemble du réseau Framasoft), etc…
À partir de 2011 (10 ans), Framasoft se diversifie et décide de proposer des services libres en ligne : Framapad (mars 2011), Framadate (juin 2011), Framacalc (février 2012), Framindmap et Framavectoriel (février 2012), Framazic (novembre 2013) et Framasphère (2014).
En octobre 2014, nous lançons la campagne “Dégooglisons Internet” dont l’objectif est de proposer des services libres alternatifs à ceux proposés par les géants du web à des fins de monopole et d’usage dévoyé des données personnelles. Cette campagne nous fait connaître du grand public et, entre 2014 et 2017, on déploie jusqu’à 38 services en ligne. L’égalité de l’accès à ces applications est un engagement fort : en les proposant gratuitement, Framasoft souhaite promouvoir leur usage envers le plus grand nombre et illustrer par l’exemple qu’un Internet décentralisé et égalitaire est possible. En parallèle, nous lançons en 2016 le Collectif des Hébergeurs Alternatifs Transparents Ouverts Neutres et Solidaires (CHATONS). Framasoft cherche a faire connaître et essaimer des hébergeurs alternatifs aux GAFAM proposant des services libres et respectueux de la vie privée. En effet, nous ne souhaitons pas concentrer toutes les démarches alternatives, mais plutôt partager le gâteau avec d’autres structures (nous ne voulons pas devenir “le Google du libre”).
2017 marque la fin de la campagne “Dégooglisons Internet” : les services existants sont conservés mais nous n’en déployons plus de nouveaux. Depuis 2019, nous avons fermé progressivement une partie de ces services. Nous avons fait le choix de ne conserver que ceux qui n’étaient pas proposés ailleurs et ceux qui sont les plus utilisés. Par exemple, le service Framalistes (un outil de listes de discussion) est utilisé par 960 000 personnes et envoie chaque jour près d’un million d’emails. On sait donc que si l’on supprime ce service, cela manquera aux personnes qui l’utilisent. La décision d’arrêter certains services a aussi été prise en fonction de la difficulté technique à les maintenir. Par exemple Framasite était utilisé par de nombreuses personnes mais présentait une dette technique énorme. Néanmoins, depuis son arrêt, nous nous rendons bien compte que le service manque parce qu’il n’y a pas vraiment d’alternatives.
2017, c’est aussi le lancement de la campagne Contributopia. On est parti du constat que pour changer le positionnement des gens, il fallait non plus faire pour elleux, mais avec elleux (faire ensemble). L’objectif est de décloisonner le libre de son ornière technique pour développer ses valeurs éthiques et sociales (donc politiques). On a donc décidé de proposer différents dispositifs pour valoriser la contribution (méconnue, mal valorisée et trop complexe) et outiller celles et ceux qui veulent « faire » des communs. Contributopia prend de nombreuses formes : on continue à développer des alternatives lorsqu’elles n’existent pas (PeerTube, Mobilizon), on essaie de faire émerger d’autres acteurices à l’international, on développe les partenariats avec des structures dont les valeurs sont proches des nôtres pour les outiller (archipélisation). Et on essaie d’être le plus résilient en faisant tout cela, tout en valorisant la culture du partage.
En 2021, nous actons, par la modification des statuts, que Framasoft est devenue une association d’éducation populaire aux enjeux du numérique et des communs culturels. Notre objet social n’est plus de faire la promotion du logiciel libre, mais de transmettre des connaissances, des savoirs et de la réflexion autour de pratiques numériques émancipatrices. Pourtant, nous continuons à offrir des services en ligne afin de démontrer que ces outils existent et sont des alternatives probantes aux services des géants du web. Nous transmettons davantage désormais connaissances et savoirs-faire sur ces outils et accompagnons les internautes dans leur autonomisation vis-à-vis des géants du web.
Aujourd’hui, 37 personnes sont membres de l’association, dont 10 salariées. Mais cela ne veut pas dire que nous ne sommes que 37 à contribuer. On estime qu’entre 500 et 800 personnes nous aident régulièrement, que ce soit pour de la traduction d’articles, des propositions de lignes de codes pour les logiciels que nous développons, du repérage de bugs, des illustrations, des contributions au forum d’entraide de la communauté… Pour finir, en terme de nombre de bénéficiaires, on ne peut donner qu’une estimation parce que nous ne collectons quasiment aucune donnée, mais on estime à 1,2 millions le nombre de personnes qui utilisent nos services chaque mois. Cependant, on ne s’attarde pas vraiment sur les chiffres, on ne veut pas d’un monde où on compte, d’un monde où on analyse systématiquement l’impact.

Quel est votre modèle de financement ?
Framasoft est actuellement une association dont le modèle économique repose sur le don, donc exclusivement sur des financements privés. Notre budget s’élève à 630 000 € en 2021. 98,42 % de ce montant est financé par les dons, qui se répartissent entre :
- 12,56 % provenant de fondations
- 85,86 % provenant de dons de particuliers.
Les 1,58 % qui ne proviennent pas des dons viennent de la vente de prestations. Par exemple, Framasoft a développé pour le site apps.education.fr un plugin d’authentification unique sur PeerTube, permettant de connecter au service la base de tous les login et mots de passe d’enseignants à l’échelle nationale et d’éviter ainsi qu’ils aient à se créer un nouveau compte.
Ce budget sert principalement à financer les salaires des 10 salariées. À cela s’ajoutent quelques prestations techniques (développement et design), du soutien à d’autres acteurs du logiciel libre et des frais de fonctionnement divers.
Cette question du mode de financement est particulièrement importante pour nous. Le modèle du don convient parfaitement à Framasoft même si nous sommes conscients qu’il est difficilement reproductible pour des projets de grande envergure. Cela reste un choix politique. Nous savons que de nombreuses structures du libre sont aujourd’hui financées par les géants du net. C’est un paradoxe assez fort, d’autant plus qu’il est évident que toutes ces structures préféreraient que ce ne soit pas le cas. Mais en l’absence d’autres sources de financement, elles n’ont pas toujours le choix. Et il serait vraiment dommage que les services qu’elles proposent n’existent pas faute de financement. Il y a donc un réel enjeu de soutien de ces structures, notamment pour assurer leur pérennité.
Que pensez-vous de l’idée ou des réactions de celles et ceux qui se disent que les initiatives du libre ont du mal à « passer à l’échelle » ?
Pour mettre fin à la dépendance envers les géants du numériques, un moyen d’y parvenir, sans avoir besoin d’acquérir une taille critique et une position dominante est de s’associer à d’autres projets et de collaborer ensemble à une autre vision du web.
On peut s’interroger sur cette recherche permanente de croissance : s’il est indispensable que des services alternatifs aux modèles dominants du net existent, est-ce nécessaire qu’une seule et même entité concentre l’ensemble des services ? La centralisation peut conférer une certaine force, mais chez Framasoft nous avons fait le choix de nous passer de cette force : l’essaimage nous semble le meilleur moyen de passer à l’échelle. Si la priorité est de mettre fin à la dépendance envers les géants du numériques, un moyen d’y parvenir, sans avoir besoin d’acquérir une taille critique et une position dominante est de s’associer à d’autres projets et de collaborer ensemble à une autre vision du web.
Chez Framasoft, nous ne souhaitons pas le passage à l’échelle. D’ailleurs, nous ne savons même pas de quelle échelle on parle ! Dans les faits, l’association a grossi au fil du temps, mais notre volonté est d’avoir une croissance limitée et raisonnée parce que nous sommes convaincus qu’il vaut mieux être plusieurs acteurs qu’un seul. Nous ne voulons donc pas centraliser les usages et les profits. Si le but premier est d’avoir de plus en plus d’utilisateurs de logiciels libres – ce qui était l’objectif avec « Dégooglisons Internet » – peu importe que ce soit chez Framasoft ou chez d’autres. Tant que les internautes ont fait leur migration vers des logiciels libres, pour nous le « passage à l’échelle » est réussi. C’est une vision différente des structures productivistes : nous visons un « passage à l’échelle » côté utilisateurs et non côté entreprise. La priorité, pour nous, c’est le changement de société.
Le passage à l’échelle pose aussi, selon nous, la question de la façon dont on traite les humains. Si l’on veut prendre soin des humains il faut des relations de confiance et d’empathie entre individus. Tisser de tels liens nous semble difficile si l’on est sans cesse en train de doubler nos effectifs. Cela explique aussi le fait que nous soyons une association de cooptation où tout le monde se connaît.
Du fait de notre ADN issu du logiciel libre, nous ne voulons pas entrer dans le modèle du capitalisme néolibéral et du productivisme. Nous tenons à défendre le modèle associatif. Nous sommes dans un contexte où les associations et leurs financements sont très mis à mal par les politiques publiques de ces dernières années. C’est donc un véritable choix que de garder ce modèle pour le soutenir et montrer que le modèle économique du don est viable.
Nous visons un « passage à l’échelle » côté utilisateurs et non côté entreprise. La priorité, pour nous, c’est le changement de société.
Si on rentre plus précisément dans la perspective de « Dégooglisation », comment vous positionnez-vous par rapport aux géants du web ?
Notre objectif est de permettre à toute personne qui le souhaite de remplacer les services des géants du web qu’elle utilise par des alternatives. Nous ne nous positionnons donc pas vraiment en concurrence car, en tant qu’hébergeurs de services alternatifs, nous ne cherchons pas systématiquement à reproduire à l’identique les services de ces géants. Par exemple, le service Framadate propose exactement les mêmes fonctionnalités que Doodle (et même davantage puisqu’il permet de réaliser des sondages classiques). En revanche, le service Framapad (basé sur le logiciel Etherpad) ne fait pas exactement la même chose que Google Docs et pourtant nous considérons que c’est son alternative. Il ne permet pas la gestion d’un espace de stockage, mais simplement l’édition collaborative en simultané d’un texte. Le service est chrono-compostable : le pad disparaît après un certain délai. Nous avons proposé une alternative à Google Drive avec le service Framadrive que nous avons limité à 5 000 comptes, lesquels ont été pris d’assaut. Nous allons prochainement proposer un nouveau service alternatif de cloud et d’édition collaborative basé sur le logiciel Nextcloud. Ce service ne sera pas commercialisé et sera proposé aux organisations actrices du progrès et de la justice sociale avec des limitations (taille du stockage, nombre d’utilisateurs) pour leur montrer qu’il existe une alternative viable et les inciter à transiter dans un second temps vers des services libres plus complets proposés par certaines structures membres du collectif CHATONS. Notre objectif est de permettre d’expérimenter et ensuite de rediriger vers d’autres partenaires proposant, eux, des solutions pérennes.
J’aimerais que l’on (les hébergeurs de services alternatifs) devienne une alternative viable à grande échelle. Ce serait possible, mais cela voudrait dire que nous aurions changé très fortement le système. On peut se dire qu’avec le mouvement fort des communs, et pas uniquement des communs numériques, une partie de la population a pris conscience qu’il est temps de mettre en cohérence ses usages numériques avec ses valeurs. Il demeure cependant ardu de mesurer si ces initiatives augmentent. La question est : que mesure-t-on ? Est-ce que l’on mesure le nombre de projets ? Ou le nombre de personnes dans ces communautés qui gèrent des communs ? À cet égard, il y a un enjeu de sous-estimation parce que beaucoup de « commoners » s’ignorent comme tels. Les bénévoles qui gèrent des associations sportives sont un bon exemple. Ensuite, plus que de dénombrer ces projets, il serait plus intéressant d’en analyser l’impact sur la société. Cela implique de financer la recherche pour qu’elle travaille sur ces questions, ce qui n’est pas suffisamment le cas aujourd’hui. Même si quelques projets existent néanmoins, tels que le projet de recherche TAPAS (There Are Platforms As Alternatives).
L’État contribue-t-il aujourd’hui aux communs ? Cette contribution est-elle souhaitable ?
L’État contribue aux communs. Par exemple, l’Éducation nationale propose la page apps.education.fr qui référence un ensemble de services pédagogiques en ligne basés sur du logiciel libre. Mais l’État est paradoxal : il contribue aux communs et signe des accords avec Microsoft pour implémenter Windows sur les postes informatiques des écoles. De plus, cette initiative de l’Éducation nationale est très bonne, mais elle reste très méconnue du corps enseignant. Au-delà de la contribution, il y a donc aussi un enjeu important de promotion.
Cette contribution étatique ne nous pose aucun problème, tant que cela ne crée pas de situations de dépendance et qu’il n’y a pas d’exigences de ces institutions publiques en termes d’impact ou de performance. Il faudrait, notamment, que les financements soient engagés sur plusieurs années. Il faudrait aussi arrêter le financement de projets et privilégier des financements du fonctionnement. Ensuite, nous pensons que certains dispositifs mis en place ces dernières années par les pouvoirs publics ne devraient pas exister. Par exemple, le contrat d’engagement républicain, qui doit obligatoirement être signé par une association pour qu’elle puisse bénéficier de financements publics, met ces dernières dans des positions difficiles. L’association doit satisfaire aux principes qui y sont présentés et, si tel n’est pas le cas, le financement peut être suspendu, voire il peut être demandé de rembourser les montants précédemment engagés. Mais la forme sous laquelle ce contrat est rédigé est si floue que les termes utilisés peuvent être interprétés de multiples manières. Il devient alors assez facile de tordre le texte pour mettre la pression, voire faire cesser l’activité d’une association. Ce n’est donc pas le principe de ce contrat qui me gêne, mais ce flou sur la formulation des termes qui fait qu’on ne sait pas où est la limite de son application. C’est d’ailleurs ce qui s’est passé le 13 septembre dernier quand le Préfet de la Vienne a sommé par courrier la ville et la métropole de Poitiers de retirer leurs subventions destinées à soutenir un village des alternatives organisé par l’association Alternatiba Poitiers. Pour quel motif ? Au sein de cet événement, une formation à la désobéissance civile non-violente a été jugée « incompatible avec ce contrat d’engagement républicain ». Signée par 65 organisations (dont Framasoft), une tribune rappelle que la désobéissance civile relève de la liberté d’expression, du répertoire d’actions légitimes des associations et qu’elle s’inscrit dans le cadre de la démocratie et de la république.
Framasoft est aussi signataire de la tribune Pour que les communs numériques deviennent un pilier de la souveraineté numérique européenne parue en juin dernier. En effet, dans le cadre des travaux engagés au sein de l’Union européenne, il semblait important de rappeler quel’espace numérique ne doit pas être laissé à la domination des plateformes monopolistiques. Et que pour pallier à cela, l’Union européenne doit, plus que jamais, initier des politiques d’envergure afin que les communs numériques puissent mieux se développer et permettre de maintenir une diversité d’acteurs sur le Web.
Plus largement, on peut se demander pourquoi il devrait y avoir une contrepartie au développement d’un commun. Pourquoi le simple fait de créer, développer et maintenir un commun ne suffirait-il pas ?
Communs numériques et ergonomie font-ils bon ménage ?
C’est le marronnier quand on vient à parler de communs numériques ! Pour ce qui concerne les services en ligne alternatifs, il est évident que le design et l’expérience utilisateur devraient être davantage pris en compte et mériteraient des financements plus importants au sein des structures qui les développent. Chez Framasoft, nous faisons appel depuis plusieurs années à des designers pour réfléchir aux interfaces des logiciels que nous développons (PeerTube et Mobilizon). Cette prise de conscience est récente. Dans le monde du libre, il me semble que, pendant assez longtemps, il n’y a pas vraiment eu de réflexion quant à l’adoption des outils par le plus grand nombre.
Les services numériques tels qu’ils existent aujourd’hui nous ont fait prendre des habitudes et ont créé un réflexe de comparaison. Mais passer d’iPhone à Android ou l’inverse génère aussi des crispations. Le passage aux communs en générera naturellement aussi et peut-être plus. C’est d’ailleurs un discours que l’on porte beaucoup chez Framasoft : c’est plus simple d’aller au supermarché que d’avoir une pratique éthique d’alimentation. Il en va de même en ligne. Modifier ses pratiques numériques demande un effort. Mais cela ne veut évidemment pas dire que l’on ne peut pas améliorer les interfaces de nos services. Cependant, cela nécessite des financements qui ne sont pas toujours faciles à avoir. Les utilisateurs de services libres devraient en prendre conscience pour davantage contribuer à l’amélioration de ces communs. On peut lier ce mécanisme à la problématique du passager clandestin : tout le monde souhaite des services libres avec une meilleure expérience utilisateur mais peu sont prêts à les financer. Aujourd’hui, les projets de communs ont des difficultés à trouver des financements pour cet aspect de leurs services.
Angie Gaudion, chargée de relations publiques au sein de Framasoft,
Publié le 13.03.2025 à 07:30
Un nouvel entretien autour de l’informatique.
Anne-Marie Kermarrec est une informaticienne française, professeure à l’École polytechnique fédérale de Lausanne. Elle est internationalement reconnue pour ses recherches sur les systèmes distribués, les systèmes « pair à pair », les algorithmes épidémiques et les systèmes collaboratifs d’apprentissage automatique. Elle fait partie du Conseil présidentiel de la science français et est nouvellement élue à l’Académie des Sciences. Elle contribue régulièrement à binaire, et a publié en 2021 « Numérique, compter avec les femmes », chez Odile Jacob.

Binaire : Tout d’abord, peux-tu nous retracer rapidement le parcours depuis la petite fille en Bretagne jusqu’à la membre Académie des sciences ?
AMK : Oui, je viens de Bretagne ; je suis la petite dernière d’une fratrie de quatre. On a tous suivi des études scientifiques. Au lycée, en seconde, j’avais pris option informatique pour aller dans un lycée particulier à Saint-Brieuc. À la fac, j’hésitais entre l’économie, les maths, l’informatique, et j’ai choisi l’informatique, un peu par hasard j’avoue. Je n’avais pas une idée très précise de ce que c’était mais il se trouve que j’avais un frère informaticien, qui avait fait un doctorat, et ça avait l’air d’un truc d’avenir !
J’ai découvert la recherche pendant mon stage de maîtrise, où j’ai étudié les architectures des ordinateurs. Puis, en DEA et en thèse, j’ai bifurqué vers les systèmes distribués, là encore, un peu par hasard. La façon de travailler en thèse m’a beaucoup plu, et m’a donné envie de continuer dans cette voie. J’ai donc poursuivi un postdoc à Amsterdam, avec un chercheur qui m’a beaucoup inspiré, Andy Tanenbaum. C’est là que j’ai commencé à travailler sur les systèmes distribués à large échelle – mon sujet principal de recherche depuis. Après deux ans comme maitresse de conférences à Rennes, j’ai passé cinq ans comme chercheuse pour Microsoft Research à Cambridge en Angleterre. C’était très chouette. Ensuite, je suis devenue directrice de recherche Inria et j’ai monté une équipe sur les systèmes pair-à-pair, un sujet très en vogue à l’époque. Cela m’a conduite à créer une start-up, Mediego, qui faisait de la recommandation pour les journaux en ligne et exploitait les résultats de mon projet de recherche. En 2019, juste avant le Covid, j’ai vendu la start-up. Depuis je suis professeure à l’EPFL. J’y ai monté un labo, toujours sur les systèmes distribués à large échelle, avec des applications dans l’apprentissage machine et l’intelligence artificielle.
Binaire : Pourquoi est-ce que tu n’es pas restée dans l’industrie après ta start-up?
AMK : La création de ma start-up a été une expérience très enrichissante techniquement et humainement. On était parti d’un algorithme que j’avais développé et dont j’étais très fière, mais finalement, ce qui a surtout fonctionné, c’est un logiciel de création de newsletters qu’on avait co-construit avec des journalistes. Les joies du pivot en startup. Et à un moment donné, j’avais un peu fait le tour dans le sens où, même si ce n’était pas une grosse boîte, une fois qu’on avait trouvé notre marché, je m’occupais essentiellement des sous et des ressources humaines… et plus tellement, plus assez, de science. Donc j’ai décidé de revenir dans le monde académique que je n’avais pas complètement quitté, puisque j’y avais encore des collaborations. J’ai aimé mon passage dans l’industrie, mais j’aime aussi la nouveauté, et c’est aussi pour ça que j’ai pas mal bougé dans ma carrière. Et après quelque temps, le monde académique me manquait, les étudiants, les collègues. Et puis, ce qui me plaît dans la recherche : quand on a envie, on change de sujet. On fait plein de choses différentes, on jouit d’une énorme liberté et on est entouré d’étudiants brillants. J’avais vraiment envie de retrouver cette liberté et ce cadre.
Et puis, au vu de tout ce qui se passe avec ces grosses boîtes en ce moment, je me félicite d’être revenue dans le monde académique ; je n’aurais pas du tout envie de travailler pour elles maintenant….
Binaire : Ton premier amour de chercheuse était le pair-à-pair. Est-ce que tu peux nous expliquer ce que c’est, et nous parler d’algorithmes sur lesquels tu as travaillé dans ce cadre ?


Architecture centralisée (1), puis pair-à-pair (2).
Source: Wikimedia commons.
AMK : Commençons par les systèmes distribués. Un système distribué consiste en un ensemble de machines qui collaborent pour exécuter une application donnée ; l’exemple type, ce serait les data centers. On fait faire à chaque machine un morceau du travail à réaliser globalement. Mais à un moment donné, il faut quand même de la synchronisation pour mettre tout ça en ordre.
La majorité des systèmes distribués, jusqu’au début des années 2000, s’appuyait sur une machine, qu’on appelle un serveur, responsable de l’orchestration des tâches allouées aux autres machines, qu’on appelle des clients. On parle d’architecture client-serveur. Un premier inconvénient, qu’on appelle le passage à l’échelle, c’est que quand on augmente le nombre de machines clientes, évidemment le serveur commence à saturer. Donc il faut passer à plusieurs serveurs. Comme dans un restaurant, quand le nombre de clients augmente, un serveur unique n’arrive plus à tout gérer, on embauche un deuxième serveur, puis un autre, etc. Un second problème est l’existence d’un point de défaillance unique. Si un serveur tombe en panne, le système en entier s’écroule, alors même que des tas d’autres machines restent capables d’exécuter des tâches.
Au début des années 2000, nous nous sommes intéressés à des systèmes distribués qui n’étaient plus seulement connectés par des réseaux locaux, mais par Internet, et avec de plus en plus de machines. Il est alors devenu crucial de pouvoir supporter la défaillance d’une ou plusieurs machines sans que tout le système tombe en panne. C’est ce qui a conduit aux systèmes pair-à-pair.
Binaire : On y arrive ! Alors qu’est-ce que c’est ?
AMK : Ce sont des systèmes décentralisés dans lesquels chaque machine joue à la fois le rôle de client et le rôle de serveur. Une machine qui joue les deux rôles, on l’appelle un pair. En termes de passage à l’échelle, c’est intéressant parce que ça veut dire que quand on augmente le nombre de clients, on augmente aussi le nombre de serveurs. Et si jamais une machine tombe en panne, le système continue de fonctionner !
Bon, au début, les principales applications pour le grand public étaient… le téléchargement illégal de musique et de films avec des systèmes comme Gnutella ou BitTorrent ! On a aussi utilisé ces systèmes pour de nombreuses autres applications comme le stockage de fichiers ou même des réseaux sociaux. Plus récemment, on a vu arriver de nouveaux systèmes pair-à-pair très populaires, avec la blockchain qui est la brique de base des crypto-monnaies comme le Bitcoin.
Maintenant, entrons un peu dans la technique. Dans un système distribué avec un très grand nombre de machines (potentiellement des millions), chaque machine ne communique pas avec toutes les autres, mais juste avec un petit sous-ensemble d’entre elles. Typiquement, si n est le nombre total de machines, une machine va communiquer avec un nombre logarithmique, log(n), de machines. En informatique, on aime bien le logarithme car, quand n grandit énormément, log(n) grandit doucement.
Maintenant, tout l’art réside dans le choix de ce sous-ensemble d’environ log(n) machines avec qui communiquer. La principale contrainte, c’est qu’on doit absolument éviter qu’il y ait une partition dans le réseau, c’est-à-dire qu’il doit toujours exister un chemin entre n’importe quels nœuds du réseau, même s’il faut pour cela passer par d’autres nœuds. On va distinguer deux approches qui vont conduire à deux grandes catégories de systèmes pair-à-pair, chacune ayant ses vertus.
La première manière, dite « structurée », consiste à organiser tous les nœuds pour qu’ils forment un anneau ou une étoile par exemple, bref une structure géométrique particulière qui va garantir la connectivité du tout. Avec de telles structures, on est capable de faire du routage efficace, c’est-à-dire de transmettre un message de n’importe quel point à n’importe quel autre point en suivant un chemin relativement court. Par exemple, dans un anneau, en plaçant des raccourcis de façon astucieuse, on va pouvoir aller de n’importe quelle machine à n’importe quelle autre machine en à peu près un nombre logarithmique d’étapes. Et la base de tous ces systèmes, c’est qu’il y a suffisamment de réplication un peu partout pour que n’importe quelle machine puisse tomber en panne et que le système continue à fonctionner correctement.
La seconde manière, dite « non structurée », se base sur des graphes aléatoires. On peut faire des choses assez intéressantes et élégantes avec de tels graphes, notamment tout ce qui s’appelle les algorithmes épidémiques (j’avais parlé de ça dans un autre article binaire). Pour envoyer un message à tout un système, je l’envoie d’abord à mes voisins, et chacun de mes voisins fait la même chose, etc. En utilisant un nombre à peu près logarithmique de voisins, on sait qu’au bout d’un nombre à peu près logarithmique d’étapes, tout le monde aura reçu le message qui s’est propagé un peu comme une épidémie. Cela reste vrai même si une grande partie des machines tombent en panne ! Et le hasard garantit que l’ensemble reste connecté.
On peut faire évoluer en permanence cette structure de graphe aléatoire, la rendre dynamique, l’adapter aux applications considérées. C’est le sujet d’un projet ERC que j’ai obtenu en 2008. L’idée était la suivante. Comme je dispose de ce graphe aléatoire qui me permet de m’assurer que tout le monde est bien connecté, je peux construire au-dessus n’importe quel autre graphe qui correspond bien à mon application. Par exemple, je peux construire le graphe des gens qui partagent les mêmes goûts que moi. Ce graphe n’a même pas besoin de relier tous les nœuds, parce que de toute façon ils sont tous connectés par le graphe aléatoire sous-jacent. Et dans ce cas-là, je peux utiliser ce réseau pour faire un système de recommandation. En fait, au début, je voulais faire un web personnalisé et décentralisé. C’était ça, la « grande vision » qui a été à la base de la création de ma startup. Sauf que business model oblige, finalement, on n’a pas du tout fait ça Mais j’y crois encore !


Architectures pair-à-pair: structurée (ici en anneau (1)) et routage aléatoire (2).
Source: Geeks for geeks.
Binaire : Et aujourd’hui, toujours dans le cadre du pair-à-pair, tes recherches portent sur l’apprentissage collaboratif.
AMK : Oui, l’apprentissage collaboratif, c’est mon sujet du moment ! Et oui, on reste proche du pair-à-pair, mon dada !
Dans la phase d’entraînement de l’apprentissage automatique classique, les données sont rapatriées dans des data centers où se réalise l’entrainement. Mais on ne veut pas toujours partager ses données ; on peut ne pas avoir confiance dans les autres machines pour maintenir la confidentialité des données.
Donc, imaginons des tas de machines (les nœuds du système) qui ont chacune beaucoup de données, qu’elles ne veulent pas partager, et qui, pour autant, aimeraient bénéficier de l’apprentissage automatique que collectivement ces données pourraient leur apporter. L’idée est d’arriver à entraîner des modèles d’apprentissage automatique sur ces données sans même les déplacer. Bien sûr, il faut échanger des informations pour y arriver, et, en cela, l’apprentissage est collaboratif.
Une idée pourrait être d’entrainer sur chaque machine un modèle d’apprentissage local, récupérer tous ces modèles sur un serveur central, les agréger, renvoyer le modèle résultat aux différentes machines pour poursuivre l’entrainement, cela s’appelle l’apprentissage fédéré. A la fin, on a bien un modèle qui a été finalement entraîné sur toutes les données, sans que les données n’aient bougé. Mais on a toujours des contraintes de vulnérabilité liées à la centralisation (passage à l’échelle, point de défaillance unique, respect de la vie privée).
Alors, la solution est d’y parvenir de manière complètement décentralisée, en pair-à-pair. On échange entre voisins des modèles locaux (c’est à dire entrainés sur des données locales), et on utilise des algorithmes épidémiques pour propager ces modèles. On arrive ainsi à réaliser l’entrainement sur l’ensemble des données. Ça prend du temps. Pour accélérer la convergence de l’entrainement, on fait évoluer le graphe dynamiquement.
Cependant, que ce soit dans le cas centralisé ou, dans une moindre mesure, décentralisé, l’échange des modèles pose quand même des problèmes de confidentialité. En effet, même si les données ne sont pas partagées, il se trouve qu’il est possible d’extraire beaucoup d’informations des paramètres d’un modèle et donc du client qui l’a envoyé. Il y a donc encore pas mal de recherches à faire pour garantir que ces systèmes soient vraiment respectueux de la vie privée, et pour se garantir d’attaques qui chercheraient à violer la confidentialité des données : c’est typiquement ce sur quoi je travaille avec mon équipe à l’EPFL.
Binaire : L’entraînement dans un cas distribué, est-ce que cela ne coûte pas plus cher que dans un cas centralisé ? Avec tous ces messages qui s’échangent ?
AMK : Bien sûr. Il reste beaucoup de travail à faire pour réduire ces coûts. En revanche, avec ces solutions, il est possible de faire des calculs sur des ordinateurs en local qui sont souvent sous-utilisés, plutôt que de construire toujours plus de data centers.
Binaire : Cela rappelle un peu les problèmes de coût énergétique du Bitcoin, pour revenir à une autre application du pair-à-pair. Peux-tu nous en parler ?
AMK : Un peu mais nous sommes loin des délires de consommation énergétique du Bitcoin.
En fait, au début, quand j’ai découvert l’algorithme original de la blockchain et du Bitcoin, je n’y ai pas du tout cru, parce que d’un point de vue algorithmique c’est un cauchemar ! En systèmes distribués, on passe notre vie à essayer de faire des algorithmes qui soient les plus efficaces possibles, qui consomment le moins de bande passante, qui soient les plus rapides possibles, etc… et là c’est tout le contraire ! Un truc de malade ! Bon, je regrette de ne pas y avoir cru et de ne pas avoir acheté quelques bitcoins à l’époque…
Mais c’est aussi ça que j’aime bien dans la recherche scientifique : on se trompe, on est surpris, on apprend. Et on découvre des algorithmes qui nous bluffent, comme ceux des IA génératives aujourd’hui.
Binaire : Tu as beaucoup milité, écrit, parlé autour de la place des femmes dans le numérique. On t’a déjà posé la question : pourquoi est-ce si difficile pour les femmes en informatique ? Peut-être pas pour toi, mais pour les femmes en général ? Pourrais-tu revenir sur cette question essentielle ?
AMK : On peut trouver un faisceau de causes. Au-delà de l’informatique, toutes les sciences “dures” sont confrontées à ce problème. Dès le CP, les écarts se creusent entre les filles et les garçons, pour de mauvaises raisons qui sont des stéréotypes bien ancrés dans la société, qui associent les femmes aux métiers de soins et puis les hommes à conduire des camions et à faire des maths… Pour l’informatique, la réforme du lycée a été catastrophique. La discipline n’avait déjà pas vraiment le vent en poupe, mais maintenant, quand il faut abandonner une option en terminale, on délaisse souvent l’informatique. Et ça se dégrade encore dans le supérieur. La proportion de femmes est très faible dans les écoles d’ingénieurs, et ça ne s’améliore pas beaucoup. Pour prendre l’exemple d’Inria, la proportion de candidates entre le début du recrutement et l’admission reste à peu près constante, mais comme elle est faible à l’entrée on ne peut pas faire de miracles…
Pourtant, une chose a changé : la parité dans le domaine est devenue un vrai sujet, un objectif pour beaucoup, même si ça n’a pas encore tellement amélioré les statistiques pour autant. Ça prend beaucoup de temps. Un sujet clivant est celui de la discrimination positive, celui des quotas. Beaucoup de femmes sont contre dans les milieux académiques parce qu’elles trouvent ça dévalorisant, ce que je peux comprendre. Je suis moi-même partagée, mais parfois je me dis que c’est peut-être une bonne solution pour accélérer les choses…
Binaire : Bon, de temps en temps, cela change sans quota. Même à l’Académie des sciences !
AMK : C’est vrai, magnifique ! Je suis ravie de faire partie de cette promo. Une promo sans quota plus de 50 % de femmes parmi les nouveaux membres Académie des sciences en général, et 50 % en informatique. On a quand même entendu pendant des années qu’on ne pouvait pas faire mieux que 15-20% ! Pourvu que ça dure !
Serge Abiteboul, Inria, et Chloé Mercier, Université de Bordeaux.
Publié le 08.03.2025 à 07:00
Un nouvel entretien autour de l’informatique. Anne Canteaut est une chercheuse française en cryptographie de l’Inria (Institut national de recherche en sciences et technologues du numérique). Ses recherches portent principalement sur la conception et l’analyse d’algorithmes cryptographiques symétriques. Elle a reçu en 2023 le Prix Irène-Joliot-Curie de la Femme scientifique de l’année. Elle a été élue en 2025 à l’Académie des sciences.

Binaire : Pourrais-tu nous raconter comment tu es devenue une chercheuse de renommée internationale de ton domaine ?
AC : Par hasard et par essais et erreurs. Longtemps, je n’ai pas su ce que je voulais faire. En terminale, j’ai candidaté dans des prépas à la fois scientifiques et littéraires. J’ai basculé côté scientifique par paresse, parce que cela demandait moins de travail. Après la prépa scientifique, la seule chose que je savais, c’était que je ne voulais pas faire d’informatique. Je voyais l’informatique comme un hobby pour des gars dans un garage qui bidouillent des trucs en buvant du coca et en mangeant des pizzas ; très peu pour moi. J’ai découvert l’informatique à l’ENSTA : une science comme les maths ou la physique, et pas du bricolage.
J’aimais beaucoup les maths. Alors, j’ai réalisé un stage de maths « pures » et je me suis rendu compte que le côté trop abstrait n’était pas pour moi. Faire des raisonnements sur des objets que l’on pouvait manipuler plus concrètement, comme on le fait en informatique, me convenait bien mieux. J’ai fait ma thèse à l’Inria-Rocquencourt, un postdoc à l’ETH à Zurich, puis j’ai été recrutée à l’Inria où j’ai fait toute ma carrière, sauf une année sabbatique au Danemark. A l’Inria, j’ai été responsable d’une équipe nommée Secret, déléguée scientifique[1] du Centre de Paris et présidente de la commission d’évaluation[2] d’Inria pendant 4 ans.
Binaire : Peux-tu nous parler de ton sujet de recherche ?
AC : Je suis cryptographe. La cryptographie a de nombreuses facettes. Dans une messagerie chiffrée ou un protocole de vote électronique comme Belenios, on trouve différents éléments cryptographiques élémentaires, et puis on les combine. J’aime bien la comparaison que fait Véronique Cortier[3]. Dans une bibliothèque IKEA, on part de planches, et d’une notice de montage. Celui qui fait la notice suppose que les planches sont bien faites et explique comment construire la bibliothèque en assemblant les planches. Dans le cadre de la cryptographie, mon travail consiste à réaliser des planches aussi parfaites que possible pour qu’elles puissent être utilisées par des collègues comme Véronique Cortier dans leurs notices. Les planches, ce sont les blocs cryptographiques de base. Les notices, ce sont, par exemple, les protocoles cryptographiques.
Le chiffrement est un de ces blocs de base. J’ai surtout étudié le « chiffrement symétrique ». Il suppose que deux interlocuteurs partagent un même secret (une clé) qu’ils utilisent pour s’envoyer un message très long. Du temps du téléphone rouge entre la Maison Blanche et le Kremlin, la clé était communiquée par la valise diplomatique, un canal de communication fiable qui ne peut pas être intercepté. Cela permettait de s’échanger des clés très longues. Aujourd’hui, on veut pouvoir communiquer une clé (une chaine de bits) de manière confidentielle sans disposer de valise diplomatique. Plutôt que de se passer « physiquement » une clé, on utilise un chiffrement asymétrique, ce qui nous oblige à utiliser des clés relativement courtes. Dans ces protocoles asymétriques, on dispose d’une clé publique et d’une clé privée. Tout le monde peut m’envoyer un message en le chiffrant avec la clé publique ; il faut détenir la clé privée pour pouvoir le déchiffrer. Le problème est que ce chiffrement asymétrique est très coûteux, alors on envoie la clé d’un chiffrement symétrique, et on passe ensuite à un chiffrement symétrique qui est bien moins coûteux.
Dans tous les cas, le problème central est « combien ça coûte de casser un chiffrement, c’est-à-dire de décrypter un message chiffré, ou encore mieux de retrouver la clé secrète ? ». Quel est le coût en temps, en mémoire ? Comment peut-on utiliser des informations annexes ? Par exemple, que peut-on faire si on dispose de messages chiffrés et de leurs déchiffrements (le contexte de la pierre de Rosette[4]) ?
Binaire : Tu te vois plutôt comme conceptrice de chiffrement ou comme casseuse de code ?
AC : On est toujours des deux côtés, du côté de celui qui conçoit un système de chiffrement assez sûr, et du côté de celui qui essaie de le casser. Quand on propose une méthode de chiffrement, on cherche soi-même à l’analyser pour vérifier sa solidité, et en même temps à la casser pour vérifier qu’elle ne comporte pas de faiblesse. Et, quand on a découvert une faiblesse dans une méthode de chiffrement, on cherche à la réparer, à concevoir une nouvelle méthode de chiffrement.
Comme l’art minimaliste, la crypto minimaliste
Il faut bien sûr contenir compte du contexte. J’ai par exemple travaillé sur des méthodes de chiffrements quand on dispose de très peu de ressources énergétiques. Dick Cheney, ancien vice-président états-uniens, avait un implant cardiaque, un défibrillateur. Il craignait une cyberattaque sur son implant et avait obtenu de ses médecins de désactiver son défibrillateur pendant ses meetings publics. Pour éviter cela, on est conduit à sécuriser les interactions avec le défibrillateur, mais cela demande d’utiliser sa pile, donc de limiter sa durée de vie. Cependant, changer une telle pile exige une opération chirurgicale. Sujet sérieux pour tous les porteurs de tels implants ! La communauté scientifique a travaillé pendant des années pour concevoir un système de chiffrement protégé contre les attaques et extrêmement sobre énergétiquement. Un standard a finalement été publié l’an dernier. J’appelle cela de la crypto minimaliste. Pour faire cela, il a fallu interroger chaque aspect du chiffrement, questionner la nécessité de chaque élément pour la sécurité.
Binaire : Tu as travaillé sur le chiffrement homomorphe. Pourrais-tu nous en parler ?
AC : Chiffrer des données, c’est un peu comme les mettre dans un coffre-fort. Le chiffrement homomorphe permet de manipuler les données qui sont dans le coffre-fort, sans les voir. On peut par exemple effectuer des recherches, des calculs sur des données chiffrées sans avoir au préalable à les déchiffrer, par exemple pour faire des statistiques sur certaines d’entre elles.
On a besoin de combiner ces techniques homomorphes, avec du chiffrement symétrique. Problème : les gens qui font du chiffrement homomorphe ne travaillent pas avec des nombres binaires. Par exemple, ils peuvent travailler dans le corps des entiers modulo p, où p est un nombre premier. Dans le monde de la cryptographie symétrique, nous travaillons habituellement en binaire. On n’a pas envie quand on combine les deux techniques de passer son temps à traduire du codage de l’un à celui de l’autre, et vice versa. Donc nous devons adapter nos techniques à leur codage.
On rencontre un peu le même problème avec les preuves à minimum de connaissance (zero-knowledge proofs). Nous devons adapter les structures mathématiques des deux domaines.
Binaire : Tu es informaticienne, mais en fait, tu parles souvent de structures mathématiques sous-jacentes. Les maths sont présentes dans ton travail ?
AC : Oui ! Maths et informatique sont très imbriquées dans mon travail. Une attaque d’un système cryptographique, est par nature algorithmique. On essaie de trouver des critères pour détecter des failles de sécurité. Résister à une attaque de manière « optimale », ça s’exprime généralement en se basant sur des propriétés mathématiques qu’il faut donc étudier. On est donc conduit à rechercher des objets très structurés mathématiquement.
Le revers de la médaille c’est que quand on a mis dans le système un objet très structuré mathématiquement, cette structure peut elle-même suggérer de nouvelles attaques. Vous vous retrouvez avec un dialogue entre les maths (l’algèbre) et l’informatique.
Binaire : Peux-tu nous donner un exemple de problème mathématique que vous avez rencontré ?
AC : Une technique de cryptanalyse bien connue est la cryptanalyse différentielle. Pour lui résister, une fonction de chiffrement doit être telle que la différence f(x+d)-f(x), pour tout d fixé, soit une fonction (dans le cadre discret) dont la distribution soit proche de l’uniforme. Cela soulève le problème mathématique : existe-t-il une fonction f bijective telle que chaque valeur possible des différences soit atteinte pour au plus deux antécédents x (ce qui est le plus proche de l’uniforme que l’on puisse atteindre en binaire) ?
Même sans avoir besoin de comprendre les détails, vous voyez bien que c’est un problème de math. Que sait-on de sa solution ? Pour 6 bits, on connait une solution. Pour 8 bits, ce qui nous intéresse en pratique, on ne sait pas. Une réponse positive permettrait d’avoir des méthodes de chiffrement moins coûteuses, donc des impacts pratiques importants. Des chercheurs en math peuvent bosser sur ce problème, chercher à découvrir une telle fonction, sans même avoir besoin de comprendre comment des cryptographes l’utiliseraient.
Binaire : Les bons citoyens n’ont rien à cacher. Depuis longtemps, des voix s’élèvent pour demander l’interdiction de la cryptographie. Qu’en penses-tu ?
AC : Le 11 septembre a montré que les terroristes pouvaient utiliser les avions à mauvais escient, et on n’a pas pour autant interdit les avions. D’abord, il faut avoir en tête que la crypto sert aussi à protéger les données personnelles, et les données des acteurs économiques. Ensuite, comment fait-on pour interdire l’usage de la cryptographie ? Comme fait-on pour interdire un algorithme ?
Il faut comparer, en informatique aussi, les avantages et les inconvénients d’une utilisation particulière. On le fait bien pour les médicaments en comparant bénéfices et effets secondaires. Pour prendre un exemple, dans un lycée que je connais, il a été question de remplacer le badge de cantine par une identification biométrique (lecture de la paume de la main). J’ai préféré payer quelques euros de plus pour garder le badge et ne pas partager des informations biométriques stockées on ne sait où par on ne sait qui. Dans ce cas, les avantages me semblaient clairement inférieurs aux risques.
Binaire : As-tu quelque chose à dire sur l’attractivité de l’informatique pour les femmes ? Comment expliques-tu le manque d’attractivité, et vois-tu des solutions ?
AC : Côté explication, mon point de vue découle de mon expérience personnelle. Il y a des problèmes à tous les niveaux des études, mais un aspect crucial est que, encore maintenant en 2025, on enseigne très peu l’informatique au collège et au lycée. Du coup, comme les jeunes savent mal ce que c’est, ils se basent sur l’image renvoyée par la société : l’informatique est pour les hommes, pas pour les femmes. Même les déjà rares jeunes femmes qui commencent une spécialité NSI [5] abandonnent la voie informatique dans des proportions considérables. Elles imaginent que l’informatique tient d’une culture « geek » très masculine, et que cela donne donc une supériorité aux hommes.
Le problème est assez semblable en math. Il est superbement traité dans le livre « Matheuses », aux Éditions du CNRS.

Je ne vois pas de solution unique. Mais, par exemple, peut-être faudrait-il revoir la part trop importante accordée au volontariat. Les filles candidatent moins ; à compétence égale, elles sont moins inclines à se mettre en avant. Ça peut aller de se présenter aux Olympiades de maths au lycée, jusqu’à faire une demande de prime au mérite dans un institut de recherche. C’est pourquoi les candidatures au concours de cryptanalyse Alkindi, destiné aux élèves de collège et de lycée, ne se basent pas entièrement sur le volontariat. Ce n’est pas un élève d’une classe qui participe, mais toute la classe. Résultat : parmi les gagnants, il y a autant de filles que de garçons.
Binaire : tu viens d’être élue à l’Académie des sciences, tu as eu le prix Irène-Joliot-Curie. Comment vis-tu ces reconnaissances des qualités de tes recherches ?
AC : Je suis évidemment très flattée. Mais je crains que cela donne une image faussée de la recherche, beaucoup trop individuelle. La recherche dans mon domaine est une affaire éminemment collective. J’ai écrit très peu d’articles seule. Pour obtenir des résultats brillants dans le domaine du chiffrement qui est le mien, on a vraiment besoin d’une grande diversité de profils, certains plus informaticiens et d’autres plus mathématiciens. D’ailleurs, c’est vrai pour la recherche en informatique en général. C’est plus une affaire d’équipes, que d’individus.
Serge Abiteboul, Inria ENS, Paris, Claire Mathieu, CNRS et Université Paris Cité
[1] Assure la coordination scientifique du centre.
[2] Plus importante instance scientifique d’Inria au niveau national.
[3] Véronique Cortier contribue régulièrement à binaire.
[4] La pierre de Rosette est un fragment de stèle gravée de l’Égypte antique portant trois versions d’un même texte qui a permis le déchiffrement des hiéroglyphes au XIXe siècle. [Wikipédia]
[5] La spécialité NSI, numérique et sciences informatiques, est une spécialité offerte en première générale et éventuellement poursuivie en terminale. Les chiffres sont mauvais pour les garçons et catastrophiques pour les filles. Voir https ://www.socinfo.fr/uploads/2024/06/2024-05-31-NSI-2023-perilenlademeure.pdf]
Les entretiens autour de l’informatique
Publié le 03.03.2025 à 06:04
Tout ce que nous devons à Jean-Pierre …
Nous avons la profonde tristesse de vous annoncer le décès de Jean-Pierre Archambault, Président de l’EPI, le 23 février 2025.
Ancien enseignant et professeur agrégé de mathématiques, il a créé puis coordonné pendant de nombreuses années le pôle de compétences « logiciels libres » du SCÉRÉN, jouant un rôle de premier plan dans la légitimation et le développement du libre dans le système éducatif.
Dans les années 80 et 90, il a participé au pilotage du développement des Technologies de l’Information et de la Communication (TIC) dans l’académie de Créteil : organisation du volet formation du plan Informatique Pour Tous, mise en œuvre de la télématique scolaire et des réseaux locaux, expérimentation d’internet, formation des enseignants.
En tant que président de l’association Enseignement Public et informatique (EPI) il a été un artisan actif de l’introduction d’une discipline informatique au lycée et au collège, après une sensibilisation à l’école primaire. Ainsi, il a été membre du groupe de travail de l’Académie des sciences qui a préparé le rapport « L’enseignement de l’informatique en France – Il est urgent de ne plus attendre » adopté par l’académie en mai 2013.
Il a été pendant plusieurs années membre du Conseil d’Administration de la Société Informatique de France (SIF) et coresponsable du groupe ITIC-EPI-SIF.
Il était convaincu que l’enseignement de l’informatique et l’utilisation de l’informatique dans les disciplines et activités sont deux démarches complémentaires. Ses éditoriaux d’EpiNet, qu’il rédigeait avec soin, étaient sources de réflexion et appréciés de toutes et de tous.
Toutes ces actions militantes signifiaient des relations nouées avec les partenaires (collectivités territoriales, éditeurs, entreprises, parents d’élèves, associations d’enseignants, syndicats …) et les responsables du système éducatif. Elles sont toujours allées de pair avec une activité de réflexion, une veille et prospective sur les usages, les statuts et les enjeux pédagogiques et éducatifs de l’informatique et des technologies de l’information et de la communication. Cela a amené Jean-Pierre à organiser et à intervenir dans des colloques, forums, salons et séminaires. Il est l’auteur de nombreux articles dont la plupart sont sur les sites de l’EPI et d’edutice.archives-ouvertes.
Nous garderons un souvenir inoubliable de ces longues années passées ensemble. Jean-Pierre fut pour nous un excellent collègue et un ami.
Nous binaire, reprenons ici le texte de epi.asso qui rend hommage à … notre ami Jean-Pierre.
Publié le 28.02.2025 à 06:04
Une vie numérique sans GAFAM est-elle possible ?
Corinne Vercher-Chaptal a mené une étude approfondie sur sept plateformes considérées comme alternatives aux plateformes dominantes. Entre transition écologique et renouveau démocratique, elle nous décrit les promesses de ces plateformes innovantes. Cet article a été publié le 21 octobre 2022 sur le site de cnnumerique.fr et est remis en partage ici, les en remerciant. Serge Abiteboul et Thierry Viéville.
Vous avez piloté une équipe de recherche qui a étudié 7 plateformes dites alternatives : en quoi ces plateformes se différencient des GAFAM ?
Ces modèles étaient alternatifs, non pas parce qu’ils proposaient de faire différemment ce que font les modèles dominants, mais plutôt parce qu’ils créent une offre de valeurs qui n’existe pas dans le secteur dans lequel trône la plateforme dominante.
Les cas que nous avons étudiés sont dits alternatifs par le modèle économique, de gouvernance et le service qu’ils proposent dans un secteur où domine une grande plateforme. Assez rapidement, il nous est apparu que ces modèles étaient alternatifs, non pas parce qu’ils proposaient de faire différemment ce que font les modèles dominants, mais plutôt parce qu’ils créent une offre de valeurs qui n’existe pas dans le secteur dans lequel trône la plateforme dominante.
Le secteur du tourisme est en cela assez emblématique. Il est fortement dominé par Airbnb. Nous avons étudié la plateforme coopérative « Les Oiseaux de passage » qui propose une autre manière de voyager en mettant en relation des habitants, professionnels et voyageurs, pour aller vers une forme sociale du tourisme s’approchant de l’hospitalité. La particularité de ce modèle est que, contrairement à Airbnb, il s’extrait des standards marchands et poursuit une finalité sociale et patrimoniale. La plateforme propose une tarification qui ne repose pas sur un algorithme de prix (tarification dynamique) mais qui est modérée en fonction de l’hôte et du voyageur, permettant une diversité d’échanges, gratuits ou tarifés.
Mobicoop, plateforme coopérative de covoiturage libre, est un autre cas intéressant. Son origine est une réaction à la marchandisation du covoiturage. En 2007, une association appelée « Covoiturage.fr » crée une plateforme pour mettre gratuitement en contact des personnes pour covoiturer. En 2011, au moment où le covoiturage connaît une expansion, la plateforme instaure une commission sur les trajets effectués par les co-voitureurs, et devient Blablacar. Les militants de la communauté initiale ont alors réagi en recréant une nouvelle plateforme pour maintenir une mise en relation gratuite des annonces de covoiturage. C’est ainsi qu’est apparue Mobicoop. L’objectif premier n’est pas seulement le covoiturage en tant que tel et le remboursement de ses frais du voyage, mais de proposer un moyen de participer à la réduction de la prolifération des véhicules individuels (autosolisme), et donc à la transition écologique. Ainsi, Mobicoop est développée en logiciel libre et ne prélève aucune commission puisque cela serait antinomique avec sa finalité : plus la plateforme est ouverte, plus l’objectif écologique sera atteint. Pour faire vivre la plateforme et ses besoins en développement, la coopérative a recours aux appels au don et au sociétariat mais surtout à la vente en marque blanche de plateformes et de prestations de mobilité partagée aux collectivités territoriales. Ce versant marchand permet donc à la plateforme de proposer au grand public un service d’intermédiation gratuit en accord avec son éthique et son objectif environnemental.
Au-delà de ces exemples, il existe une diversité de modèles économiques alternatifs. Tous ont le même défi : pérenniser leur modèle. Même si pour la plupart, ces modèles n’ont pas vocation à se substituer entièrement aux dominants, il faut qu’ils aient les moyens de constituer et de fidéliser des communautés d’usagers et de contributeurs prêts à valider, sous une forme ou une autre, (don, sociétariat, cotisation…) la valeur sociale et environnementale créée, et qui n’a pas été formatée pour le marché et ses exigences.
Voyez-vous un rapprochement entre ces modèles et les mondes du logiciel libre et des communs, qui sont classiquement cités comme des alternatives aux modèles dominants sur Internet ?
Le monde coopératif se mêle de plus en plus au monde des communs et du logiciel libre, ce qui n’était pas évident au départ.
Originellement, l’objet des communs numériques est l’ouverture des services numériques, et celui du coopérativisme est la propriété partagée visant à protéger les intérêts des membres. Ces deux objectifs sont distincts mais ne sont pas incompatibles. En France, nous avons la chance d’avoir le dispositif SCIC (société coopérative d’intérêt collectif) qui permet de rassembler les deux approches en ouvrant la gouvernance des coopératives à une diversité de parties prenantes. Le dispositif SCIC renforce la prise en compte de l’intérêt général, et la dimension délibérative qui est le propre des communs. La propriété est ainsi repensée pour qu’elle ne soit plus exclusive à quelques sociétaires prédéfinis mais accessible à toutes les parties prenantes, devenant ainsi plus inclusive. Ce dispositif participe donc grandement au rapprochement des coopératives avec les communs.
Le rapprochement avec le logiciel libre est moins évident puisque la notion de propriété est en tant que telle antinomique de l’esprit du libre, qui en rejette toute forme. Aujourd’hui, on assiste à une politisation d’une partie du mouvement qui a pensé dès ses débuts un Internet émancipateur via la non-propriété et l’universalité de l’accès. Certains militants du logiciel libre estiment avoir fait une erreur en n’articulant pas les logiciels libres à des finalités sociale et/ou environnementale. Cela a provoqué une forme de scission au sein du mouvement entre ceux qui ont une vision fonctionnelle et individuelle des libertés numériques, prônant une liberté sans limite, et ceux qui ont une approche collective et délibérative s’attachant à préserver l’éthique du projet.
Ainsi, des outils tels que les licences à réciprocité ont été développés par cette deuxième branche du mouvement pour essayer de répondre à ce qu’ils estiment être les limites des logiciels libres initiaux. L’objectif de ces licences est de restreindre l’ouverture et l’usage de la licence soit en décidant de la nature de l’organisation usagère (organisation de l’économie sociale et solidaire par exemple), soit en restreignant l’usage commercial à certaines finalités. Par exemple, CoopCycle, une coopérative de livraison à vélo, a autorisé uniquement l’usage de la licence aux collectifs de livreurs constitués en coopératives. Cela va encore plus loin avec les Hippocratic licenses (licences hippocratiques) qui imposent un critère éthique aux projets open source et restreignent l’utilisation au respect des droits humains. L’Hippocratic License fait cependant l’objet de controverses au sein du mouvement du logiciel libre.
Ces licences, qui peuvent permettre de restaurer une relation de réciprocité entre le secteur marchand et les communs, rapprochent le coopérativisme du mouvement du logiciel libre tout en préservant l’esprit des communs.
Quel rôle l’État doit-il adopter vis-à-vis de ces modèles alternatifs ?
Les communs offrent une formidable opportunité de renouveau démocratique en permettant une co-construction avec l’État d’actions publiques nouvelles et adaptées aux crises écologique, sociale et sanitaire.
Ce qui est certain c’est qu’en l’absence de dispositifs financiers et institutionnels adaptés à leurs spécificités, les modèles alternatifs ne peuvent se développer et se pérenniser. J’en veux pour preuve l’initiative Les Oiseaux de passage qui doit en grande partie son développement à l’attribution du statut de jeune entreprise innovante (JEI). Cependant, ce ne fût pas sans difficulté car cette plateforme a longtemps eu du mal à se voir reconnaître comme étant innovante. Il y a sans doute des dispositifs à créer ou à modifier dans l’écosystème de l’innovation pour clarifier cette caractérisation et aider à la pérennisation de ce type d’initiatives, dont l’objectif est de mobiliser le numérique au service de projet solidaire, de transition socio-environnementale.
Il y a aussi un véritable enjeu à lutter contre la précarité des contributeurs, phénomène bien connu dans le monde du logiciel libre. De nombreux acteurs de la communauté du logiciel libre vivent dans une précarité certaine. Il est donc primordial de s’attacher à réfléchir à des innovations institutionnelles pour sécuriser le travail des contributeurs aux communs.
Enfin, au sein de l’équipe du rapport TAPAS, nous avons pointé l’opportunité d’un rapprochement entre les communs (numériques et non-numériques) avec l’acteur public. Il est essentiel qu’un espace autre que purement marchand, obéissant à une rationalité autre qu’instrumentale, se développe pour déployer les communs. Il faut enseigner que les communs peuvent être le lieu de solidarités citoyennes, comme le souligne Alain Supiot, inscrites dans les territoires. A cette échelle, les communs peuvent participer à la construction de politique de transition avec les collectivités locales dans les domaines qui leur incombent comme le transport, l’habitation, la qualité de l’eau, l’alimentation…Pour ce faire, l’État doit avoir un rôle facilitateur qui va au-delà du seul soutien financier. A côté d’une régulation contraignante à destination des GAFAM, l’état peut mettre en place une régulation habilitante visant à soutenir les alternatives, dans le respect de leur identité et de leurs spécificités. Cela peut être par la mise à disposition de ressources matérielles ou immatérielles, comme l’initiative “Brest en communs” où la ville a fourni des réseaux d’accès Wifi ouverts et gratuits sur le territoire, par exemple. Finalement, là où il existe des zones où le service public est défaillant ou absent, les communs offrent une formidable opportunité de renouveau démocratique en permettant une co-construction avec l’État d’actions publiques nouvelles et adaptées aux crises écologique, sociale et sanitaire.
Corinne Vercher-Chaptal , Professeure Université Sorbonne Paris Nord.
Pour aller plus loin :Publié le 21.02.2025 à 06:56
Comment mettre en avant les communs au travail ?
Qu’est-ce que Sharers & Workers ?
Sharers & Workers est un réseau d’animation de l’écosystème autour des transformations du travail en lien avec la transformation numérique. Initialement centrés sur l’économie des plateformes, les travaux du réseau se sont recentrés sur les problématiques de l’IA et des données depuis 2019. Notre objectif est de faire se rencontrer des acteurs de la recherche, des acteurs de la transformation numérique en entreprise et des acteurs syndicaux pour appréhender collectivement ces transformations. Nous avons deux convictions :
- l’économie numérique et le numérique sont vecteurs de bouleversements profonds pour les marchés et les acteurs économiques et sociaux préexistants. Ces nouveaux modèles d’affaires nous amènent nécessairement à renouveler nos façons de penser et d’agir sur le travail, les compétences, les relations de travail, les formes de représentation, les façons de partager la valeur etc.
- Il nous semble nécessaire de croiser les points de vue et de mettre en relation l’ensemble des parties prenantes, qui n’ont pas toujours les mêmes approches, afin de mieux appréhender ces transformations.
Comment le réseau Sharers & Workers s’est-il emparé de la question des communs ?
Le numérique permet une production collaborative étendue et une gouvernance ouverte. Autant de formes d’organisation et de modèles que l’on retrouve très souvent dans les communs et les communs numériques, très étudiés sous l’angle de la ressource et de la gouvernance, mais assez peu sous celui des modèles de travail sous-jacents. Nous nous intéressons à cette dimension, souvent moins explorée dans la littérature scientifique : le travail en commun ou produisant des communs génère-t-il des conditions et des organisations de travail spécifiques ?
Nous avons porté ce questionnement dans le cadre du Transformateur Numérique, un dispositif d’innovation collaborative porté par l’Anact (Agence nationale pour l’amélioration des conditions de travail) et la Fing (Fédération Internet Nouvelle Génération) et qui vise à accélérer les initiatives mettant le numérique au service de la qualité de vie au travail. La huitième édition du Transformateur a ainsi été organisée en 2018 en partenariat avec le Groupe Chronos et Sharers & Workers avec pour thème : “Travails et communs, travail en commun, vers de nouvelles organisations du travail ?”.
Par la suite, ces rencontres se sont formalisées par la mise en place d’une expérimentation soutenue par le Fact (Fonds pour l’amélioration des conditions de travail de l’Anact). Dans ce cadre, nous avons accompagné six structures de l’écosystème des communs pour expérimenter de nouvelles formes d’organisations, de collaboration, d’encadrement de l’activité et d’innovation sociale, tout en mettant ces initiatives en réseau pour qu’elles se nourrissent mutuellement. Ces structures avaient toutes la particularité de mobiliser les potentialités offertes par le numérique, que ce soit pour la production de communs numériques, pour l’organisation du travail ou de la coopération… Il ne s’agissait absolument pas de s’interroger sur la gouvernance ou le statut de ces structures mais plutôt d’étudier comment mettre en avant les valeurs liées au communs dans les modalités de travail et d’organisation.
À ce sujet, qu’avez-vous observé ? En quoi les communs sont-ils des modèles d’organisation du travail spécifique ?
Notre travail a ainsi permis de formaliser des règles et processus qui étaient auparavant implicites, en s’adaptant à la volonté d’auto-organisation et de co-construction qui leur est chère.
L’organisation et les objectifs de ces structures étant différents de ceux des entreprises “traditionnelles”, les façons de travailler et de reconnaître le travail le sont aussi et posent la question des outils mis à disposition des communs à ce titre.
La difficulté commune à ces six structures était finalement de réussir à faire fonctionner des collectifs aux engagements variables et inégaux, avec certains contributeurs particulièrement sur-sollicités. Le suivi que nous avons mené a ainsi montré que ceci est notamment dû à l’absence de définition des concepts organisationnels mis en œuvre : comment mesurer et reconnaître la contribution et le contributeur, comment le rétribuer, comment gérer une collectif de contributeurs, comment évaluer les compétences, comment gérer les conflits…
Il ressort également de nos observations que cette carence définitionnelle va de pair avec une grande difficulté à trouver un équilibre entre horizontalité et verticalité. Ces structures cherchent à remettre en question la subordination hiérarchique, à tendre vers des formes plus distribuées du pouvoir, à s’éloigner de la logique du “command and control” pour aller vers des formes de coopération plus horizontales. Elles cherchent aussi à expérimenter des “modèles organisationnels distribués » de production des communs, ce qui floute encore davantage la frontière entre l’intérieur et l’extérieur de l’entreprise et, de fait, de ses travailleurs. Toutefois, ces initiatives peuvent générer une certaine incompréhension voire frustration de la part des parties prenantes qui peuvent même mettre en péril les collectifs. Il s’agit enfin de rétribuer correctement le travail pour éviter un épuisement des contributeurs, ce qui sous-entend de savoir mesurer et évaluer le travail en amont. Notre travail a ainsi permis de formaliser des règles et processus qui étaient auparavant implicites, en s’adaptant à la volonté d’auto-organisation et de co-construction qui leur est chère.
Nous avons aussi pu être amenés à expérimenter des dispositifs organisationnels nouveaux. Nous sommes face à des structures qui ne veulent pas poser la question du statut juridique : CAE, SCOP, SCIC… ce n’est pas leur préoccupation. Elles se demandent plutôt comment favoriser une approche du travail par les communs et comment s’outiller à cet égard. Il faut donc chercher d’autres modes de construction et d’outils pour gérer une entreprise, que ce soit en matière de gestion des conflits, des compétences, de la rétribution, de la coopération, de l’identification du travail, voire de la carrière. Tous ces mots-là, dont le Code du travail traite, il faut les réinterroger dans le cadre du commun. Par exemple, l’une des structures que nous avons accompagnées réfléchit depuis plusieurs années à la création d’un CDI communautaire : pourquoi aurait-on un contrat pour une seule personne et pas pour deux ? Ils ont ainsi répondu à des offres d’emploi pendant l’expérimentation avec deux personnes pour un même poste. Nous les avons fait accompagner par des juristes travaillistes de l’université de Lyon II. Ce sont des expérimentations très préliminaires et difficiles à mener parce qu’on est aux frontières de ce que permet le Code du travail.
Vous avez co-écrit avec Amandine Brugière un article intitulé “De la production de communs aux communs du travail”[1], comment définissez-vous ces communs du travail ?
Il est très difficile de faire fonctionner sur la durée un collectif de travail ouvert, en l’absence de définition claire de cette ouverture. On observe en fait une tyrannie de l’absence de structure.
La littérature fait apparaître deux principales approches des communs. La première, emmenée par Elinor Ostrom, part des ressources partagées pour ensuite étudier les règles qui en régissent les usages collectifs. La seconde approche, celle du “commoning” et notamment reprise par Pierre Dardot et Christian Laval, s’intéresse davantage au processus même de production d’un commun. C’est la continuité de celle-ci que nous nous sommes inscrites, car même si on a une ressource et une gouvernance, sans contributeur cela reste une coquille vide. Toutefois, dans les deux approches, l’accent est mis sur les règles juridiques voire politiques qui découlent de ces modèles, mais très peu sur les transformations organisationnelles qu’ils engendrent, c’est-à-dire la façon dont les ressources, les processus et les rapports sociaux sont mis en place par le collectif pour atteindre leurs buts.
Nous avons identifié un écueil supplémentaire à ceux régulièrement pointés dans la littérature sur les communs : outre la surexploitation de la ressource et la difficulté à pérenniser le collectif de contributeurs – qui est réel, il y a un vrai enjeu d’épuisement du commoner. Il est très difficile de faire fonctionner sur la durée un collectif de travail ouvert, en l’absence de définition claire de cette ouverture. On observe en fait une tyrannie de l’absence de structure (pour reprendre les termes de la militante Jo Freeman) : toutes les organisations ont besoin de poser des règles structurelles, tout en s’émancipant des cadres traditionnels existants. Un équilibre doit donc être trouvé – et c’est là toute la difficulté – entre la liberté des personnes à s’engager volontairement dans ces projets et la nécessité de répartir, discuter, vérifier, évaluer même des tâches et responsabilités à chacun pour s’assurer de la bonne marche du projet.
Selon vous, comment devrait intervenir l’État vis-à-vis de ces structures et à leurs contributeurs ?
Pour moi il s’agit d’abord d’une question de droit à l’expérimentation. Les expérimentations menées sont systématiquement hors-champ du Code du travail, et créent donc des risques juridiques. L’État pourrait porter davantage d’attention à ces innovations.
Pour moi il s’agit d’abord d’une question de droit à l’expérimentation. Les expérimentations menées sont systématiquement hors-champ du Code du travail, et créent donc des risques juridiques. L’État pourrait porter davantage d’attention à ces innovations, qui ne sont pas des innovations de structure juridique mais d’organisation du collectif et du travail qui cherchent à mettre en avant des formes inédites et inconnues de coopération : comment les outiller et les accompagner ? Par nos expérimentations, nous avons parfois recréé du droit, mais il faudrait formaliser tout cela.
Il faudrait aussi proposer des dispositifs adaptables : on ne peut pas mettre en place la même solution partout, cela ne fonctionne pas. Nous sommes face à des structures dont les valeurs portées relèvent d’un engagement politique, qu’elles déclinent dans tous leurs rouages. Elles ont donc besoin de s’approprier les outils. C’est une erreur de considérer que l’on peut avoir un dispositif générique. Par exemple, le droit créé autour de l’économie sociale et solidaire (ESS) n’apporte pas toutes les réponses ; notamment, il ne propose pas de solution pour rétribuer la contribution ouverte et ce droit concerne des structures qui demeurent dans une logique marchande. Donner la possibilité à ces organisations de construire elles-mêmes leurs propres outils participe autant de l’accompagnement que l’accompagnement en lui-même. J’ai constaté une réticence forte à accepter des solutions émanant du du pouvoir exécutif ou du législateur. Il faut absolument éviter toute logique descendante.
Enfin, on pourrait davantage s’inspirer des initiatives et des idées qui germent dans ces collectifs, notamment au sein de l’État dans une logique ascendante. Je pense que l’État peut aider à l’expérimentation, mais aussi regarder ce que les autres ont produit pour éventuellement le reprendre à son compte, l’étendre, le faciliter… L’État pourrait par exemple accepter d’avoir ces structures comme prestataires. La commande publique est un réel levier à cet égard.
Odile Chagny, économiste, chercheuse à l’Institut de Recherches Économiques et Sociales (IRES) et co-fondatrice du réseau Sharers et Workers.
[1] BRUGIÈRE, Amandine & CHAGNY, Odile. “De la production de communs aux communs du travail”. La Revue des conditions de travail, n°12, juillet 2021.”
Publié le 14.02.2025 à 06:34
Le numérique et ce que certains aiment appeler « intelligence artificielle » sont au cœur de nos vies. La plupart de nos actions, même les plus anodines, impliquent à un moment ou à un autre l’utilisation d’un ordinateur. Certains sont gigantesques, comme les centres de calculs des géants de la tech, et d’autres sont minuscules, cachés dans les objets du quotidien pour les rendre plus efficaces, plus « intelligents », mais cela, en tant que lecteur ou lectrice assidu·e du blog Binaire, vous le savez déjà !
Mais connaissez vous des personnalités atypiques, hautes en couleur qui ont rendu ces innovations possibles ?
Parmi elles, vous connaissez sans doute déjà Alan Turing qui a joué un rôle clef dans la définition des bases fondamentales de la science informatique et dans le décryptage des codes secrets Nazis. Vous vous souvenez de la triste fin de son histoire, jugé et condamné pour son homosexualité en 1952, contraint à la castration chimique, il met fin à ses jours le 7 Juin 1954. Plus de 60 ans après, Elizabeth II revient sur sa condamnation à titre posthume.
L’actualité récente outre-Atlantique me fait prendre la plume pour vous inviter à un petit voyage au pays des trans-istors, quitte à assaisonner Binaire avec une pincée de non-binaire !
Sophie Wilson : elle se cache dans votre poche, le saviez vous ?

Nos plus petits appareils numériques, tout comme les gros serveurs qui donnent vie à Internet ou encore les super-calculateurs qui tentent de percer les secrets des lois de la Physique ont tous en commun un composant essentiel : le micro-processeur. En quelque sorte, pour nos appareils numériques, le microprocesseur joue le rôle du « chef d’orchestre », jouant la « partition » – un programme – qui décrit le fonctionnement de l’appareil. Ce programme est écrit dans un langage, qui a son propre « alphabet », constitué d’instructions élémentaires, très simples, encodées sous forme de nombres dans la mémoire de l’ordinateur. De la même manière qu’il existe plusieurs alphabets (mandarin, cantonais, japonais, latin, grec, cyrillique …), on peut imaginer plusieurs jeux d’instructions différents. Définir cet « alphabet » n’est pas un choix anodin, comme nous l’a montré Sophie Wilson, informaticienne Anglaise, femme trans née en 1957.
A la fin des années 1980, la BBC avait un ambitieux programme d’éducation au numérique. Alors employée d’Acorn Computers, Sophie Wilson a joué un rôle clef en définissant un jeu d’instruction original, caractérisé par son extrême simplicité (de type RISC, pour Reduced Instruction Set Computer (voir aussi : sur le blog binaire : « Un nouveau RiscV» )), ce qui a permis à son entreprise de remporter le marché de la BBC. Ça n’est pas une idée qui vient naturellement à l’esprit ! On aurait pu penser qu’un jeu d’instruction plus complexe (CISC, pour Complex Instruction Set Computer) rendrait l’ordinateur plus puissant, mais ceci a permis de grandement simplifier la conception du microprocesseur, et a facilité une autre innovation, l’exécution en pipeline qui permet d’améliorer à la fois l’efficacité et la fréquence d’horloge du processeur. Une autre conséquence intéressante de cette simplicité est la réduction de la consommation énergétique, particulièrement intéressante pour l’embarqué ou les téléphones portables, et pour cause, le « cœur numérique » de votre fidèle compagnon portable n’est autre qu’un héritier de la lignée de processeurs ARM initiée par Sophie Wilson.
Lynn Conway a compté les transistors jusqu’à l’infini … deux fois !

Les micro-processeurs sont le résultat d’un assemblage d’un très très … très grand nombre de petits éléments – des transistors. Les premiers micro-processeurs, tels que le 4004 sorti par Intel en 1971, comptaient quelques milliers de transistors. Depuis cette époque, la technique permettant de graver des transistors dans du silicium (la stéréo-lithographie) a fait des progrès considérables, permettant de graver dans une seule puce des millions de transistors dans les années 90 (on parlait alors de VLSI pour « Very Large Scale Integration », et des milliards à l’heure actuelle ! Au début des années 1970, les premiers micro-processeurs étaient conçus « à la main », les ingénieurs dessinant les quelques milliers de transistors, mais peu à peu la croissance du nombre d’éléments ont rendu nécessaire l’invention de nouveaux outils et nouvelles méthodologies, permettant aux architectes de l’infiniment petit de poser les « routes », les « usines » et les « entrepôts » microscopiques ( ou plutôt nano-scopiques) qui constituent les micro-processeurs modernes. Lynn Conway a joué un rôle clef dans cette révolution… deux fois !
Recrutée en 1964 par IBM, elle rejoint l’équipe d’architecture des ordinateurs, pour concevoir un super-ordinateur : l’ACS (Advanced Computer System). A cette époque on ne parle pas encore de micro-processeur, mais elle introduit dès lors une innovation spectaculaire, le DIS (Dynamic Instruction Scheduling) : si on revient à notre processeur de tout à l’heure, il exécute une suite d’instruction, mais est-il obligé de les exécuter dans l’ordre où elles se présentent ? Lynn Conway montre qu’il est parfois intéressant de changer l’ordre d’exécution des instructions, ce qui permet d’exécuter plusieurs instructions à la fois ! (ce qu’on appelle un processeur superscalaire). Mais voilà, elle révèle en 1968 son intention de changer de sexe, ce qui lui vaut d’être licenciée par IBM. Bien des années plus tard, en 2020, l’entreprise lui a adressé des excuses publiques.
Elle reprend alors sa carrière, cette fois en tant que femme, en repartant de zéro, sans révéler son identité précédente. Elle gravit les échelons un par un, tout d’abord comme analyste programmeuse, puis elle travaille au fameux Xerox Parc où elle va diriger le « Large Scale Integration group ». C’est là qu’elle met au point l’ensemble de techniques et de logiciels permettant de réaliser les plans de micro-processeurs extrêmement complexes (la chaîne EDA pour Electronic Design and Automation). Après un passage au DARPA de 1983 à 1985, elle devient professeur à l’Université du Michigan, et rédige avec Carver Mead un ouvrage qui fera référence sur le sujet, et qui a permis de diffuser très largement ces technologies révolutionnaires de conception de puces (c.f. cette liste de référence sur le contexte et l’impact de cette publication ).
Alors qu’elle approche de l’age de la retraite, elle révèle son histoire et son passé chez IBM, et travaille pour défendre les droits des personnes trans-genre. Elle décède l’année dernière, le 9 Juin 2024, à l’age de 86 ans.
Claire Wolf : impression 3D et conception électronique pour toutes et tous !

Les nombreux outils disponibles dans notre monde numérique rendent notre vie plus facile, permettent de créer et d’échanger de l’information, mais, particulièrement dans le contexte actuel, il serait dangereux de laisser le contrôle de ces outils a un petit nombre d’acteurs. Née en 1980, femme trans, Claire Wolf a apporté des innovations importantes dans deux domaines différents.
Les technologies dites d’impression 3D (ou plutôt de fabrication additive) permettent à tout un chacun de fabriquer des objets avec des formes précises. Ceci ouvre la porte à de nombreuses applications, ou plus modestement, permet de réparer les objets du quotidien en créant soi-même des pièces de rechange. Développée dans les années 1980, cette technologie a connu un regain d’intérêt quand les différents brevets la protégeant ont expiré, permettant à tout un nouvel ensemble d’acteur de proposer des solutions et des produits. Mais créer des objets en 3D reste un travail d’expert, dépendant de logiciels coûteux et complexes. Claire Wolf a développé le logiciel OpenSCAD , une sorte de langage de programmation « avec des formes », permettant facilement de créer des pièces complexes en combinant des éléments plus simples. Ce logiciel a permis à toute une communauté de « makers » de créer et de partager des formes (voir par exemple https://www.thingiverse.com/).
Mais Claire Wolf ne s’est pas arrêtée là ! Si grâce à OpenSCAD tout un chacun peut réparer le buffet de la cuisine en imprimant une cale de la bonne forme en 3D, est-ce qu’on ne pourrait pas imaginer un outil permettant à tout un chacun de concevoir ses propres puces ?
Ceci peut sembler totalement hors de portée, mais il existe une étape intermédiaire : les FPGAs. Ce sont des circuits électroniques re-configurables, véritable « terre glaise », que chacun peut modeler à sa guise pour réaliser n’importe quel circuit logique (voir par exemple sur le blog binaire «Une glaise électronique re-modelable à volonté») Mais il y a une difficulté : ces FPGAs sont livrés avec des logiciels du constructeur, lourds et monolithiques, difficiles à apprendre, et peu adaptables à des cas d’utilisation variés. Pour cette raison, Claire Wolf a créé Yosys, un logiciel Open-Source rendant la conception de circuits logiques bien plus facile et abordable. Et pour ceux qui souhaitent franchir le pas jusqu’à la création d’un vrai circuit intégré, des initiatives tels que TinyTapeOut de Matt Venn permettent de le faire pour quelques centaines d’Euros ! Pour enrichir l’écosystème des outils de conception de circuits électroniques (EDA), Claire Wolf a créé l’entreprise YosysHQ, qui offre des solutions de vérification formelle.
Comme le chante Jean-Jacques Goldman, elles ne sont pas des « standards », « des gens bien comme ils faut », mais elles donnent leur différence. Espérons que notre société sache rester consciente de sa diversité, fière de sa richesse, ouverte et fraternelle.