ACCÈS LIBRE UNE Politique International Environnement Technologies Culture
16.04.2025 à 10:13
Résistance bactérienne aux antibiotiques : mieux la comprendre et mieux la contrer
Texte intégral (3585 mots)

Les antibiotiques sauvent de nombreuses vies mais les bactéries qu’ils combattent deviennent résistantes. Cette antibiorésistance provoque de nombreux décès prématurés, et le problème devrait s’aggraver dans les prochaines années et décennies.
Pour mieux le contrer, biochimistes et pharmaciens décryptent les mécanismes qui mènent à l’antibiorésistance. Comment les bactéries repoussent-elles les antibiotiques, évitent leurs effets, ou les détruisent ? Cette compréhension doit permettre de mettre au point des thérapies combinant antibiotiques et autres médicaments qui limiteraient la capacité des bactéries à contrer l’effet des antibiotiques.
Les bactéries sont des organismes constitués d’une unique cellule largement présents dans des habitats variés et parfois extrêmes. Elles sont présentes, sous le nom de microbiotes, sur notre corps ou à l’intérieur, et favorisent des phénomènes essentiels tels que la digestion. Mais les bactéries sont aussi des agents pathogènes à l’origine d’épidémies majeures comme la peste provoquée par la bactérie Yersinia pestis, et le choléra dû à l’espèce Vibrio choleræ.
De ce fait, la découverte des antibiotiques — des molécules qui tuent les bactéries ou bloquent leur croissance — a marqué un tournant décisif dans l’histoire de la médecine, à commencer par la découverte de la pénicilline en 1929. En effet, l’utilisation de ces molécules a permis d’éradiquer de nombreuses maladies infectieuses et d’améliorer grandement l’espérance de vie ainsi que les conditions de santé dans nos sociétés modernes.
Cependant, les antibiotiques, longtemps considérés comme des remèdes miracles et souvent utilisés abusivement en clinique et dans le secteur agroalimentaire, voient aujourd’hui leur efficacité compromise par le développement de souches bactériennes qui leur sont résistantes.
En effet, l’utilisation d’antibiotiques induit une « pression évolutive » sur les bactéries : les bactéries présentant des mutations génétiques leur permettant de résister aux antibiotiques survivent et se reproduisent davantage que les bactéries non résistantes.

À terme, cela favorise les populations bactériennes résistantes aux antibiotiques. L’émergence de souches présentant une résistance multiple aux antibiotiques, c’est-à-dire qui sont résistantes à plusieurs types d’antibiotiques à la fois, par exemple à la pénicilline et à l’amoxicilline, est un problème majeur selon l’Organisation mondiale de la santé. Ainsi certaines estimations considèrent que la résistance aux antibiotiques pourrait causer près de 40 millions de décès d’ici 2050.
On ne peut guère s’attendre à de nouveaux antibiotiques, le dernier ayant été introduit sur le marché il y a environ quanrante ans (la ciprofloxacine, en 1987).
En revanche, aujourd’hui, pour mettre au point de nouvelles stratégies thérapeutiques, il est essentiel d’élucider les processus cellulaires et moléculaires qui permettent aux bactéries de développer leur résistance aux antibiotiques.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Certaines stratégies de résistance sont liées au comportement collectif des bactéries
Différentes stratégies de résistance aux antibiotiques existent — elles font intervenir différents niveaux de régulation.
Parmi ces mécanismes, on trouve la « dormance », un état dans lequel l’ensemble des bactéries réduisent leur activité cellulaire pour survivre à des conditions défavorables, comme la présence d’antibiotiques. Une fois l’administration d’antibiotiques terminée, les conditions environnementales redeviennent favorables, permettant aux bactéries de reprendre leur activité normale et notamment leur croissance et multiplication. Ce mécanisme de résistance complique en particulier le traitement des infections chroniques, car des bactéries peuvent se réactiver après la suspension de la thérapie antibiotique, entraînant des rechutes.
Un autre mécanisme de résistance lié aux populations bactériennes est la formation de « biofilms ». En effet, si les bactéries semblent être des organismes simples, elles sont capables de former des colonies pour maximiser leurs chances de survie. Ainsi, en présence d’une surface qui agit comme support, par exemple un cathéter ou une prothèse, les bactéries s’attachent les unes aux autres pour former une communauté organisée : le film de bactéries crée une barrière physique qui réduit l’efficacité des antibiotiques, car ces derniers ne peuvent pas pénétrer à l’intérieur du film et donc dans les bactéries, rendant le traitement plus complexe.
Ce phénomène est particulièrement fréquent dans le cas des infections nosocomiales, qui concernent désormais environ 6 % des personnes séjournant à l’hôpital et qui représentent une menace grave pour les personnes dont le système immunitaire est affaibli. Pour contrer la formation de biofilms, des thérapies combinées, des doses élevées, voire le retrait des dispositifs infectés, sont nécessaires.
À lire aussi : Résistances aux antibiotiques : comment nous pouvons tous agir
À lire aussi : Antibiotiques et antibiorésistance : une situation qui varie selon l’endroit où l’on est
D’autres mécanismes de résistance aux antibiotiques se mettent en place au niveau de bactéries isolées
Au niveau d’une bactérie isolée, les mécanismes de mise en place de l’antibiorésistance ont lieu quand des mutations génétiques apparaissant par hasard au cours de la vie d’une bactérie lui permettent de résister à l’action d’un antibiotique. La bactérie résistante peut transmettre la mutation à sa descendance ; et ce phénomène est amplifié dans les biofilms bactériens, car ceux-ci favorisent l’échange de matériel génétique entre les cellules.
Des mutations génétiques ponctuelles peuvent par exemple altérer la structure et le fonctionnement des protéines ciblées par les antibiotiques, rendant ces derniers inefficaces. À l’inverse, la bactérie peut utiliser la stratégie dite d’« évitement métabolique » en utilisant d’autres protéines, ou des voies métaboliques alternatives, pour contourner l’effet d’un antibiotique. On peut comparer cela à une autoroute bloquée (c’est l’antibiotique qui tente d’empêcher la bactérie de vivre sa vie), où l’évitement métabolique reviendrait à emprunter une déviation pour atteindre sa destination malgré le blocage.
Par ailleurs, certaines bactéries, suite à une mutation génétique, produisent des protéines spécifiques capables de dégrader ou d’inactiver les antibiotiques, les rendant donc inefficaces. C’est le cas par exemple des bêta-lactamases, qui détruisent les antibiotiques de la famille des pénicillines.
Quand la membrane de la bactérie empêche les antibiotiques d’y pénétrer
Les autres mécanismes de résistance aux antibiotiques se situent au niveau de la membrane qui entoure la cellule bactérienne. Cette membrane, constituée d’une double couche de lipides imperméables, protège la cellule.
Les membranes des bactéries sont parsemées de nombreuses protéines qui exercent des rôles différents : elles peuvent favoriser l’adhésion des bactéries aux surfaces ou aux autres cellules, elles peuvent permettre de décoder des signaux, et pour finir elles peuvent favoriser les passages des différentes molécules, par exemple des nutriments.
La résistance aux antibiotiques au niveau de la membrane est donc particulièrement efficace car elle permet de contrer la thérapie antibiotique dès son point d’entrée.
Ainsi, certaines bactéries limitent l’entrée des antibiotiques en réduisant la production des porines, c’est-à-dire des protéines qui forment des canaux traversant la membrane cellulaire et, donc, permettant le passage des molécules externes, dont les antibiotiques.
Un autre mécanisme fascinant de résistance bactérienne consiste en l’utilisation de protéines complexes appelées « pompes à efflux ». Ces structures sont constituées de plusieurs protéines et se situent dans les membranes bactériennes. Elles expulsent activement les antibiotiques qui auraient pénétré la cellule, empêchant ainsi leur accumulation.
Les pompes à efflux, les « videurs » qui se débarrassent des antibiotiques importuns
Les pompes à efflux sont une machinerie complexe oscillant entre une structure ouverte et une structure fermée, pour éviter d’introduire des canaux de communication permanents entre la bactérie et l’extérieur. Elles doivent également être sélectives, pour éviter l’éjection de composés nécessaires à la survie de la bactérie.

Dans le cas de bactéries dites « Gram négatives », qui possèdent deux membranes séparées par un sas appelé « périplasme », les pompes à efflux doivent traverser les deux membranes et le périplasme pour permettre l’éjection complète des antibiotiques.
Déterminer la structure des pompes à efflux et comprendre leurs mécanismes de fonctionnement est fondamental pour permettre de développer des médicaments capables de les bloquer, et ainsi de restaurer une sensibilité aux antibiotiques dans les souches bactériennes résistantes.
Étudier les pompes à efflux à l’échelle moléculaire
Des techniques de biophysique et de chimie physique, notamment la cryomicroscopie électronique et la modélisation moléculaire, permettent d’accomplir cette tâche et d’accéder à la structure des pompes à efflux avec une résolution à l’échelle des atomes.

Plusieurs structures de pompes à efflux issues de différentes bactéries Gram négatives ont pu être résolues grâce à cette technique, telles que le complexe AcrAB-TolC d’Escherichia coli, ou MexAB-OprM de Pseudomonas aeruginosa, deux bactéries classées comme préoccupantes par l’Organisation mondiale de la santé.
Nous avons étudié davantage la pompe à efflux MexAB-OprM, afin de mettre en évidence le mécanisme d’expulsion sélective des antibiotiques.
Cette pompe est formée de trois protéines : l’une, composée de trois unités, joue le rôle de moteur de la pompe, la seconde de conduit étanche, tandis que la troisième fait un trou dans la membrane externe pour l’éjection finale des molécules à expulser, selon un mécanisme sophistiqué.
La première unité du moteur présente une cavité dans laquelle l’antibiotique peut entrer. Dans la seconde unité, cette cavité commence à se refermer pour pousser l’antibiotique vers l’intérieur de la pompe, dans une deuxième cavité. Enfin, les deux cavités se referment et un canal s’ouvre au niveau de la troisième unité, permettant l’acheminement dans le tunnel formé par les deux autres protéines, vers l’extérieur de la cellule. Cette pompe n’est donc pas qu’un simple « gros tuyau » : elle réalise un transport actif de l’antibiotique et est capable d’effectuer une sélection des molécules à expulser.
Grâce à ce type d’études, notre but est de comprendre finement les mécanismes de fonctionnement de cette pompe à efflux et de proposer des molécules qui seraient capables d’interagir avec les protéines pour bloquer son action. Par exemple, nous étudions la possibilité de développer des molécules qui pourraient interagir avec les cavités plus favorablement que les antibiotiques, pour bloquer au moins une des trois unités, et donc immobiliser la pompe. Une autre possibilité serait d’empêcher la formation du canal étanche liant les deux protéines insérées dans les membranes en enjambant le périplasme. Ces avancés pourraient permettre de développer une thérapie combinée qui pourrait rendre les bactéries Gram négatives à nouveau sensibles aux antibiotiques et donc contrer efficacement les infections nosocomiales.
Nous croyons que la lutte contre la résistance bactérienne, qui sera un enjeu fondamental de santé publique dans les années à venir, passe par l’utilisation intelligente des méthodes de chimie physique et de biologie structurale pour permettre de comprendre des mécanismes biologiques complexes, tels que la résistance aux antibiotiques ou l’échappement immunitaire, et d’y répondre efficacement.
Entre-temps, il est aussi primordial de favoriser une utilisation propre et contrôlée des antibiotiques, notamment en évitant leur surutilisation ou l’automédication, pour limiter l’émergence de souches résistantes qui pourraient être à l’origine d’épisodes épidémiques difficiles à contrer.

Antonio Monari a reçu des financements d'organisation publiques ANR, MESR etc..
Florent Barbault a reçu des financements de diverses organisations publiques (ANR, idex...)
Isabelle Broutin est membre de la société Française de Microbiologie (SFM), de la Société Française de Biophysique (SFB), et de la Société Française de Biochimie et biologie Moléculaires (SFBBM). Elle a reçu des financements de diverses organisations publiques (ANR, Idex-UPC, Vaincre la mucoviscidose...).
16.04.2025 à 10:11
À la recherche de l’ingrédient mystère de l’Univers, conversation avec Françoise Combes
Texte intégral (4155 mots)

Françoise Combes est astrophysicienne à l’Observatoire de Paris, professeure au Collège de France et présidente de l’Académie des sciences. En 2020, elle reçoit la médaille d’or du CNRS pour récompenser une carrière consacrée à l’étude de la dynamique des galaxies.
Avec Benoît Tonson et Elsa Couderc, chefs de rubrique Science à The Conversation France, la chercheuse lève le voile sur l’un des grands mystères de l’Univers : la matière noire. De la découverte d’une « masse manquante », en passant par l’hypothèse de la gravité modifiée, jusqu’aux grands projets internationaux de télescopes qui pourraient aider les scientifiques à caractériser cette matière imperceptible. Elle analyse également la situation actuelle des sciences aux États-Unis et dans le monde après l’électrochoc de l’élection de Donald Trump.
The Conversation : Vous vous intéressez à la matière noire, qu’est-ce que c’est ?
Françoise Combes : La matière noire, c’est de la matière invisible, parce qu’elle n’interagit pas avec la lumière : elle n’absorbe pas et n’émet pas de lumière, c’est pour cela qu’elle est appelée « noire ». Mais dans la pièce où nous sommes, il y en a peut-être et on ne la voit pas. En réalité, cette matière n’est pas noire, mais transparente. Ce problème nous questionne depuis des dizaines d’années.
D’où vient le concept de matière noire ? Les astrophysiciens ont observé un manque de masse pour pouvoir expliquer la dynamique des objets astronomiques, comme les galaxies, dont les étoiles et le gaz tournent autour de leur centre. Cette vitesse de rotation est très grande et la force centrifuge devrait faire éclater ces objets, s’il n’y avait pas de la masse pour les retenir. C’est aussi vrai pour les amas de galaxies. La conclusion inévitable est qu’il manque beaucoup de masse. Cette « masse manquante » est nécessaire pour faire coller la théorie et les calculs avec les observations.
À l’origine, les chercheurs pensaient que c’était de la masse ordinaire : c’est-à-dire des protons et des neutrons – la matière dont nous sommes faits, en somme. Mais ils se sont aperçus en 1985 que cette masse manquante ne pouvait pas être faite de matière ordinaire.
Prenons la nucléosynthèse primordiale, qui se déroule dans le premier quart d’heure de l’histoire de l’Univers où l’hélium et le deutérium se forment. S’il y avait suffisamment de matière ordinaire pour expliquer les observations sur la vitesse de rotation des galaxies, on ne mesurerait pas du tout la quantité d’hélium que l’on observe actuellement dans le Soleil, par exemple. On mesurerait beaucoup plus d’hélium et de lithium. Il a donc été établi, dans les années 1990, que seulement 5 % du contenu de l’Univers est fait de matière ordinaire !
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
T. C. : Donc, si cette « masse manquante » est invisible, elle doit être faite d’autre chose…
F. C. : Oui, et une confirmation de ce fait est venue avec la détection des fluctuations primordiales du fond diffus cosmologique, vestige du Big Bang. Ces fluctuations sont détectées au tout début de l’histoire de l’Univers, environ 380 000 ans après le Big Bang. Il s’agit de toutes petites fluctuations de la lumière dans le domaine des microondes. À cette époque, la matière ordinaire interagit avec la lumière et cette interaction, par la pression de radiation, empêche la condensation en structures, celles qui vont former les galaxies notamment. S’il n’y avait eu, à cette époque, que de la matière ordinaire, il n’y aurait pas aujourd’hui de galaxies, ni même une seule étoile.
Les chercheurs ont donc compris, entre 1985 et 1990, qu’il fallait supposer l’existence d’une matière qui n’interagisse pas avec la lumière : ainsi, elle ne subit pas la pression de radiation et peut alors s’effondrer sous l’effet de sa propre gravité. C’est la « matière noire » qui va permettre de créer des « galaxies noires », sans matière visible à ce moment-là. Ensuite, 380 000 ans après le Big Bang, la matière va se refroidir en dessous de 3 000 °K. À cette température, les protons et les électrons se recombinent et forment l’hydrogène qui interagit beaucoup moins avec la lumière que les particules chargées. À ce moment, la matière ordinaire peut, si je puis dire, tomber dans les galaxies noires déjà établies et former des étoiles et les galaxies visibles.
T. C. : Cette terminologie de « matière noire » ne semble pas vous convenir…
F. C. : En effet, cela donne l’impression qu’il y aurait quelque chose de noir qui nous empêcherait de voir derrière. Mais ce n’est pas noir, c’est transparent. On devrait plutôt parler de « masse manquante », mais bon, tout le monde utilise ce terme, il faut faire avec !
T. C. : Au fur et à mesure des études sur la matière noire, des candidats ont été imaginés par les physiciens, puis beaucoup ont été écartés…
F. C. : Oui, depuis 1985, beaucoup de pistes ont été éliminées. Il faut en éliminer, sinon il n’est pas possible d’approfondir les bonnes pistes. C’est un peu comme un enquêteur qui a une dizaine de pistes, il ne peut pas toutes les étudier : ça le ralentirait énormément.
Prenons, d’abord, les Wimp parce qu’ils ont été un candidat privilégié pendant de nombreuses années. Wimp signifie Weakly Interacting Massive Particles (en français, particules massives interagissant faiblement). Il existe quatre interactions en physique : l’électromagnétisme, la gravité, puis les deux forces nucléaires forte et faible. L’idée est que s’il existe une interaction entre les particules de matière noire, cela ne peut être qu’une interaction faible. Le Wimp est une particule sans charge, et elle est sa propre antiparticule. Ces particules vont s’annihiler progressivement, par cette interaction faible, jusqu’au moment où l’expansion de l’Univers aura tellement diminué leur densité qu’elles ne pourront plus se rencontrer. Leur abondance sera alors gelée à une valeur « relique ».
Il faut savoir que la matière noire constitue 25 % de notre Univers. Pour que la densité « relique » réponde à cette proportion, il a été calculé que la masse d’un Wimp devait être d’à peu près 100 fois la masse du proton. Ces particules ont été recherchées, et cette recherche de détection directe continue aujourd’hui par des expériences dans le tunnel du Gran Sasso en Italie, par exemple : les particules de matière noire incidentes pourraient entrer en collision avec les noyaux du détecteur, et les faire reculer. Mais aucune collision n’a été détectée !
Une autre approche pourrait être de créer ce Wimp dans un accélérateur de particules, comme au Cern (Large Hadron Collider, LHC). La collision entre deux protons, lancés à des vitesses proches de celle de la lumière, libère énormément d’énergie. Cela crée les conditions d’un mini Big Bang. Avec ce type d’énergie, il est possible de créer une particule de 100 fois la masse du proton. Mais aucune particule exotique n’a été détectée… C’est ce qui a fait tomber ce candidat qui était privilégié depuis trente ans. Ceci a été réalisé vers 2015.
T. C. : C’était donc la fin de l’aventure du Wimp, quelles pistes sont encore ouvertes ?
F. C. : La communauté a également beaucoup travaillé sur la piste du neutrino stérile. C’est une particule inventée de toute pièce. Il faut savoir qu’il existe trois types de neutrinos, qui sont de chiralité gauche, et les physiciens ont imaginé trois neutrinos miroirs, qui ont une chiralité droite (une particule chirale est non superposable à son image dans un miroir, elle a une « latéralité », comme une chaussure droite vis-à-vis de la gauche). Cette théorie rencontre des problèmes : d’une part, des contraintes astrophysiques sur la formation des structures, qui leur affectent une masse trop grande. D’autre part, si le nombre de neutrinos est plus grand que trois, cela devrait accélérer l’expansion au début de l’Univers, au-delà de ce qui est observé dans le fond cosmologique par le satellite Planck. Enfin, des expériences de détection des neutrinos stériles au Fermilab (États-Unis) n’ont donné aucun résultat.
Actuellement, le candidat qui monte est l’axion. Beaucoup de simulations cosmologiques ont été effectuées avec cette particule pour tester ses capacités à reproduire les observations. Là aussi, il s’agit d’une particule hypothétique qui aurait une masse extrêmement faible. Avec un champ magnétique très fort, elle pourrait se changer en photon, mais, là encore, rien n’a été détecté. Même près des étoiles à neutrons, qui bénéficient de champs magnétiques extrêmes.
T. C. : Mais si on n’arrive pas à détecter cette matière noire, peut-être faut-il en conclure qu’elle n’existe pas ?
F. C. : C’est possible, cette idée a déjà été proposée en 1983, mais, dans ce cas de figure, il faut alors valider l’idée qu’il existe une gravité modifiée. C’est-à-dire changer la loi de gravité en champ faible.
Dans le système solaire, le champ est très fort : la gravité de notre étoile, le Soleil, suffit à maintenir tout le système en régime de champ fort. La force de gravité décroît comme le carré de la distance. Il faut s’éloigner très loin du Soleil pour que son champ de gravité devienne assez faible, au-delà du nuage d’Oort, qui est un ensemble de petits corps, d’où viennent les comètes, entre 20 000 et 30 000 unités astronomiques (cette unité est la distance Terre-Soleil, soit environ 150 millions de kilomètres). De même, dans notre galaxie, la Voie lactée, l’ensemble des étoiles au centre a une densité telle, que le champ de gravité combiné est très fort. Il n’y a pas de masse manquante, il n’est pas nécessaire de supposer l’existence de matière noire ou de gravité modifiée ; la physique newtonienne classique permet d’expliquer l’équilibre au centre, mais pas au bord. C’est sur les bords de notre galaxie qu’il manque de la masse.
Notre équipe a effectué des simulations avec cette gravité modifiée, pour la confronter aux observations. Avec Olivier Tiret, nous avons pu reproduire les premières interactions entre galaxies avec le champ de gravité modifiée et nous avons montré que le scénario marchait très bien.
Pour résumer, soit la loi de la gravité est supposée être toujours la même en champ faible, et il faut alors ajouter de la matière noire, soit il n’y a pas de matière noire et il faut supposer que la loi de la gravité est modifiée en champ faible. Car le problème de la masse manquante ne survient que dans les cas de champ faible. En champ fort, il n’y a jamais de problème de matière noire.
T. C. : Et parmi toutes ces hypothèses, quelle est celle qui a le plus de valeur à vos yeux ?
F. C. : Eh bien ! Je n’en sais rien du tout ! Parce que cette gravité modifiée, qui est étudiée par certains astronomes depuis quarante ans, est encore assez empirique. Il n’y a pas de théorie encore bien établie. De plus, si elle explique très bien la dynamique de toutes les galaxies, elle ne reproduit pas bien les amas de galaxies.
La solution est de rajouter soit un petit peu de neutrinos, soit même de la matière ordinaire qui manque. Parce qu’en fait, ce que l’on oublie généralement de dire, c’est que toute la matière ordinaire de l’Univers n’a pas été identifiée. La matière qui correspond aux galaxies, aux étoiles au gaz chaud dans les amas de galaxies, ne correspond qu’à 10 % de la matière ordinaire. On peut déduire des absorptions de l’hydrogène dans les filaments cosmiques qu’il pourrait y en avoir une quantité importante, mais au moins la moitié de la matière ordinaire n’est toujours pas localisée.
Donc, il y a beaucoup de protons et de neutrons manquants. Il suffirait d’en mettre une petite pincée dans les amas de galaxies pour résoudre notre problème de gravité modifiée. En résumé, la matière ordinaire manquante n’est pas encore localisée. Elle ne peut pas être toute dans les galaxies, il y en a peut-être dans les amas de galaxies, mais surtout dans les filaments cosmiques.
En 2015, quand l’hypothèse du Wimp est tombée, ce fut un choc pour la communauté. Et il ne faut pas penser que celle-ci est homogène, certains ont été convaincus tout de suite, mais, chez d’autres, cela a pris plus de temps et certains ne sont toujours pas convaincus. Notamment ceux qui ont travaillé sur le Wimp pendant toute leur carrière. Mais, à chaque fois, le scénario est identique lorsqu’il y a une découverte qui bouscule tout. Il y avait par exemple des astronomes détracteurs de l’existence du Big Bang. L’opposition s’est éteinte lorsqu’ils sont partis en retraite.
En ce qui concerne la gravité modifiée, les progrès sont indéniables. Le problème du début de l’Univers, des galaxies primordiales et des fluctuations est en passe d’être résolu. Par contre, dans les amas, ce n’est toujours pas le cas. La recherche est toujours en cours. Aussi bien dans la théorie de la matière noire que dans celle de la gravité modifiée, il y a des problèmes des deux côtés. Lorsque tous les problèmes seront résolus, une piste ressortira. Mais, pour l’instant, il faut rester attentif et agnostique, en travaillant sur les deux en attendant de savoir de quoi le futur sera fait.
T. C. : Justement, parlons du futur, il y a de nouveaux projets de télescopes, est-ce que cela pourrait vous aider ?
F. C. : Oui, je peux d’abord vous parler du télescope spatial Euclid, qui va décupler les détections de lentilles gravitationnelles, permettant de dresser des cartographies de matière noire. Le télescope va observer presque tout le ciel, et notamment les galaxies de fond, lointaines. Leurs rayons lumineux sont déviés par la matière qu’il y a entre elles et nous. Ce sont ces déformations qui nous renseignent sur la quantité de matière noire. Les images des galaxies de fond sont déformées de manière faible. Cela ressemble à un cisaillement qui permet de déduire statistiquement les cartes de la matière invisible.
Comme chaque galaxie a sa propre forme, il faut observer un très grand nombre de galaxies, ce qui sera possible avec Euclid. On aura 12 milliards d’objets à des profondeurs différentes.
Par ailleurs, et toujours avec ce télescope, il sera possible d’observer les oscillations acoustiques baryoniques, des ondes sonores qui se sont propagées au tout début de l’Univers et qui ont laissé des empreintes dans les structures à grande échelle. Ces structures ont une taille caractéristique, correspondant au chemin parcouru par le son depuis le Big Bang. Lorsque la matière est devenue neutre et s’est découplée de la lumière, 380 000 ans après le Big Bang, la taille de ces structures est restée gelée, et n’augmente qu’avec l’expansion de l’Univers. Il suffit de mesurer cette taille caractéristique à diverses époques pour en déduire la loi de l’expansion de l’Univers. Celle-ci est en accélération aujourd’hui, mais sa loi d’évolution dans le passé n’est pas encore connue. Tous ces résultats seront obtenus vers 2030.
T. C. : Et le télescope James-Webb ?
F. C. : Le JWST nous a montré qu’il y avait beaucoup de galaxies primordiales massives. Il peut observer dans l’infrarouge et donc peut détecter de la lumière provenant de très loin. Ces galaxies se sont formées bien plus tôt que ce que l’on pensait. En plus, en leur centre se trouvent des trous noirs très massifs. Ceci est une surprise, car le scénario de formation attendu était un scénario très progressif. De petits trous noirs se formaient aux premières époques, qui fusionnaient pour former des trous noirs très massifs aujourd’hui ; le scénario est à revoir !
T. C. : Il y a également le projet SKA…
F. C. : Oui, ici l’observation va capter des ondes radio. SKA signifie Square Kilometre Array (un kilomètre carré de surface, en français) ; il est fait d’une multitude d’antennes en Afrique du Sud et en Australie. Ce sont les moyennes fréquences en Afrique du Sud et les basses fréquences en Australie. Comme Euclid, SKA va regarder tout le ciel, mais, puisque ce sont des longueurs d’onde très différentes, ce sont d’autres populations de galaxies qui seront observées. Il sera possible également de cartographier la matière noire. SKA est donc complémentaire à Euclid.
T. C. : Vous avez travaillé dans de nombreux pays, fait-on la même science partout ?
F. C. : Nous, les astrophysiciens, faisons la même science partout. L’astrophysique est une science mondialisée depuis très longtemps. L’observation du ciel a besoin de gros instruments, qui sont relativement très coûteux. Prenons l’exemple de l’ESO, qui a été fondé, vers 1960, avec l’objectif de construire un télescope dans l’hémisphère Sud. Auparavant, chaque pays avait son télescope localement, mais, pour construire de grands télescopes au Chili, il fallait unir ses forces. Ce qui a conduit à l’Observatoire européen austral ESO : un vrai projet européen. Et maintenant, avec SKA, il s’agit même d’un seul instrument pour le monde entier, y compris la Chine. Il n’y a plus la compétition entre pays. Avec le James-Webb et Euclid, on a également des collaborations entre États-Unis et Europe.
T. C. : Votre communauté a donc réussi la prouesse de collaborer mondialement, comment voyez-vous la suite avec l’arrivée de Donald Trump au pouvoir ?
F. C. : La politique de l’administration Trump est en train de faire des coupes drastiques dans les budgets scientifiques et de licencier jusqu’à 20 % des postes. Notre communauté n’est pas la plus affectée. À l’Académie des sciences, nous avons publié un communiqué de presse pour exprimer notre solidarité avec nos collègues, et, surtout, avec plusieurs secteurs en danger : la biologie et la santé, notamment, les recherches sur le changement climatique, l’environnement, la diversité, l’équité et l’inclusion. Des doctorants et postdoctorants ont été renvoyés du jour au lendemain et interdits d’accès à leurs ordinateurs. Il existe des mots interdits, dans la recherche et dans les publications.
Du côté de la NASA, les programmes supprimés sont ceux de la surveillance de la Terre, ce qui impacte fortement la capacité de prédire les événements climatiques, comme les ouragans et les cyclones, ou ceux qui étudient les pollutions. En ce qui concerne les programmes spatiaux, les craintes sont que tous les budgets soient focalisés sur l’envoi d’humains sur Mars, aux dépens de missions plus scientifiques.
Il faut également rappeler les difficultés du lancement du satellite Euclid, qui avait été prévu avec un lanceur Soyouz en Guyane. Après la guerre lancée par les Russes en Ukraine, tout a changé. Ariane n’ayant aucun créneau de libre avant des années, il a fallu se tourner vers SpaceX pour le lancement.
T. C. : Les grandes coopérations spatiales ne sont donc pas encore menacées, mais vous n’êtes pas rassurée pour autant pour la science en général ?
F. C. : Oui, lors du premier mandat de Donald Trump, les réactions des antisciences s’étaient déjà manifestées avec, notamment, la sortie de l’accord de Paris sur le climat. Maintenant, tout se passe encore plus vite, avec la menace de sortir de l’OMS, de supprimer l’Usaid, de démanteler des programmes entiers. Certains juges réagissent, car souvent ces actions ne sont pas légales, et tout peut être remis en question.
Nous sommes aussi très inquiets pour les NIH (National Institutes of Health), dont de nombreux scientifiques ont été licenciés ou encouragés à prendre leur retraite. En janvier, les chercheurs du NIH étaient interdits de publier et de voyager ! Des collègues biologistes nous ont expliqué avoir vu de jeunes chercheurs en postdoctorat se faire licencier du jour au lendemain par mail. Des personnes en train de travailler sur l’écriture d’un article scientifique et qui, d’un coup, n’avaient plus accès à leur ordinateur pour le terminer.
Il est possible que les chercheurs licenciés essaient de trouver des pays plus accueillants. La France fait des efforts, au niveau gouvernemental, pour offrir des postes à ces « réfugiés scientifiques », mais aussi universitaires. Une pétition a circulé pour demander à la Commission européenne de débloquer des fonds pour cet accueil.
T. C. : Avez-vous vu une réplique de vos homologues américains ?
F. C. : Il n’y a pas vraiment eu de levée de boucliers très forte encore, non. Peut-être que l’Académie américaine est très dépendante du gouvernement fédéral et ne peut pas réagir. Il y a aussi une certaine sidération, et de l’expectative en attendant de savoir si toutes ces menaces vont être mises à exécution. Il y a aussi une grande part de peur de représailles et de coupures ou de licenciements encore plus graves. Le 7 mars, les scientifiques se sont réunis pour une manifestation Stand Up for Science aux États-Unis, qui a été accompagnée en Europe dans beaucoup de pays.

Françoise Combes ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
15.04.2025 à 17:30
La guerre silencieuse des hackers éthiques
Texte intégral (1621 mots)

Les hackers éthiques se font embaucher par des entreprises ou des collectivités pour tester la résistance aux cyberattaques de leurs systèmes informatiques. Leur guerre silencieuse protège ceux et celles qui doivent protéger nos données.
Experts dans la lutte contre la cybercriminalité, les hackers éthiques travaillent à protéger et renforcer la sécurité informatique des entreprises et des États qui font appel à eux. Selon le site communautaire HackerOne, qui regroupe plus de 600 000 hackers éthiques à travers le monde, le premier dispositif qui a consisté à récompenser des hackers pour identifier les problèmes d’un programme informatique ou d’un système d’exploitation remonte à 1983 : on parle alors de bug bounty programme, ou « programme de prime aux bogues » en français.
Depuis lors, ces bug bounty programmes se sont multipliés. En 2020, les hackers éthiques de la plate-forme hackerone auraient résolu plus de 300 000 défaillances et vulnérabilités informatiques en échange de plus de 200 millions de dollars de primes, ou bounties.
En matière de sécurité et de défense, l’emploi de ruses, quelles qu’elles soient, ne se fait ni au grand jour ni avec grand bruit. Dans une étude pionnière sur ce thème, nous avons examiné ce qui constitue l’éthique silencieuse des hackers éthiques dans la guerre qu’ils et elles mènent aux cybercriminels.
De manière générale, les hackers éthiques se spécialisent dans les tests d’intrusion informatique auprès d’entreprises consentantes, afin d’en explorer les vulnérabilités et de proposer des actions correctrices le cas échéant.
Leur silence assure tout à la fois la transmission des connaissances (par imitation, seul devant l’écran), la formation et l’acquisition des compétences, mais aussi la socialisation au sein d’une communauté et d’un métier ainsi que la promotion de leur expérience et de leur réputation. Toutes ces dimensions sont concrètement liées et se répartissent en fait autour de trois moments : avant, pendant et après la mission de hacking éthique.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Avant la mission
Tout d’abord, les hackers éthiques doivent acquérir et développer les compétences techniques nécessaires pour devenir de véritables testeurs capables de détecter des vulnérabilités, plus globalement des failles de sécurité, à savoir des professionnels diplômés et légitimes. Or, leur formation commence souvent dès l’adolescence, de manière isolée, bien avant d’entrer dans l’enseignement supérieur. Par la suite, l’accès à une formation de hacker éthique est longtemps resté difficile en raison du faible nombre de l’offre en tant que telle. Cependant, ces formations ont considérablement crû récemment et gagné en visibilité en France et surtout aux États-Unis.
Lorsqu’une entreprise fait appel à des hackers éthiques, elle le fait sans trop de publicité. Les appels d’offres sont rares. Des plates-formes spécialisées américaines comme HackerOne mettent en relation des entreprises demandeuses et des hackers volontaires. Toutefois, les contrats ne sont pas rendus publics : ni sur les missions, ni sur le montant de la prime, ni sur les résultats…
Les termes du contrat relèvent par définition du secret professionnel : avant de procéder à un test d’intrusion, il est important d’obtenir le consentement des propriétaires du système sur ce qu’il est possible de faire ou de ne pas faire.
Pendant la mission
Lors des tests d’intrusion, les hackers éthiques ont accès à des informations sensibles ou confidentielles sur l’organisation (données informatiques mais aussi financières, logistiques… sans oublier les brevets) et sur ses employés (données fiscales, administratives, etc.). Le secret professionnel autour des informations collectées directement ou indirectement est essentiel.
De même, les vulnérabilités et les failles découvertes pendant la mission doivent toutes être signalées uniquement au commanditaire, sans les rendre publiques ou s’en servir par la suite.
Le hacking éthique n’a pas le même cadre juridique de pays à pays : les lois et les réglementations locales correspondent rarement, que ce soit en Europe ou au sein d’États fédéraux, par exemple en Inde ou aux États-Unis. Le cadre légal changeant oblige ainsi les hackers à la plus grande discrétion, à la demande et pour le bien de leur employeur.
Après la mission
À la fin d’une mission, les obligations des hackers éthiques ne s’arrêtent pas pour autant. Contractuellement, ils n’ont plus le droit de s’introduire dans le système de l’organisation cliente. En même temps, ils doivent effacer toute trace de leur passage et de leur activité et cesser toute forme de tests.
En outre, les hackers éthiques ne doivent divulguer ni ce qui a été vu (informations stratégiques, données privées, défaillances et vulnérabilités identifiées, etc.), ni ce qui a été fait, ni stocker les données collectées. Ils ne doivent pas non plus vendre ces données collectées. Le secret professionnel est de rigueur, autant que le maintien des relations avec chaque client est rendu nécessaire pour assurer le bon suivi des opérations réalisées.
La difficulté pour les hackers éthiques tient au fait de se prévaloir de leur expérience pour des missions à venir auprès de potentiels clients. Ceci doit être fait de manière modérée, à savoir en respectant les règles de confidentialité et sans être identifié à leur tour comme une cible par des concurrents potentiels, voire, surtout, par des hackers criminels.
On retrouve à chaque étape de la mission les règles de confidentialité ayant trait au secret professionnel. Concrètement, les hackers éthiques peuvent être soumis au secret professionnel par mission (en tant que prestataire pour un organisme public de santé par exemple) ou par fonction (en tant que fonctionnaire). Toutefois, pour le moment, ils ne sont pas soumis au secret professionnel en tant que profession.
À mesure de la numérisation grandissante des activités humaines et professionnelles, la cybersécurité phagocyte une grande partie des problématiques sécuritaires, qu’elles soient intérieures et extérieures, publiques et privées. Il ne s’agit plus de travailler à une synergie opérationnelle entre services au sein des organisations, mais plutôt à intégrer de manière systémique la menace cyber et sa prise en charge pour l’ensemble de l’organisation et ses parties prenantes (employés, clients, fournisseurs et société civile en général).
Le silence est l’élément fondamental de la formation (avant la mission), la socialisation (avant et pendant la mission) et la réputation (après la mission) des hackers éthiques. Ce silence transmet et enjoint, socialise et promeut, mais aussi protège ceux qui doivent protéger les données de tout un chacun.
Être hacker éthique constitue au final un engagement opérationnel mais aussi civique, voire politique, qui oblige les organisations publiques et privées à aligner davantage stratégie et éthique, au risque de se mettre en danger.

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
14.04.2025 à 17:34
Que sont les GPU, cette technologie à laquelle on doit l’essor des jeux vidéo et de l’IA ?
Texte intégral (1941 mots)
Les GPU ont permis l’explosion des jeux vidéos dans les années 1990 puis de l’IA depuis vingt ans. Ils permettent de faire certains calculs plus rapidement que les processeurs classiques.
Les progrès massifs dans le domaine de l’intelligence artificielle doivent beaucoup à un type de composant informatique, les GPU, pour graphical processing unit – à tel point que l’on considère aujourd’hui Nvidia, le plus grand concepteur de GPU au monde, comme un acteur clef du marché de l’IA avec l’une des capitalisation boursière la plus élevée de tous les temps. Revers de la médaille, ses actions en bourse ont dévissé quand une entreprise chinoise, DeepSeek, a annoncé pouvoir faire des calculs avec moins de GPU que ses concurrents.
Les GPU ont émergé dans les années 80, avant d’exploser avec le marché des jeux vidéo. Si on trouve aujourd’hui un GPU dans de nombreux ordinateurs personnels et surtout dans les consoles de jeux, il faut des dizaines de milliers de GPU pour faire tourner les plus gros systèmes d’IA dans des fermes de calculs dédiées.
Le marché des GPU est très concentré, tant au niveau de la conception, de la fabrication et de la fourniture (le nombre de GPU produits étant très largement inférieur à la demande), qu’au niveau de l’hébergement (ces fermes nécessitant une expertise rare). Ils sont donc devenu un enjeu géostratégique – avec des investissements en centaines de milliards aussi bien aux USA qu’en France, mais aussi un conflit commercial majeur entre les États-Unis et la Chine.
Qu’est-ce qu’un GPU ?
Les GPU existent depuis le début des années 80 ; mais leurs principes fondamentaux datent des années 60, quand les « processeurs vectoriels » ont émergé. Ceux-ci ont été conçus pour traiter de grands tableaux de données (un tableau à une dimension s’appelle un vecteur, d’où le nom de « processeurs vectoriels ») et appliquer sur chaque élément du tableau la même opération, par exemple additionner les éléments d’un tableau deux à deux.
La puissance des processeurs vectoriels réside dans le fait qu’ils sont capables d’appliquer en même temps une opération sur plusieurs éléments, alors que les processeurs classiques de votre ordinateur, également appelés « processeurs scalaires », n’appliquent les opérations que sur un seul élément à la fois. Pour additionner deux tableaux de 32 cases, un processeur vectoriel traitera les 32 éléments en une seule fois, alors qu’un processeur scalaire classique un seul élément à la fois. Le nombre d’éléments qu’un processeur vectoriel peut traiter en parallèle est variable d’une génération de processeurs à l’autre.
Ceci étant, les problèmes que doivent résoudre les ordinateurs consistent rarement à effectuer la même opération sur tous les éléments d’un grand tableau, en dehors de cas bien particuliers… dont les jeux vidéos, et une grande partie des systèmes d’IA justement !
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
GPU et jeux vidéos
Pour faire tourner un jeu vidéo moderne haut de gamme sur un ordinateur ou sur une console, il faut être capable d’afficher 60 images par seconde en haute résolution 4K. Une image 4K est un rectangle (une matrice) de 3840 pixels de haut par 2160 pixels de large. Pour chaque pixel, il faut 3 valeurs (rouge, vert et bleu) pour pouvoir représenter la palette de couleurs. Par conséquent, il faut calculer et mettre à jour 1 492 992 000 pixels par seconde. Pour faire tourner des jeux vidéo, les GPU ont donc repris les principes des processeurs vectoriels.
Dans le courant des années 1980 et 1990, la démocratisation de l’informatique et des jeux vidéos a fait exploser le marché des GPU. Avec leur démocratisation, leur coût a énormément baissé, à une époque où les gros ordinateurs (supercalculateurs) étaient très chers et complexes.
Par conséquent, les chercheurs ont cherché à détourner ces GPU conçu pour le jeu vidéo pour faire d’autres types d’opérations qui leur étaient utiles pour leur recherche. En effet, à performance égale, les GPU avaient (et ont toujours) un coût largement inférieur aux CPU.
À lire aussi : Prix Nobel de chimie 2024 : design des protéines et prédiction de leurs structures, deux facettes d’une même médaille
Un des premiers cas d’utilisation de ces GPU, en 2004, venait de la communauté d’algèbre linéaire, qui utilisait déjà du calcul vectoriel et a pu adapter ses méthodes à ce nouveau matériel. Il faut savoir que l’algèbre linéaire, qui est utilisée pour simplifier la résolution d’équations, est à la base de beaucoup de programmes simulant différents processus réels, depuis le Big Bang jusqu’à la météo ou aux infections de cellules par des virus.
Du jeu vidéo à l’IA
Nvidia a rapidement répondu aux besoins de la communauté académique en 2006. Puis, à partir de 2014, elle a aussi fourni des GPU, pour le développement de systèmes d’IA, notamment par les GAFAM.
Ainsi, après une longue période de réduction de budget pour l’intelligence artificielle, le potentiel de calcul des GPU a permis de rendre exploitables les approches de type apprentissage profond qui étaient bloquées depuis des années, qui se base sur des réseaux de neurones pour répondre à des tâches complexes. Pour implémenter ces approches, il faut pouvoir faire d’énormes quantités de calcul vectoriel sur de grands volumes de données.
Un réseau de neurones tel qu’utilisé par l’IA est une simplification extrême du fonctionnement d’un vrai réseau neuronal, mais il en reprend les grands principes. La représentation mathématique d’un réseau de neurones est faite sous la forme d’opérations sur des matrices et des vecteurs à grandes échelles. Plus le modèle est complexe, plus la taille des données stockées dans de grands tableaux est grande et plus le nombre d’opérations mathématiques est nombreux. C’est grâce à la collaboration entre communautés de l’IA et de l’algèbre linéaire que les capacités de calcul de l’IA ont explosé ces dernières années.
Vers la spécialisation des GPU pour l’IA
Devant l’explosion de l’utilisation dans le domaine de l’intelligence artificielle, les GPU évoluent de plus en plus vers des fonctionnalités spécialisées pour l’IA et moins pour le jeu vidéo. Par exemple, des opérations spéciales ont été introduites pour traiter des matrices et proposer des fonctions de plus haut niveau, comme les « transformers » utilisés dans les grands modèles de langage.
Mais le principal gain de calcul dans l’IA vient de la réduction de la précision des opérations mathématiques. Un ordinateur ne fait jamais un calcul exact sur des nombres à virgule : comme il stocke et calcule sur un nombre de bits prédéfini, avec une précision déterminée, il y a constamment des erreurs d’arrondi plus ou moins visibles et souvent suffisamment faibles pour être négligeables. Devant la quantité de calcul nécessaire au fonctionnement des systèmes d’IA, la précision a été grandement diminuée (par quatre ou plus) pour accélérer les calculs (par quatre ou plus). Les grands réseaux de neurones sont donc peu précis, mais, grâce à leur taille, ils peuvent répondre à des problèmes complexes.
Souveraineté et IA : le prisme des GPU
Derrière l’essor des systèmes d’IA et les GPU, il y a une guerre commerciale entre la Chine et les USA, les USA interdisant l’utilisation de leurs GPU haut de gamme par la Chine. En dehors de Nvidia, seuls AMD et Intel peuvent à la marge concevoir des GPU.
Mais Nvidia ne les produit pas elle-même : une entreprise taïwanaise, TSMC, est la seule à avoir la technologie et les usines pour graver les GPU sur du silicium, au niveau mondial. Pour pouvoir continuer à produire et à vendre des produits venant de sociétés américaines, TSMC s’est engagée à ne pas travailler avec la Chine. Comme Taïwan est par ailleurs menacée d’annexion par la Chine, on peut envisager un risque très important sur l’approvisionnement en GPU dans les années à venir.
Cela met aussi en avant le besoin de développer en Europe une souveraineté sur la conception et la production de processeurs classiques ou de GPU.
L’Union européenne travaille sur cette thématique depuis des années avec un investissement dans le hardware ou matériel ouvert, mais ne peut pas aujourd’hui rivaliser avec les USA ou la Chine. Si des usines de moyenne gamme existent en Allemagne et en France, la présence d’usine de production de processeurs haut de gamme n’est pas prévue.
Au-delà, des problématiques de souveraineté, il est nécessaire de se poser de la question de l’intérêt de consacrer une part de plus en plus importante de la production d’électricité aux technologies numériques. En effet, l’IA consomme énormément d’énergie et son utilisation provoque déjà des problèmes d’approvisionnement en électricité, mais aussi en eau (pour le refroidissement), voire de redémarrage d’usines à charbon, pour répondre aux besoins.

Jonathan Rouzaud-Cornabas a reçu des financements de l'ANR et Inria.
12.04.2025 à 16:55
Pour lutter contre la désinformation sur les réseaux, tirer des leçons de la régulation audiovisuelle
Texte intégral (2056 mots)
Les députés socialiste Thierry Sother et écologiste Jérémie Iordanoff tirent la sonnette d’alarme : l’outil principal de l’Union européenne pour lutter contre la désinformation sur les réseaux, le règlement sur les services numériques (DSA), est une « digue fragilisée ».
De la même façon, Viginum, le service de vigilance et protection contre les ingérences numériques étrangères, décrit la facilité avec laquelle l’algorithme de TikTok a pu être manipulé pour torpiller les élections roumaines et souligne que le même phénomène pourrait se produire en France, à travers TikTok ou d’autres grands réseaux.
La dérive désinformationnelle aujourd’hui observée sur les réseaux sociaux, et en particulier sur X, constitue un sérieux motif d’inquiétude, selon les députés Thierry Sother et Jérémie Iordanoff, qui appellent à mieux mobiliser les armes disponibles, voire à en créer de nouvelles. Le Brésil par exemple n’a pas hésité à interdire X sur son territoire jusqu’à ce que le réseau se conforme aux exigences d’un juge.
À la recherche de nouveaux outils réglementaires, la régulation de la radio et de la télévision, médias depuis longtemps confrontés au problème de désinformation, peut être une source d’inspiration.
Une telle approche nécessiterait d’être adaptée au fonctionnement des réseaux sociaux, en particulier en l’appliquant aux algorithmes de recommandation, qui sont à la source des bulles d’informations qui piègent les internautes.
Une asymétrie réglementaire entre réseaux sociaux et audiovisuel
Comme rappelé dans le rapport parlementaire, le règlement européen sur les services numériques (ou DSA) impose aux grands réseaux sociaux de déployer des outils pour enrayer la désinformation. Le DSA ne les oblige certes pas à vérifier chaque contenu posté par les utilisateurs, mais à mettre en place des mesures techniques appropriées pour réduire l’impact des contenus préjudiciables. Ceci représente une avancée majeure par rapport à la situation antérieure, en établissant un équilibre entre, d’un côté, la liberté d’expression sur les réseaux et, de l’autre, la protection des institutions et des citoyens européens contre des attaques perpétrées par l’intermédiaire de ces mêmes réseaux.
Au titre du DSA, la Commission européenne a entamé des procédures d’enquête et de sanction mais, selon les députés, les effets « tardent à se faire sentir et les investigations tendent à repousser l’action » : de fait, aucune sanction n’a été infligée à ce jour.
Ainsi que l’explique un récent rapport de l’Académie des technologies auquel les auteurs de cet article ont contribué, la désinformation est un phénomène ancien, que les règles de pluralisme ont su endiguer dans les médias audiovisuels, tout en préservant la liberté d’expression.
Dès lors, pourquoi ne pas appliquer ces mêmes règles aux grands réseaux sociaux ? Contrairement à ces derniers, les services audiovisuels sont strictement encadrés : selon le Conseil d’État, l’Arcom doit veiller à ce que les chaînes assurent une expression pluraliste des courants de pensée et d’opinion. Cette autorité a ainsi suspendu, en mars 2022 puis mars 2025, la diffusion de plusieurs chaînes de télévision russes, en raison de manquements manifestes à l’honnêteté de l’information.
Si TikTok était un service audiovisuel, il aurait sans doute déjà encouru de lourdes sanctions, voire des interdictions d’émettre. Pourquoi une telle différence de traitement ?
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Asymétrie de moins en moins justifiée
Trois principales raisons sont invoquées.
Tout d’abord, les réseaux sociaux ne choisissent pas les contenus postés par les utilisateurs, ils ne font que les héberger ; ils ne poussent pas un programme vers des téléspectateurs, les internautes venant chercher les contenus comme dans une bibliothèque. Aujourd’hui, ce motif de non-régulation semble beaucoup moins pertinent qu’au début des années 2000. En effet, les algorithmes de recommandation sélectionnent la plupart des contenus et les dirigent de manière ciblée vers les utilisateurs afin que ceux-ci restent connectés, avec, pour résultat, l’augmentation des recettes publicitaires des plateformes.
Ensuite, les réseaux sociaux n’exercent pas le même impact que la télévision. En 2013, la CEDH a ainsi rejeté l’idée que les réseaux sociaux auraient une influence équivalente à celle de la télévision, en estimant que
« les choix inhérents à l’utilisation d’Internet et des médias sociaux impliquent que les informations qui en sont issues n’ont pas la même simultanéité ni le même impact que celles qui sont diffusées à la télévision ou à la radio ».
Ce raisonnement, recevable au début des années 2010, ne l’est clairement plus aujourd’hui, alors que 53 % des jeunes de 15 à 30 ans s’informent principalement à travers les réseaux sociaux, l’incidence relative de la télévision s’étant significativement réduite.
Enfin, les canaux hertziens de la télévision constituent une ressource rare, propriété de l’État. Les chaînes qui exploitent ce spectre radioélectrique, ce qui n’est pas le cas des services numériques, doivent en retour respecter des obligations de service public, comme le pluralisme. Cet argument perd de sa force aujourd’hui, car l’évolution des marchés numériques a spontanément créé une rareté de choix pour les internautes, en plaçant quelques grandes plateformes en position oligopolistique de gate keepers dans l’accès à l’information.
Si la diversité des contenus disponibles en ligne est théoriquement quasi infinie, leur accessibilité effective est quant à elle régie par le petit nombre des algorithmes des plus grandes plateformes. Le pouvoir né de cette concentration sur le marché de l’accès à l’information justifie pleinement une régulation.
Vers des algorithmes pluralistes…
À l’évidence, la « matière » régulée ne serait pas les contenus postés sur les plateformes par les utilisateurs, mais l’algorithme de recommandation qui organise les flux et capte l’attention des visiteurs. Cet algorithme devrait être considéré comme un service de télévision et se voir imposer des règles de pluralisme, à savoir l’obligation de mettre en avant des informations impartiales et exactes et de promouvoir la diversité des opinions exprimées dans les commentaires.
Si l’idée d’un « algorithme pluraliste » apparaît séduisante, la complexité de sa mise en œuvre ne peut être ignorée. Considérons un individu qu’un algorithme a piégé à l’intérieur d’une bulle informationnelle et qui se trouve donc privé de pluralisme. S’il s’agissait d’un service de télévision, il conviendrait d’inclure dans le flux les points de vue de personnes en désaccord avec les contenus prioritairement mis en avant. Une approche difficile à appliquer à un algorithme, car elle exigerait que celui-ci soit capable d’identifier, en temps réel, les messages ou personnes à insérer dans le flux pour crever la bulle sans perdre l’attention de l’internaute.
Une approche alternative consisterait à accorder une priorité croissante à la diffusion d’informations issues de tiers de confiance (fact-checkers), au fur et à mesure que l’utilisateur s’enfonce dans un puits de désinformation. Ce dispositif s’approche de celui des community notes utilisé par X ; des chercheurs ont néanmoins montré qu’il n’est pas assez rapide pour être efficace.
Selon une troisième approche, les messages provenant de sources identifiées comme problématiques seraient coupés. Ce procédé radical a notamment été utilisé par Twitter en 2021, pour suspendre le compte de Donald Trump ; son emploi est problématique, car la coupure est une procédure extrême pouvant s’apparenter à la censure en l’absence d’une décision de justice.
Mesurer le degré d’artificialité, une approche qui fait ses preuves
Une dernière approche envisageable s’inspire des instruments multifactoriels utilisés par les banques dans la lutte contre le blanchiment de capitaux. Les contenus seraient marqués d’un score de risque de désinformation et les scores élevés « dépriorisés » dans le système de recommandation, tandis que seraient rehaussés les poids des informations issues de sources journalistiques plus fiables.
Le score de risque serait calculé à partir d’au moins deux critères : le degré d’artificialité dans la diffusion du message, indiquant la vraisemblance du recours à des bots ; et le degré d’artificialité dans la création du contenu, indiquant la vraisemblance d’une génération par l’IA. Un tel indicateur double est proposé par l’Académie des technologies dans son rapport. Des outils d’IA vertueux pourraient par ailleurs aider au calcul du score, ou encore à l’identification d’informations de confiance, permettant de contrer les messages litigieux.
Les plateformes objecteront qu’une obligation de pluralisme violerait la liberté d’expression. C’est en réalité tout le contraire : selon la Cour européenne des droits de l’homme, le pluralisme préserve la liberté d’expression et le débat démocratique, en prévenant la manipulation de l’opinion.
Le pluralisme a fait ses preuves dans l’audiovisuel, il est temps désormais de l’appliquer aux grands réseaux sociaux, même si les modalités techniques restent à définir.

Winston Maxwell fait partie du groupe de travail sur l'IA Générative et la mésinformation de l'Académie des Technologies. Il a reçu des financements de l'Agence nationale de Recherche (ANR).
Nicolas Curien est membre fondateur de l'Académie des technologies, où il a piloté en 2023-2024 le groupe de travail "IA générative et mésinformation". Il a été membre du Collège du CSA (devenu Arcom), de 2015 à 2021, et membre du Collège de l'Arcep, de 2005 à 2011.