11.04.2026 à 07:41
Clause MFN américaine ? Et si c’était un choc salutaire pour refonder le médicament en France…
Texte intégral (1597 mots)
Le président des États-Unis Donald Trump veut obliger les Européens à augmenter le prix des médicaments innovants. Derrière ce qui ressemble à une enième mesure protectionniste se trouve une mesure pour rééquilibrer des échanges asymétriques. Cela pourrait être l’occasion pour l’industrie pharmaceutique française de retrouver de la puissance.
Le 12 mai 2025, l’administration Trump signait un décret instaurant la clause de « Most-Favored-Nation » (dite clause MFN) pour la fixation des prix des médicaments aux États-Unis. Son principe est simple et brutal : les médicaments innovants commercialisés aux États-Unis auront le prix le plus bas pratiqué dans les pays de l’OCDE (pays dont le PIB par habitant atteint au moins 60 % de celui des États-Unis). La France, l’Allemagne, l’Italie et le Royaume-Uni correspondent notamment à cette définition.
Dans ce contexte, pour conserver leur capacité d’investissement dans le recherche-développement (R&D), les prix européens de ces médicaments innovants devront augmenter dans l’Union européenne (UE). D’où la pression de Donald Trump sur les pays membres.
Si la tentation d’y voir une gesticulation protectionniste trumpienne de plus est grande, ce serait probablement une erreur stratégique. Car ce signal américain agit aussi comme un révélateur des fragilités structurelles des laboratoires pharmaceutiques européens.
Pour la France, cette décision pourrait constituer une occasion historique de refonder son modèle pharmaceutique autour de ce qui fait sa force : un système de santé universel et solidaire capable de redevenir un pôle d’attraction mondial pour l’innovation thérapeutique.
Une offensive durable, pas un accident trumpien
Penser que cette offensive disparaîtra avec le mandat de Donald Trump serait une erreur. L’histoire récente invite plutôt à la prudence. Avant lui, Bill Clinton puis Barack Obama ont déjà tenté de réduire l’écart de prix des médicaments entre les deux rives de l’Atlantique. Ce qui change aujourd’hui, c’est la méthode mobilisée. Elle est directe, coercitive, dénuée d’ambiguïté diplomatique.
À lire aussi : Médicaments innovants : la France face à la guerre des prix lancée par Trump
Après la publication du décret MFN, 17 laboratoires ont reçu une lettre présidentielle leur imposant un alignement des prix américains sur le niveau plancher, dans un délai de 180 jours, sous peine de sanctions. En décembre 2025, neuf accords étaient annoncés, prévoyant une réduction de prix significative pour des médicaments traitant le diabète et plusieurs autres pathologies chroniques.
Avec 16 laboratoires partenaires
En février 2026, la plateforme TrumpRx était lancée avec 16 laboratoires partenaires, proposant une quarantaine de médicaments à prix fortement réduit ; certains avec des baisses allant jusqu’à 85 %. Les tarifs douaniers restent le principal levier utilisé : les médicaments de marque importés aux États-Unis sont taxés à hauteur de 100 %, sauf en cas de production locale. L’Union européenne bénéficie, pour l’instant, d’un taux réduit à 15 % depuis août 2025.
Les prix des médicaments aux États-Unis atteignent en moyenne 278 % des prix moyens de l’OCDE. Ce ratio grimpe à 422 % pour les médicaments sous brevet, mais chute à 67 % pour les génériques.
Ce paradoxe apparent reflète en réalité la cohérence d’un modèle : les innovations thérapeutiques représentent 86 % du marché pharmaceutique américain en valeur, tandis que les génériques, ultracompétitifs, pèsent 91 % en volume.
Deux excès, deux impasses
Le prix des innovations est peu régulé, fixé par la négociation entre laboratoires, assureurs privés et intermédiaires (notamment les Pharmacy Benefit Managers – des intermédiaires dans la chaîne du médicament, financés par les laboratoires (remises) et les assureurs (frais administratifs)). Cela laisse une grande latitude tarifaire aux industriels en situation de quasi-monopole. La loi du marché bénéfice à l’offre. Pour les génériques, marché par nature concurrentiel, la loi du marché bénéficie plutôt à la demande avec des prix bas.
Au fond, Donald Trump met en lumière une réalité dérangeante : la R&D pharmaceutique mondiale est largement financée par les patients états-uniens, tandis que les Européens bénéficient de prix régulés. Ce modèle américain est économiquement puissant mais socialement intenable dans un cadre universel. L’Europe, en voulant trop encadrer, a sous-valorisé l’innovation. Les États-Unis, en laissant le marché maître du jeu, ont exclu des millions de patients de l’accès aux soins.
En France, une excellence scientifique largement sous-exploitée
Malgré son excellence académique et la qualité de ses ressources en R&D, la France est en troisième position dans les essais cliniques et en dixième position pour les publications scientifiques au sein d’une Europe, loin derrière les États-Unis et l’Asie. La France et l’UE sont en voie de dépendance accrue vis-à-vis des deux autres continents en ce qui concerne l’innovation thérapeutique.
La France possède les prix parmi les plus bas d’Europe aussi bien pour les médicaments sous brevet que pour les génériques, et la fiscalité la plus élevée sur le secteur pharmaceutique. Les patients français ont accès à seulement 60 % des médicaments innovants, contre 90 % en Allemagne. Cela signifie que 40 % des médicaments innovants (sur le marché depuis 2020) ne sont pas accessibles en France.
La France perd un peu plus chaque année de sa compétitivité pour les essais cliniques et le lancement de produits. La souveraineté pharmaceutique française devient illusoire dans ce contexte, sans réformes.
Refonder notre modèle pharmaceutique
La France possède tous les atouts pour inverser cette trajectoire à condition de refonder son modèle pharmaceutique. D’abord, la création d’un statut du médicament innovant permettrait de différencier les innovations des médicaments courants. Un financement des produits innovants par des fonds consacrés à l’innovation thérapeutique, des délais accélérés d’accès au marché et une valorisation assumée, tout en conservant le principe du remboursement universel, sont des leviers accessibles et rapides pour que la France redevienne un pôle d’attraction des innovations thérapeutiques.
Ensuite, libérer le marché des génériques et des biosimilaires. La régulation actuelle surencadre un marché qui gagnerait à fonctionner davantage par la concurrence. Élargir ce marché, réduire les freins administratifs à l’entrée et permettre une véritable compétition par les prix libérerait des ressources considérables, réallouables vers le financement des innovations.
Prendre en compte l’impact sur les territoires
L’impact économique à cinq ans d’un laboratoire sur les territoires – emplois, R&D locale, production – devrait peser dans la régulation de ses produits, selon des règles claires et prévisibles. Cela transformerait la France en partenaire stratégique et attractif, plutôt qu’en simple marché captif.
Forte de cette réforme, la France pourrait porter une vision réformatrice à l’échelle européenne. L’Union européenne doit devenir une puissance mondiale d’évaluation de la valeur thérapeutique, d’investissement massif en R&D – comme le préconise le rapport Draghi – et de négociation collective face aux laboratoires.
L’offensive trumpienne sur les prix des médicaments n’est pas une menace à subir. C’est un électrochoc. Une occasion pour repenser en profondeur notre modèle pharmaceutique, en assumant que l’accès universel aux soins et l’attractivité pour l’innovation ne sont pas des objectifs contradictoires, ils sont les deux piliers d’une même souveraineté sanitaire.
Frédéric Bizard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
11.04.2026 à 07:41
Pourquoi continuer d’apprendre certaines choses par cœur ?
Texte intégral (1380 mots)
À une époque où le savoir est à portée de clic, pourquoi demander aux enfants d’apprendre encore certains cours et certaines notions par cœur ? En quoi est-ce formateur ? Dans quelle mesure cela peut-il encore les aider à appréhender le monde qui les entoure ?
Avec les intelligences artificielles génératives, il est désormais possible d’obtenir en quelques secondes une réponse argumentée à presque n’importe quelle question. Cette accessibilité inédite du savoir conduit certains à considérer que l’« intelligence » elle-même serait désormais disponible à la demande, au point de rendre les études superflues. Dans ce contexte, pourquoi continuer à apprendre certaines choses par cœur ?
Mémoire et technologies : un questionnement ancien
La question n’est pas nouvelle. Dans le Phèdre, Platon rapporte le mythe de Theuth, dieu inventeur de l’écriture, qui promet au roi égyptien Thamous d’améliorer la mémoire des hommes. Celui-ci lui répond au contraire que l’écriture risque de produire l’oubli, en donnant l’illusion du savoir sans en assurer la possession réelle. À chaque grande transformation technique – de l’écriture à l’imprimerie, jusqu’aux technologies numériques – la même inquiétude resurgit : allons-nous perdre la mémoire en déléguant nos connaissances à des supports extérieurs ?
Mais ces transformations ne se résument pas à une perte. Elles modifient en profondeur notre manière de penser, en nous permettant d’étendre et de redistribuer nos capacités cognitives dans notre environnement. Comme l’ont montré des auteurs tels que André Leroi-Gourhan ou Bernard Stiegler, les techniques ne se contentent pas de prolonger l’action humaine : elles participent à la constitution même de nos capacités cognitives.
Livres, ordinateurs, moteurs de recherche ou intelligences artificielles ne sont pas de simples outils : ils participent à des formes de cognition distribuée, que Katherine Hayles a décrites comme des « assemblages cognitifs ».
Dès lors, la question n’est peut-être plus de savoir s’il faut encore apprendre par cœur, mais plutôt : quelles connaissances doivent rester en nous pour que la compréhension reste possible dans un monde où l’information est partout accessible ? Cette question concerne directement les élèves, les étudiants et leurs enseignants, confrontés à la place croissante des outils numériques dans les apprentissages.
Apprendre « par cœur » ne désigne pas ici une simple répétition mécanique, mais l’intégration de connaissances suffisamment stabilisées pour être mobilisées dans la compréhension.
Qu’est-il encore nécessaire d’apprendre ?
On pourrait penser que l’accès généralisé à l’information rend inutile l’apprentissage par cœur. Pourquoi mémoriser ce que l’on peut retrouver en quelques secondes ? Cette idée repose pourtant sur une confusion : disposer d’une information ne signifie pas la comprendre. Comme l’ont montré les travaux de Naomi Baron sur la lecture et les environnements numériques, l’accès facilité aux contenus ne garantit ni leur appropriation ni leur intégration dans un cadre de connaissances structuré.
À lire aussi : Déléguer la lecture à l’IA : quels savoirs et plaisirs sacrifions-nous ?
Pour interpréter une information, il faut déjà disposer de repères, de concepts, de connaissances préalables. Ces connaissances permettent de construire une représentation cohérente de ce que l’on lit ou entend, en reliant les informations entre elles et à des expériences passées. Sans ces structures internes, les informations externes restent inertes, voire trompeuses. Elles peuvent aussi être mal interprétées ou prises pour fiables sans être correctement évaluées, qu’il s’agisse de contenus en ligne ou de réponses générées par des intelligences artificielles.
La mémoire ne sert pas seulement à stocker des données, mais à organiser le savoir et à lui donner sens. Elle permet également d’anticiper, de comparer, de relier des informations entre elles et d’élaborer des raisonnements. Accéder à une réponse ne garantit ni son interprétation correcte ni sa mise en relation avec d’autres connaissances. Un étudiant peut ainsi obtenir une explication juste d’un phénomène scientifique sans pour autant en saisir les enjeux, faute de maîtriser les concepts nécessaires pour l’intégrer dans un ensemble cohérent.
Cela conduit à distinguer plusieurs types de connaissances. Certaines peuvent être largement externalisées : des faits isolés, des dates, des informations ponctuelles. D’autres, en revanche, doivent être internalisées. C’est le cas des concepts fondamentaux, du vocabulaire – notamment disciplinaire –, des grandes structures explicatives – qui permettent d’organiser et de relier les connaissances entre elles –, ainsi que des procédures automatisées comme le décodage en lecture ou le calcul. Ces connaissances ont en commun de structurer la compréhension plutôt que d’ajouter simplement des informations. Elles ne sont pas simplement utiles : elles sont nécessaires pour comprendre, raisonner et apprendre.
Le vocabulaire d’une discipline, par exemple, ne sert pas seulement à nommer des objets : il permet de structurer la pensée et d’accéder à des distinctions conceptuelles. De même, les automatismes comme le décodage en lecture ou le calcul libèrent des ressources cognitives indispensables à des raisonnements plus complexes.
Des connaissances pour penser avec les outils
Il serait illusoire, dans ce contexte, de chercher à se passer des outils dont nous disposons, tant ils font partie intégrante de nos activités cognitives. Les technologies numériques et l’intelligence artificielle ne remplacent pas ces connaissances internes : elles les prolongent. Elles s’intègrent à ce que l’on peut appeler des assemblages cognitifs, dans lesquels la pensée se distribue entre le cerveau, les outils, les interactions avec autrui et l’environnement, et où l’accès à l’information s’articule en permanence avec les connaissances déjà présentes en mémoire.
Mais pour que ces assemblages fonctionnent, encore faut-il qu’il y ait quelque chose à assembler : une base de connaissances et de structures internes permettant d’interpréter, de sélectionner et d’organiser l’information. Dans ces assemblages, consulter un moteur de recherche, interroger une intelligence artificielle ou relire un document ne sont pas des opérations extérieures à la pensée, mais des prolongements de celle-ci.
Dès lors, la question n’est plus de savoir s’il faut apprendre par cœur ou non, mais de déterminer ce qui doit être appris pour que l’accès au savoir reste possible. Les institutions éducatives, à travers des dispositifs comme le socle commun de connaissances et de compétences, tentent d’apporter des réponses à cette question. Mais à l’ère de l’intelligence artificielle, cette question mérite d’être reposée.
Cela suppose de repenser non seulement ce que l’on apprend, mais aussi les critères qui guident ces choix. Apprendre par cœur ne disparaît pas : il change de fonction. Il ne s’agit plus d’accumuler des informations, mais de construire les structures qui rendent le monde intelligible.
Frédéric Bernard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.