20.05.2025 à 12:55
Justin Stebbing, Professor of Biomedical Sciences, Anglia Ruskin University
Une étude menée sur des souris a établi un lien entre la consommation d’acide linoléique, un acide gras présent dans de nombreuses huiles de cuisine et le cancer du sein agressif. Quelles en sont les implications ?
Les scientifiques ont collecté de nombreuses preuves démontrant que notre alimentation et les aliments que nous consommons peuvent influer sur l’évolution de certains cancers. Les recherches ont aussi mis en évidence les effets préventifs ou aggravants de certains régimes alimentaires sur le risque de développer cette pathologie complexe, ou sur sa progression.
Les scientifiques s’intéressent tout particulièrement à la manière dont ces effets se manifestent. Ils tentent notamment de décrypter les mécanismes cellulaires et moléculaires qui sous-tendent les corrélations observées entre comportements et maladie. Mieux comprendre ces processus permettrait en effet d’affiner les recommandations nutritionnelles et de mieux appréhender la cancérogenèse, dans une optique de prévention.
De tels travaux ont récemment mis en évidence chez des souris de laboratoire un lien entre l’acide linoléique – un acide gras présent dans diverses huiles de cuisson – et une forme agressive de cancer du sein. Ces résultats ont relancé le débat sur les choix alimentaires et le risque de développer des cancers. Bien que significatifs, ils doivent cependant être interprétés avec rigueur, afin d’éviter les inquiétudes injustifiées tout en fournissant des repères utiles aux non spécialistes. Voici ce qu’il faut en retenir.
L’acide linoléique est un acide gras oméga-6 que l’on retrouve en abondance dans les huiles de soja, de tournesol et de maïs. Les chercheurs du Weill Cornell Medicine, à New York, ont montré que cette molécule peut activer directement une voie de signalisation qui favorise la prolifération des cellules cancéreuses dans les cancers du sein dits « triple négatifs » – un sous-type particulièrement agressif et pour lequel les options thérapeutiques sont rares. Ce type de cancer concerne un grand nombre de patientes, car il représente environ 15 % des cas de cancer du sein.
Au niveau moléculaire, les chercheurs ont observé que l’acide linoléique se lie à une protéine appelée FABP5 (fatty acid-binding protein 5), fortement exprimée dans ces cellules tumorales. Cette liaison déclenche l’activation de la voie mTORC1, un régulateur central de la croissance cellulaire et du métabolisme, ce qui favorise la progression tumorale dans des modèles précliniques, y compris chez l’animal. Mes travaux actuels portent d’ailleurs sur cette même voie dans divers types de cellules normales et cancéreuses.
Dans cette étude, des souris ayant reçu un régime riche en acide linoléique ont développé des tumeurs plus volumineuses que les souris du groupe témoin, suggérant que l’alimentation pourrait accentuer la croissance de ce type de cancer. Chez l’être humain, des taux élevés d’acide linoléique et de FABP5 ont également été mesurés dans le sang de patientes atteintes de cancer du sein triple négatif, ce qui renforce la plausibilité biologique de cette relation. Le Dr John Blenis, auteur principal de l’étude, a déclaré à propos de ces résultats :
Cette découverte éclaire les interactions entre graisses alimentaires et cancer, et permet de mieux cibler les patientes susceptibles de tirer profit de recommandations nutritionnelles personnalisées.
Il est par ailleurs possible que ces implications dépassent le seul cadre du cancer du sein triple négatif, et concernent également d’autres tumeurs, comme celles de la prostate.
L’acide linoléique est un acide gras essentiel, ce qui signifie qu’il doit impérativement être apporté par l’alimentation. Il joue un rôle clé dans la santé de la peau, la structure des membranes cellulaires et la régulation de l’inflammation. Toutefois, les régimes modernes – riches en aliments transformés, ultra-transformés et en huiles de graines – fournissent souvent des quantités excessives d’oméga-6, dont l’acide linoléique, au détriment des oméga-3, présents notamment dans le poisson, les graines de lin ou les noix.
Ce déséquilibre pourrait favoriser l’inflammation chronique, un processus bien connu pour son rôle dans le développement de cancers et d’autres pathologies.
L’étude dont il est question ici suggère que l’acide linoléique pourrait, dans certains contextes, stimuler directement la croissance tumorale. Cette hypothèse vient remettre en question les conclusions des études épidémiologiques antérieures, lesquelles n’avaient pas identifié de lien clair entre acide linoléique alimentaire et risque global de cancer du sein. Ainsi, une méta-analyse publiée en 2023, rassemblant 14 études et plus de 350 000 femmes, avait conclu à l’absence d’effet significatif de l’acide linoléique sur le risque de cancer du sein dans la population générale.
Une étude avait même suggéré que l’acide linoléique pourrait plutôt avoir un effet protecteur contre le cancer du sein, preuve qu’il est essentiel de replacer chaque résultat dans son contexte. Ces divergences soulignent non seulement l’importance d’analyser chaque sous-type de cancer séparément, mais aussi de prendre en compte certains facteurs individuels comme l’expression de FABP5 dans les cellules tumorales.
Certains titres de presse tendent parfois à simplifier à l’excès les résultats scientifiques. Cette nouvelle étude met effectivement en évidence un mécanisme plausible par lequel l’acide linoléique pourrait favoriser la croissance tumorale. Cependant, elle ne démontre en aucun cas que les huiles de cuisson « provoquent » le cancer du sein – tant s’en faut. Des facteurs tels que la génétique, le régime alimentaire dans son ensemble ou encore les expositions environnementales (à certaines substances ou stress en lien avec le mode de vie, ndlr) jouent également un rôle majeur.
Ces résultats ne justifient donc pas une exclusion systématique des huiles végétales, mais invitent à la modération, en particulier chez les personnes à risque élevé. Certaines huiles, comme l’huile d’olive, contiennent moins d’acide linoléique et davantage de graisses mono-insaturées ou saturées, plus stables à haute température.
Il est aussi recommandé d’augmenter sa consommation de fruits et légumes dans le cadre d’une alimentation variée et équilibrée. Une analyse récente des habitudes alimentaires sur trois décennies a montré qu’un régime riche en fruits, légumes, céréales complètes, oléagineux et produits laitiers allégés était associé à une plus grande probabilité de vieillir en bonne santé. L’équipe de l’Université de Harvard qui a mené ces travaux a suivi plus de 100 000 personnes entre 1986 et 2016. Moins de 10 % d’entre elles ont atteint les critères d’un vieillissement optimal, défini comme l’absence de 11 maladies chroniques majeures et le maintien de fonctions cognitives, physiques et mentales intactes à 70 ans.
Les recommandations d’organisations telles que le World Cancer Research Fund (un organisme de bienfaisance britannique œuvrant à la prévention du cancer) insistent sur le fait qu’une consommation modérée d’huiles végétales est sans danger, et que l’obésité, bien plus que la nature des graisses alimentaires consommées, demeure le principal facteur de risque de cancer lié à l’alimentation.
En définitive, ces nouveaux travaux mettent en lumière la nécessité de contextualiser les effets des lipides en matière de recherche en cancérologie. Les résultats obtenus constituent une avancée significative, car ils apportent des précisions sur le rôle joué par l’acide linoléique dans le cancer du sein triple négatif. Mais il ne s’agit que d’une pièce de plus au sein d’un puzzle complexe. Adopter une alimentation équilibrée, à base de produits non transformés, demeure l’un des piliers majeurs en matière de prévention du cancer. Un levier qui est à la portée de tous…
Justin Stebbing ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
20.05.2025 à 12:48
Catherine Llanes, Professeur en microbiologie, Université Marie et Louis Pasteur (UMLP)
Inhalées, ingérées, appliquées sur la peau… Les huiles essentielles agrémentent le quotidien de nombreuses personnes. Pourtant, ces substances ne sont pas anodines. Des travaux récents démontrent notamment que certaines d’entre elles peuvent interférer avec l’usage des antibiotiques.
La résistance des bactéries aux antibiotiques, ou antibiorésistance, est un sujet d’inquiétude majeur, au point que l’Organisation mondiale de la santé (OMS) a adopté un plan d’action mondial pour combattre ce fléau,
Mais la mise au point de nouveaux antibiotiques destinés à remplacer ceux devenus inefficaces n’est pas si simple, pour plusieurs raisons, toujours selon l’OMS : manque d’investissements privés, innovation en berne, produits en développement n’apportant pas suffisamment d’avantages par rapport aux antibiotiques existants, développement trop rapide de résistances bactériennes…
Dans un tel contexte, on constate un intérêt pour l’exploration de certains traitements traditionnels basés sur des substances perçues comme « naturelles », non seulement de la part de la communauté scientifique, mais aussi du personnel soignant et de la population générale.
Les huiles essentielles retiennent notamment l’attention, car un certain nombre d’entre elles sont dotées de propriétés antimicrobiennes. Un constat qui fait s’interroger sur la possibilité de les utiliser seules ou en association avec des antibiotiques.
Toutefois, comme souvent, la réalité est complexe et, au-delà de la question de leur efficacité réelle, certaines d’entre elles peuvent interférer avec l’usage des antibiotiques, comme l’ont montré nos travaux menés sur la bactérie pathogène Pseudomonas aeruginosa. Explications.
Selon une revue de la littérature scientifique publiée en 2019, sur les quelques 250 huiles aujourd’hui commercialisées, une douzaine (lavande, thym, cannelle, arbre à thé, menthe, eucalyptus, sauge, clou de girofle, cajeput…) présente des propriétés antimicrobiennes intéressantes, qu’elles soient antifongiques, antivirales ou antibactériennes.
Soulignons que ces huiles n’ont pas toutes la même efficacité et qu’elles ne sont pas actives sur les mêmes microorganismes. Par exemple, les bactéries à Gram positif semblent plus sensibles aux huiles essentielles que les bactéries à Gram négatif, décrites par l’OMS comme étant les plus hautement résistantes. Enfin, même si l’activité antimicrobienne des huiles essentielles est scientifiquement établie, leur effet est plus modeste que celui des antibiotiques, et les concentrations utilisées doivent être très supérieures.
Parmi les bactéries à Gram négatif les plus problématiques figure, à l’heure actuelle, Pseudomonas aeruginosa, qui est en quelque sorte l’archétype des bactéries résistantes pointées par l’OMS.
Grâce à un génome particulièrement grand, P. aeruginosa est capable d’adapter son métabolisme à de nombreux environnements, une caractéristique qui lui permet de coloniser des milieux très variés voire hostiles. On la trouve ainsi fréquemment dans les sites humides anthropisés, tels que les siphons d’éviers, les canalisations ou même les piscines.
À partir de ces réservoirs, cette bactérie colonise l’être humain et peut provoquer des infections aiguës ou chroniques chez les personnes présentant des prédispositions : patients immunodéprimés, dénutris, atteints de cancer, brûlés, polyopérés, polytransfusés, intubés-ventilés…
P. aeruginosa est non seulement responsable d’infections associées aux soins, mais aussi d’infections pulmonaires chroniques chez les patients atteints de mucoviscidose ; elle y trouve en effet un terrain propice à son développement, entraînant le déclin de leur fonction respiratoire et réduisant leur espérance de vie.
Actuellement, la seule stratégie pour traiter les infections à P. aeruginosa consiste en la prise d’antibiotiques incluant un petit nombre de molécules souvent anciennes (aminosides, β-lactamines, fluoroquinolones et polymyxines). Malgré l’efficacité clinique prouvée de ces traitements et le développement récent de nouvelles molécules, l’antibiothérapie peut être mise à mal en raison de l’émergence de mutants résistants.
P. aeruginosa dispose en effet de nombreux mécanismes de résistance : la production d’enzymes inactivatrices d’antibiotiques ou la modification de la cible des antibiotiques (qui empêchent leur fonctionnement), la diminution de la perméabilité membranaire (qui limite l’entrée des antibiotiques dans la bactérie), ou la surproduction de systèmes d’efflux (qui permettent à la bactérie de rejeter les antibiotiques dans le milieu extérieur).
En plus de ces mécanismes intrinsèques, les bactéries peuvent développer des résistances supplémentaires, soit par l’acquisition d’ADN provenant d’autres bactéries, soit par mutation.
En raison de ces résistances, P. aeruginosa est considéré aujourd’hui comme un pathogène opportuniste redoutable, et la recherche d’alternatives thérapeutiques aux antibiotiques conventionnels est encouragée dans les programmes de recherche.
Selon plusieurs enquêtes menées entre 2019 et 2023, au moins un quart des patients atteints de mucoviscidose déclarent consommer des huiles essentielles, afin d’améliorer leurs conditions de vie, souvent en parallèle à leur traitement antibiotique.
Dans ce contexte, il est donc particulièrement important de comprendre comment interagissent antibiotiques et huiles essentielles. Il s’agit notamment de détecter d’éventuelles synergies, qui pourraient améliorer l’efficacité des traitements pris par les patients ; ou, à l’inverse, de mettre en évidence des antagonismes qui la diminuerait.
C’est, malheureusement, ce second type d’interactions qu’ont révélé les récents travaux menés dans notre laboratoire (thèse de doctorat, Alexandre Tetard). En étudiant les effets de l’huile essentielle de cannelle et, plus particulièrement, de son composé majoritaire le cinnamaldéhyde, sur P. aeruginosa, nous avons constaté que cette substance induisait l’expression de quatre pompes d’efflux différentes chez cette bactérie.
Comme leur nom l’indique, ces structures situées dans la membrane bactérienne agissent comme de minuscules pompes : elles permettent d’évacuer certains composés toxiques, dont les antibiotiques. Une capacité qui rend P. aeruguinosa résistante à quasiment tous ceux actuellement utilisés…
Ce système de défense fonctionne de la façon suivante : les bactéries sont équipées de différents « capteurs » capables de détecter la nature des stress provoqués par les huiles essentielles et d’orchestrer la mise en place de la réponse physiologique la plus adaptée. P. aeruginosa, par exemple, est équipée de deux capteurs capables de détecter l’extrait de cannelle, comme l’a démontré Éline Dubois au cours de sa thèse de doctorat.
Une fois activés, ils induisent la production d’une ou de plusieurs pompes d’efflux capables de rejeter dans le milieu extérieur, non seulement, les composés toxiques contenus dans l’huile essentielle, mais aussi certains antibiotiques, s’ils sont utilisés en même temps.
Ce type de mécanisme n’est pas limité à l’huile essentielle de cannelle. Nos travaux menés sur le citral, un composé majoritaire présent dans l’huile essentielle de citronnelle, ont révélé que cette substance induisait l’activité de deux systèmes d’efflux différents, augmentant la résistance de P. aeruginosa à deux grandes familles d’antibiotiques.
Certains composés contenus dans les huiles essentielles peuvent donc induire différents mécanismes de défense chez les bactéries, dont certains s’avèrent être une source de résistance aux antibiotiques.
Par ailleurs, des recherches menées avec les chimistes Gaëtan Mislin et Jean-Michel Brunel, des universités de Strasbourg et d’Aix-Marseille, ont aussi montré que certains composés naturels comme le citral forment des liaisons irréversibles avec les antibiotiques, ce qui les inactive totalement.
Nos travaux indiquent que tous les mécanismes développés par P. aeruginosa pour résister à l’activité des huiles essentielles ne sont que transitoires. La véritable stratégie mise en place par la bactérie pour résister à long terme à ces composés naturels qu’elle a l’habitude de côtoyer dans la nature n’est pas de les rejeter à l’extérieur, mais plutôt de les transformer chimiquement en molécules non toxiques (on parle de « métabolisation »).
Cette transformation chimique est rapide : ces composés disparaissent après quelques heures de contact avec les bactéries, ce qui permet à ces dernières de reprendre leur multiplication.
Ce constat nous encourage à développer, en collaboration avec les phytochimistes, Corine Girard, Marc Pudlo et François Sénejoux de l’Université Marie-et-Louis-Pasteur, des dérivés de composés naturels impossibles à métaboliser par les bactéries ; avec l’espoir qu’ils gardent une activité antibactérienne à plus long terme.
Pour conclure, soulignons que l’objectif de ces travaux n’est pas de déconseiller l’usage thérapeutique des huiles essentielles, car ces molécules naturelles peuvent) [montrer une activité intéressante] en application locale, par voie orale ou par inhalation.
De plus, même si leur efficacité est 100 à 1 000 fois moindre que celle des antibiotiques, elles présentent, contrairement à ces derniers, l’avantage de ne pas sélectionner de mutants résistants.
L’identification les huiles essentielles dont l’action peut se révéler antagoniste à celle des antibiotiques doit donc être poursuivie et communiquée aux patients, aux associations de malades telles que Vaincre la Mucoviscidose (qui soutient nos recherches), mais aussi au personnel soignant, dans la mesure où elle permet d’éviter des associations malheureuses.
Catherine LLANES a reçu des financements de l'association Vaincre la Mucoviscidose, l'association Gregory Lemarchal, la région Bourgogne-Franche-Comté, le Ministère français de lʼEnseignement supérieur, de la Recherche et de lʼInnovation.
20.05.2025 à 12:48
M. Paloma Reche Sainz, Profesora de Microbiología de la Facultad de Farmacia, Universidad CEU San Pablo, Universidad CEU San Pablo
Rubén Agudo Torres, Profesor Colaborador Doctor. Departamento de Química y Bioquímica, área de Bioquímica y Biología Molecular, Universidad CEU San Pablo
Sergio Rius Rocabert, Profesor colaborador doctor en microbiología. Virólogo e inmunólogo., Universidad CEU San Pablo
L’analyse d’échantillons retrouvés notamment dans le permafrost montre que certaines souches de bactéries avaient développé des mécanismes de résistance bien avant la découverte et l’introduction des antibiotiques en clinique. Cela pourrait se révéler précieux pour lutter contre les phénomènes de résistances aux antibiotiques préoccupants que nous connaissons aujourd’hui.
Les antibiotiques sont considérés comme l’une des avancées les plus importantes de l’histoire de la médecine. Leur introduction en clinique dans les années 1940 a marqué un tournant dans la lutte contre les maladies infectieuses, amélioré la santé humaine et prolongé l’espérance de vie.
Aujourd’hui, paradoxalement, l’impact de la résistance bactérienne aux antibiotiques est devenu une menace mondiale et un défi majeur pour la médecine.
Leur utilisation abusive, qui est souvent incriminée en médecine humaine, vétérinaire et dans l’agriculture, a créé des conditions favorables à la sélection de bactéries résistantes.
Cependant, ce phénomène est plus ancien qu’on ne le pensait. Les bactéries possédaient des mécanismes de résistance bien avant la découverte et l’introduction des antibiotiques en clinique. Cela indique que la résistance aux antibiotiques est un phénomène évolutif ancien beaucoup plus complexe, répandu et profondément enraciné qu’on ne le pensait au départ.
Les données scientifiques appuient cette affirmation avec des études qui ont documenté les mécanismes de résistance aux antibiotiques dans les microorganismes retrouvés dans des habitats naturels où l’influence de l’humain est minime ou inexistante. Ces environnements comprennent les couches souterraines profondes, le fond des océans et les environnements anciens tels que les grottes isolées et le permafrost.
Il est intéressant de noter que de nombreux mécanismes de résistance décrits dans ces environnements vierges – dont l’origine remonte à des milliers ou des millions d’années – sont proches voire identiques à ceux observés chez les bactéries pathogènes actuelles. Cela suggère que la conservation et la transmission des mécanismes de résistance au cours de l’évolution constituent un avantage sélectif.
En particulier, les gènes de résistance retrouvés dans des échantillons de permafrost datant d’il y a 30 000 ans présentent une similitude frappante avec ceux que l’on trouve aujourd’hui. Il s’agit de résistances aussi courantes en clinique que celles observées contre les antibiotiques de la famille des bêta-lactamines (comme les pénicillines-céphalosporines, ndlr), les tétracyclines et la vancomycine.
Chaque mardi, le plein d’infos santé : nutrition, bien-être, nouveaux traitements… Abonnez-vous gratuitement dès aujourd’hui.
Des souches de staphylocoques résistantes aux antibiotiques aminoglycosides et bêta-lactamines ont également été isolées à partir d’échantillons de permafrost datant d’il y a 3,5 millions d’années.
Il existe des exemples qui remontent encore plus loin dans le temps. La grotte de Lechuguilla (Nouveau-Mexique, États-Unis) est un environnement considéré comme isolé depuis 4 millions d’années. Malgré cela, une étude a trouvé des bactéries du genre Streptomyces et Paenibacillus résistantes à la plupart des antibiotiques utilisés en clinique aujourd’hui.
« Le Staphylococcus aureus résistant à la méthicilline » est le nom générique d’une bactérie multirésistante qui provoque des infections graves. Un travail de recherche a montré que certaines souches étaient résistantes bien avant l’utilisation de ce groupe d’antibiotiques : leur adaptation aux hérissons infectés par des champignons similaires qui produisent des antibiotiques leur a donné un avantage en termes de survie.
Les résultats de la recherche révèlent que la compétition pour les ressources et l’adaptation à différents habitats ont été des facteurs clés dans l’évolution de la résistance aux antibiotiques.
Dans les environnements qui ont précédé le développement des médicaments, les antibiotiques naturels jouaient un rôle écologique en inhibant la croissance des concurrents. Ils favorisaient également la survie des espèces productrices. En outre, en très faibles quantités, les antibiotiques pouvaient agir comme des molécules de communication, en influençant les interactions et l’équilibre des communautés microbiennes.
Ces environnements dynamiques ont favorisé l’évolution des stratégies défensives des microorganismes exposés aux antibiotiques, qu’ils soient producteurs d’antibiotiques ou qu’ils coexistent avec eux. Cette évolution a, à son tour, favorisé la diversification et la diffusion des mécanismes de résistance au fil du temps.
Par ailleurs, la présence de ces mécanismes dans des environnements isolés et antérieurs à l’ère de développement des antibiotiques soulève des questions sur la manière dont la résistance est apparue et s’est propagée au cours de l’évolution microbienne. L’étude de ces processus est essentielle pour comprendre leur impact sur la crise actuelle de la résistance aux antibiotiques.
Il est désormais admis que les gènes de résistance aux antibiotiques seraient passés des microorganismes de l’environnement aux organismes commensaux de l’humain, puis aux agents pathogènes. Ce processus de transfert de l’environnement à l’entourage de l’être humain est aléatoire : plus un mécanisme de résistance est répandu dans l’environnement, plus il est susceptible d’être transféré.
L’existence de réservoirs de résistance dans l’environnement peut accélérer considérablement l’évolution des bactéries vers la multirésistance sous la pression des antibiotiques. Il est donc crucial de prendre en compte la grande diversité de ces gènes de résistance au sein des populations microbiennes lors de l’élaboration ou de la mise en œuvre de nouvelles stratégies de lutte contre la résistance aux antibiotiques.
Comme l’a dit Winston Churchill :
« Plus vous regardez loin en arrière, plus vous verrez loin en avant. »
Cette réflexion souligne l’importance d’étudier le passé afin de comprendre et d’anticiper les risques futurs.
Par conséquent, la recherche sur la résistance ancestrale ne nous relie pas seulement au passé en fournissant des informations sur l’histoire évolutive des gènes de résistance, elle a également une valeur prédictive.
Ces connaissances nous permettent d’anticiper les mécanismes de résistance potentiels, ce qui améliore notre capacité à relever les défis futurs dans la lutte contre la résistance aux antibiotiques.
M. Paloma Reche Sainz a reçu des financements du ministère espagnol des sciences et de l'innovation dans le cadre du plan national PID2023-150116OB-I00 au sein duquel elle fait partie de l’équipe de recherche.
Rubén Agudo Torres a reçu des financements du ministère espagnol des sciences et de l'innovation, du ministère de l'économie, de l'industrie et de la compétitivité et du programme Horizon 2020 de la Commission européenne.
Sergio Rius Rocabert a reçu des financements du ministère espagnol des sciences et de l'innovation par le biais du programme Plan national avec le code PID2023-150116OB-I00 au sein duquel il fait partie de l'équipe de recherche.
20.05.2025 à 11:35
Mehdi Achouche, Maître de conférences en cinéma anglophone et études américaines, Université Sorbonne Paris Nord
Depuis Alphaville (1965) jusqu’à Terminator (1984), le cinéma exorcise ses angoisses en prêtant aux cerveaux mécaniques un pouvoir froid et totalitaire. Mission Impossible : The Final Reckoning ravive aujourd’hui ce vieux mythe : une IA tentaculaire s’empare des réseaux militaires et menace l’ordre mondial. Retour sur soixante ans d’écrans hantés par la même question : que devient l’humain quand la machine pense à sa place ?
Le cinéma s’intéresse aux créatures artificielles depuis ses débuts, mais ce qui peut plus rigoureusement être qualifié d’intelligence artificielle (IA) est un thème qui date des années 1960. Alors que robots et androïdes sont facilement utilisés comme la métaphore du prolétariat ou d’individus déshumanisés et objectifiés, les IA désincarnées sont plutôt représentées comme des entités inhumaines et mortifères. On peut rattacher cette vision à l’avènement de l’ordinateur et à la manière dont le grand public l’a peu à peu appréhendé.
Ce dernier découvre progressivement les ordinateurs au sortir de la Seconde Guerre mondiale, durant laquelle des machines comme Colossus ou l’Electronic Numerical Integrator And Computer (Eniac) ont été conçues pour aider à décrypter les communications allemandes ou calculer des trajectoires de missiles balistiques. La recherche s’accélère après 1945 et, très vite, la presse présente les premiers ordinateurs comme des « cerveaux géants », ainsi que le veut le titre d’un des tout premiers livres qui leur est consacré en 1949. L’année suivante Time Magazine pose en couverture une question à la fois excitante et inquiétante : « L’homme peut-il construire un surhomme ? »
Trois thématiques émergent ainsi peu à peu autour de la figure de l’ordinateur et bientôt de l’IA : l’automatisation du monde du travail et le chômage en résultant ; la technocratie et l’avènement d’une société vouant un culte démesuré aux machines ; et l’automatisation des armements militaires.
L’ordinateur est donc étroitement associé aux facultés mentales, à une époque où le terme « computer » (« calculateur » en français) est encore utilisé pour désigner des êtres humains qui réalisent des opérations mathématiques. Le magazine étatsunien Collier’s Weekly pose brutalement la question de l’automatisation dès 1953 en ces termes : « Un cerveau mécanique va-t-il vous remplacer ? »
La peur du chômage technologique est déjà au centre de la comédie romantique Une femme de tête (Desk Set, 1957), dans lequel un ordinateur menace de supprimer tous les postes de secrétaires et de documentalistes d’une grande entreprise. Mais le film est sponsorisé par IBM, alors leader du marché, et cherche en réalité à convaincre qu’il n’y a au contraire rien à craindre : l’inventeur (Spencer Tracy) finit même par épouser une des documentalistes (Katharine Hepburn). Le générique du film invite déjà littéralement le public à se rapprocher de l’intimidante machine et à constater qu’elle n’a rien de nocif.
En 1964, la série télévisée la Quatrième Dimension met en scène à son tour un patron d’usine qui installe un ordinateur afin de rationaliser les opérations de son entreprise. La machine licencie bientôt tous les ouvriers, les secrétaires (plus besoin de s’encombrer de congés maternité, comme le souligne le dirigeant) – jusqu’au patron lui-même, remplacé dans une ultime ironie par un robot dans la dernière scène de l’épisode.
L’avènement des superordinateurs dans les années 1960 permet à l’idée de l’intelligence artificielle – terme inventé en 1956 – de se populariser au cinéma. Parce qu’ils sont souvent utilisés pour développer les programmes d’IA, les superordinateurs sont étroitement associés au phénomène. L’idée fait presque instantanément son chemin à l’écran : si l’ordinateur est un cerveau géant et ultracompétent, alors peut-être un esprit surgira-t-il de ce cerveau ?
S’ensuit une certaine ambiguïté, qui perdure jusqu’à nos jours : dans le terme « intelligence », la culture populaire entend surtout conscience, ou « sentience », c’est-à-dire l’existence d’une subjectivité, de la capacité non seulement à raisonner mais aussi à ressentir. Un être à part entière – mais aussi, paradoxalement, un pur cerveau, c’est-à-dire un être froid, asservi au calcul logique et ultrarationnel, et qui est souvent utilisé pour caricaturer la pensée scientifique.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
On doit la première manifestation majeure de cette idée à Jean-Luc Godard, qui dans Alphaville popularise, dès 1965, des idées (il s'inspire pour cela de la science-fiction littéraire) que l’on retrouvera très souvent dans les années à venir : une société dystopique dirigée par un supercalculateur conscient et doué de la parole, l’Alpha 60. L’IA a créé une société ultrarationnelle qui est la satire des technocraties, de la planification et de la standardisation du quotidien. C’est ce qu’explicite Godard lui-même dans la fausse interview de scientifiques et « simulateurs de pensée » parue dans le Nouvel Obs à l’occasion de la sortie du film. Pour le réalisateur, l’IA est avant tout le symbole d’une société qui abandonne sa liberté de penser à des machines et aux technocrates qui se cachent derrière.
Bientôt d’autres films et séries télévisées reprennent l’idée d’un héros individualiste et libre qui combat l’ordinateur ultrarationnel et parvient, comme chez Godard, à vaincre la machine en lui soumettant un dilemme ou une question insoluble qui provoque son autodestruction. Le capitaine Kirk fera – plusieurs fois – exactement la même chose dans plusieurs épisodes de Star Trek (1966-1969). Le héros de la série le Prisonnier (1967), captif d’une société qui nie l’individualité de tout un chacun, parvient de même à pousser l’IA à imploser en lui posant une simple question, insoluble pour elle : « Pourquoi? » Ce type de scène devient rapidement un cliché, au point qu’elle est parodiée, dès 1974, dans Dark Star, où le héros débat de phénoménologie et de Descartes avec… une bombe nucléaire sentiente.
Enfin, une troisième thématique voit le jour en 1964 : celle d’un Armageddon atomique provoqué par un ordinateur ou une IA. Dans Point limite (Fail-Safe), de Sidney Lumet, l’automatisation des défenses nucléaires du pays par le biais d’un nouvel ordinateur est responsable d’une catastrophe nucléaire. L’idée fait référence à Sage (Semi-Automatic Ground Environment), un système informatique national utilisé pour la défense nucléaire des États-Unis dans le contexte de la guerre froide.
L’idée est reprise dès 1970 dans Colossus (dont le titre français, le Cerveau d’acier, montre que la même caractérisation des ordinateurs existe en France). Le film est tourné au printemps 1968, donc avant la sortie de 2001, l’odyssée de l’espace, de Kubrick, et imagine l’IA éponyme prendre le contrôle de l’arsenal nucléaire des États-Unis et de l’Union soviétique. L’idée sera reprise plusieurs fois par la suite, notamment dans les Terminator, dans lesquels l’IA militaire, Skynet, fait la même chose et provoque même l’apocalypse nucléaire.
Mission Impossible : The Final Reckoning suit les mêmes pas, rappelant même Point limite par plus d’un aspect. L’IA, dénommée ici « l’entité », utilise Internet pour prendre peu à peu le contrôle des arsenaux nucléaires du monde. Comme dans le film de 1964, un des personnages est le président des États-Unis (une présidente, ici), qui doit décider si elle doit lancer une attaque nucléaire préemptive voire, comme Henry Fonda autrefois, sacrifier une ville étatsunienne pour sauver le plus grand nombre. L’idée principale dans le film est, comme toujours, de contraster la froideur de la machine aux doutes, à l’éthique et à l’empathie des êtres humains (même celle des militaires, ce qui éloigne plutôt Mission impossible de ses prédécesseurs, plus critiques).
Enfin, classiquement, dans Mission impossible, l’IA est assimilée à une possible nouvelle divinité qui régnerait sur l’humanité et pourrait exercer son courroux si cette dernière lui désobéissait (on apprend même qu’une secte vient d’apparaître, vénérant l’entité). L’idée est, là aussi, présente sur les écrans dès les années 1960, appliquant à l’ordinateur et à l’IA une critique plus ancienne relative au culte des machines. Le mot ordinateur lui-même n’a-t-il pas été créé, dans les années 1960, en référence à l’ordre divin ?
Mehdi Achouche ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
20.05.2025 à 08:43
Service Environnement, The Conversation France
Dans la stratosphère, l’ozone protège la vie sur terre en absorbant des rayons UV nocifs. Mais, en dessous, dans la troposphère, il est à la fois polluant et gaz à effet de serre. Les clés d’un paradoxe, expliquent Sarah Safieddine, Camille Viatte et Cathy Clerbaux (Sorbonne Université).
Saviez-vous qu’il existe un « bon ozone » et un « mauvais ozone » ? Selon l’altitude où on la rencontre, la molécule est soit d’une absolue nécessité pour la vie sur terre, soit un gaz à effet de serre doublé d’un polluant néfaste pour la santé.
Naturellement présent dans notre atmosphère, l’ozone, du latin « ozein » (qui signifie « sentir », ce gaz ayant une senteur caractéristique qui permet de le détecter), a été identifié en 1840. L’ozone joue un rôle radicalement différent selon qu’on le rencontre dans la stratosphère (15 à 35 km d'altitude et où l’on retrouve 90 % de l’ozone atmosphérique total) ou dans la troposphère (moins de 10 km).
Dans la stratosphère, il joue un rôle de bouclier protecteur en absorbant la plupart des UV nocifs pour l’ADN du vivant. Dans les années 1980, les scientifiques ont pris conscience que les activités humaines avaient perturbé cette couche d’ozone, au point qu’un trou s’y développe chaque printemps, ce qui a entraîné la naissance du protocole de Montréal en 1987. Ratifié par 197 Etats, il a permis de limiter l’usage des substances problématiques, principalement des chlorofluorocarbures et des halons, utilisés notamment pour la réfrigération et la climatisation.
Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».
Dans la troposphère en revanche, l’ozone devient un polluant aux effets néfastes tant pour la végétation que pour la santé humaine. Cet irritant des voies respiratoires supérieures a également un effet phytotoxique sur les plantes, entraînant des pertes de rendement agricole. C’est un polluant dit « secondaire », produit sous l’effet d’un ensoleillement important et de températures favorables, avec des pics au printemps et en été, du fait de l’ensoleillement et de la durée du jour accrus. Il existe de nombreux précurseurs de l’ozone, comme les oxydes d’azotes (NOx) émis par le trafic automobile et l’industrie, ainsi que les composés organiques volatils (COV) générés par les activités humaines et par la végétation.
La stratégie de lutte contre l’ozone troposphérique est de réduire les émissions de gaz précurseurs. La principale difficulté : la chimie de l’ozone est non linéaire. Selon le dosage en NOX et COV, de l’ozone pourra être formé ou être détruit. Il en découle que si les réductions ne sont pas équilibrées, on pourra aboutir à encore plus d’ozone. Paradoxalement, c’est dans les campagnes, à quelques dizaines de kilomètres des villes, que les conditions sont réunies pour que les concentrations d’ozone soient plus élevées.
Comme l’ozone stratosphérique, l’ozone troposphérique est aussi une question globale : plus de 50 % de la mortalité qui en découle en Europe est associée à de l’ozone transporté depuis les dehors du continent. Il y a urgence : en 2021, l’exposition à court terme a causé 22 000 décès prématurés dans le vieux continent, et l’augmentation des températures devrait encore davantage favoriser la production d’ozone. Ce texte est la version courte de l'article écrit par Sarah Safieddine, Camille Viatte et Cathy Clerbaux (Sorbonne Université)
Cet article a été édité par le service Environnement de The Conversation à partir de la version longue écrite par Sarah Safieddine, Camille Viatte et Cathy Clerbaux (Sorbonne Université).
20.05.2025 à 08:42
Patrice Baubeau, Maître de conférence HDR, Histoire, histoire économique, Université Paris Nanterre – Université Paris Lumières
L’histoire de la mondialisation n’est pas celle d’une progression continue, mais d’une alternance de phases d’expansion et de repli. Si les gains économiques du commerce international sont indéniables à long terme, ils ne suffisent pas à expliquer ces mouvements de va-et-vient. Leur origine est avant tout politique.
Au cours des 350 dernières années, les économies développées ont fortement accentué leur intégration économique réciproque, en lien avec l’industrialisation, l’essor des services marchands et surtout le progrès des transports de biens, de personnes et d’informations. L’augmentation des échanges commerciaux volontaires de toute nature (ce qui exclut en particulier la traite esclavagiste et l’exploitation coloniale) a enrichi les populations qui avaient la chance d’y participer, contribué à la hausse de l’espérance de vie et à la réduction des maux traditionnels de l’humanité – faim, froid, maladie…
Toutefois cette intégration croissante ne s’est pas déroulée de façon linéaire : la politique y a joué un rôle déterminant, en suscitant des phases d’accélération et de ralentissement, voire de recul. C’est à l’une de ces phases de ralentissement ou de recul – il est encore trop tôt pour se prononcer – que nous assistons actuellement, et sa motivation politique ne fait aucun doute.
Deux grandes explications coexistent pour analyser cette alternance.
L’économie théorique, depuis David Ricardo, met en avant les « gains du commerce international » comme moteur rationnel de la mondialisation : en toute logique, celle-ci devrait donc non seulement s’imposer aux individus comme aux sociétés, mais s’accélérer en anticipation puis au vu de ses bienfaits. Toutefois, cette théorie demeure difficile d’accès en raison de son caractère contre-intuitif.
À l’inverse, les historiens mettent l’accent sur les réactions sociales aux effets destructeurs du libre-échange. Suzanne Berger a brillamment montré comment, malgré ses indéniables succès économiques, la mondialisation accélérée qui précède la Première Guerre mondiale suscite un rejet croissant, du fait de la hausse vertigineuse des inégalités, des tensions militaires et de l’expansion impériale. Ce rejet, également analysé par Joseph Stiglitz à la fin du XXe siècle, n’a pu intervenir qu’ex post, une fois les conséquences économiques et sociales du libre-échange manifestes. En somme, le mécontentement social contre la mondialisation renvoie à la première question, sans expliquer pourquoi elle s’est déployée et donc sans éclairer ni son processus général, ni ses phases d’accélération et de remise en cause.
Il existe donc un paradoxe temporel : les gains, indéniables, du commerce international ne peuvent être constatés qu’ex post, de même que les dégâts qu’il provoque. Avant que ces effets, positifs ou négatifs, ne se manifestent, tant qu’ils restent à l’état de promesse ou de menace, il a donc fallu un motif politique pour mettre en œuvre le libre-échange.
Tous les quinze jours, nos auteurs plongent dans le passé pour y trouver de quoi décrypter le présent. Et préparer l’avenir. Abonnez-vous gratuitement dès aujourd’hui !
C’est pourquoi il faut rendre aux États leur rôle moteur, en replaçant ces alternances dans leur politique générale. En particulier, les politiques en faveur de la mondialisation s’inscrivent dans un contexte intellectuel et diplomatique plus large que l’on peut qualifier de « multilatéralisme ». Au-delà de la forme qu’il a prise dans le système des Nations-Unies, le multilatéralisme au sens large repose sur deux piliers : la conviction que la solution négociée et le compromis sont plus avantageux que le rapport de force ; l’idée que les gains d’un État ne correspondent pas forcément aux pertes d’un autre : la diplomatie, le commerce ou la paix n’est pas un jeu à somme nulle.
Or, si l’on observe l’histoire de ce multilatéralisme au sens large, ses hauts et ses bas sont clairement corrélés au prix monstrueux payé au titre des politiques unilatérales. Les grandes guerres européennes puis « mondialisées » du XVIIIe au XXe siècle ont entraîné des dizaines de millions de morts militaires et civiles, des générations de populations traumatisées, des violences coloniales dont la société française commence tout juste le douloureux inventaire. Ce ne sont donc ni le raffinement théorique ricardien, ni le mécontentement social, qui expliquent l’adoption ou le rejet de politiques multilatérales, mais bien les phases durant lesquelles l’économie et le commerce deviennent l’un des instruments du rapport de force entre États.
Ainsi conçu, le multilatéralisme contemporain démarre, du moins en Occident, avec les conférences de Westphalie de 1648 : épuisés par les guerres de religion, les États européens décident de faire primer leur intérêt bien compris sur les doctrines religieuses, ou l’interprétation qu’en proposent les pouvoirs spirituels. Il en résulte une réduction, certes relative, des conflits militaires en Europe même, la formulation progressive de règles diplomatiques et de nouvelles doctrines du droit international et enfin un report cruel de ces rapports de force vers les espaces ultra-marins, sous la forme de la guerre de course et de l’expansion coloniale et esclavagiste.
Ce qu’il reste de conflictualité brutale prend alors le nom de « mercantilisme », soit la poursuite de la guerre par d’autres moyens, ici économiques. Le mercantilisme repose sur l’idée que les gains d’un État ne peuvent provenir que des pertes d’un autre. Un peu comme s’il suffisait pour un pays d’annuler les déficits bilatéraux qu’il enregistre avec certains de ses voisins pour qu’aussitôt surviennent bonheur et prospérité…
Les guerres intenses qui se multiplient entre les puissances européennes durant la deuxième moitié du XVIIIe siècle, apogée de ces théories mercantilistes, entraînent un nouvel épuisement. Aussi, après la guerre d’indépendance des États-Unis (1776-1783), l’Angleterre et la France tentent un véritable « reset » de leurs relations politiques, en promouvant la liberté du commerce (1783) et en réduisant les droits de douane (traité Eden-Rayneval, 1786). Cette tentative fait toutefois long feu, balayée par la Révolution.
Mais, de façon intéressante, la leçon est renforcée par les French Wars (1792-1815) qui dévastent l’Europe. Au-delà de la restauration des royaumes, les conférences de Vienne en 1814-1815 promeuvent la liberté du commerce et de la navigation, engagent, encore timidement, le processus de répression de la traite esclavagiste et valident la supériorité d’une négociation multilatérale sur le règlement bilatéral des conflits. C’est sur cette base multilatérale que les mouvements en faveur du commerce international vont agir en faveur de l’abaissement des droits de douane. La fameuse Anti-Corn Law League de Richard Cobden (informée des principes ricardiens) parvient ainsi à articuler les intérêts des industriels soucieux d’exporter leur production croissante et très compétitive et ceux des syndicats ouvriers à qui l’on promet une baisse du prix du pain si les droits de douane sur les céréales (corn laws) avec l’abolition des Corn Laws en 1846. Le traité Cobden Chevalier signé entre l’Angleterre et la France en 1860 prolonge ce mouvement et permet en outre l’adoption de cet outil majeur du multilatéralisme économique qu’est la clause de la nation la plus favorisée, laquelle étend aux autres pays les avantages douaniers accordés à l’un d’entre eux. Ainsi s’engage une accélération de la réduction des barrières douanières au moment même où l’essor des transports modernes réduit le coût du fret : commence alors la « première mondialisation » décrite par Suzanne Berger.
C’est au cours de cette même période que de nouveaux instruments du multilatéralisme émergent. On citera en particulier :
Le raffinement progressif du système monétaire international, consolidé autour de l’étalon-or classique (1873-1914) ;
La redécouverte et l’application des principes de l’arbitrage international entre États (1872), lesquels ne sont donc plus reliés les uns aux autres par de purs rapports de force mais voient ces derniers médiatisés par des normes juridiques ;
La multiplication – au-delà des organisations religieuses – des « ONG », comme la Croix-Rouge, et des traités internationaux permettant la coordination des échanges (traités sur les voies d’eau internationales ; formation des unions internationales portant sur les règles de navigation, les échanges postaux, l’unification des poids et mesures, etc.).
Mais ce multilatéralisme n’est pas imposé « d’en haut ». Il repose d’abord sur la bonne volonté de ses acteurs principaux, les États européens rejoints par les États-Unis puis le Japon, dès lors en mesure d’exclure les souverainetés jugées indignes, d’où le “partage” (il s’agit en fait de l’établissement de zones d’influence exclusives) de l’Afrique entre Européens et la conquête du Pacifique qui surviennent au cours de ces mêmes années. Il dépend ensuite de la conviction, politique, que ce multilatéralisme est bien dans l’intérêt national. Or, justement, cette conviction s’étiole à partir de la fin des années 1870, lorsque le monde développé entre dans une phase souvent qualifiée de « néo-mercantiliste » : les droits de douane remontent tandis que le développement économique est mis au service de la puissance militaire et impériale.
La Première Guerre mondiale vient mettre un terme sanglant à cet essor des égoïsmes nationaux, alimentés par les tensions sociales provoquées par l’intégration internationale des économies. Mais l’espoir multilatéral que le règlement de la guerre suscite se brise dramatiquement sur l’échec de la SDN et le désordre économique et monétaire des années 1930. C’est donc juste après la Deuxième Guerre mondiale que le multilatéralisme contemporain, appuyé sur les principes et les institutions développés depuis alors 300 ans, est fondé : système des Nations unies, Accords de Bretton Woods, Gatt (General Agreement on Tariffs and Trade), Déclaration universelle des droits de l’homme.
On voit à quel point le multilatéralisme n’est pas un choix « naturel » ou « rationnel » : tout dans son allure et ses principes heurte l’esprit de clocher, le nationalisme étroit, le simplisme du « my loss, your gain ». Pour prendre cette voie difficile, il a donc fallu, à chaque fois, que la voie opposée du repli national et de la concurrence bilatérale d’intérêts fourvoyés, indissociablement politiques, économiques et idéologiques, ait fait la preuve de ses conséquences catastrophiques, comme les 50 millions de morts de la Première Guerre mondiale, les 100 millions de la Deuxième et les terreurs durables d’annihilation réciproque cultivées par la Guerre froide. Lorsque la mémoire de ces catastrophes s’efface, lorsque les contestations – légitimes – des excès du commerce mondial se fondent dans des discours identitaires et revanchards, lorsque l’on veut réduire un monde complexe et bigarré à des solutions simples, alors le multilatéralisme se flétrit et les rapports de force reparaissent, toujours aussi brutaux et destructeurs.
Patrice Baubeau a reçu des financements de l'Université Paris Nanterre, de l'ANR et du ministère de la Culture