LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

▸ les 25 dernières parutions

26.03.2025 à 16:36

La pomme, reine des vergers… et des pesticides

Maël Baudin, Enseignant-chercheur en interactions plantes-microorganismes, Université d'Angers

Bruno Le Cam, Directeur de Recherche INRAE Phytopathologiste, Inrae

Afin de lutter contre la maladie de la tavelure, les pommiers sont les cultures les plus traitées en France. Comment réduire cette dépendance aux traitements ?
Texte intégral (2423 mots)
Pour lutter contre la tavelure, un pommier doit être traité de nombreuses fois par an. Nathan Hulsey/Unsplash, CC BY

La pomme est le fruit préféré des Français et le plus cultivé en France. Mais la pomme ne se distingue pas uniquement par sa popularité, elle figure également en tête des cultures les plus traitées en France, notamment en raison du champignon Venturia inaequalis, qui est responsable de la maladie de la tavelure. Comment réduire cette dépendance aux traitements ?


Un pommier malade va produire des pommes tachées. Les fruits tachés ne sont pas nocifs pour la santé humaine, mais ne peuvent être ni vendus ni exportés. C’est la raison pour laquelle les arboriculteurs utilisent des fongicides entre 15 et 20 fois par an, un chiffre qui peut grimper jusqu’à 40 traitements sur les variétés les plus sensibles lors de printemps particulièrement pluvieux. À titre de comparaison, les producteurs de blé appliquent au maximum trois traitements fongicides par an.

Symptômes de tavelure sur fruit dûs au champignon Venturia inaequalis. B. Le Cam, Inrae, Fourni par l'auteur

Les vergers menés en agriculture biologique ne sont pas épargnés par cette maladie. Ils sont souvent autant traités voire plus que les vergers conventionnels, car les fongicides utilisés en agriculture biologique, comme le cuivre et la bouillie sulfocalcique, sont plus facilement lessivés par les pluies que les fongicides de synthèse. C’est ainsi qu’au cours de sa carrière, un arboriculteur parcourra en moyenne une distance équivalente à un tour du monde avec son pulvérisateur pour protéger son verger de 20 hectares ! Éliminer ce champignon est particulièrement difficile, car il est présent non seulement dans les vergers, mais aussi sur les pommiers dans les habitats sauvages qui, nous le verrons, servent de réservoir de virulence.

De plus, ce champignon s’adapte rapidement aux diverses méthodes de lutte déployées. Pour tenter de pallier ces difficultés, notre équipe à l’IRHS d’Angers développe actuellement une stratégie tout à fait inédite chez les champignons qui, au lieu de tuer l’agent pathogène, l’empêche de se reproduire.

Le pommier et la tavelure, de vieux compagnons de route

La tavelure du pommier sévit partout dans le monde. Afin de localiser son origine, nous avons réalisé un échantillonnage de souches de V. inaequalis à l’échelle mondiale, à la fois sur des variétés en vergers et sur des espèces de pommiers sauvages présentes dans les habitats non cultivés.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Nos travaux de génétique des populations ont révélé que la tavelure partage avec l’espèce asiatique sauvage, Malus sieversii, le même centre de diversité génétique situé dans les montagnes du Tian Shan, à la frontière du Kazakhstan et de la Chine. Dans ce site majestueux classé au patrimoine universel de l’Unesco pour la valeur de ses ressources génétiques, ce Malus, ancêtre du pommier domestiqué, continue de coévoluer avec son agent pathogène.

Les analyses historiques et génétiques menées sur le pommier montrent que sa domestication a commencé en Asie centrale, il y a 7 000 ans, à partir de Malus sieversii, pour se poursuivre jusqu’en Europe avec des hybridations successives entre différentes espèces de Malus; par exemple, Malus orientalis dans le Caucase et Malus sylvestris en Europe. Tout au long de ce processus de domestication, le champignon a dû gagner en virulence pour s’adapter aux gènes de résistance du pommier introduits par hybridations successives.

Pourquoi l’ancêtre du pommier est-il menacé en Asie Centrale ? Inrae.

À partir du XVIe siècle, au moment de la découverte des nouveaux continents, l’Europe a servi de tête de pont à la diffusion ensemble du pommier domestiqué et de la tavelure, ce qui fait que la maladie provoque aujourd’hui des dégâts sur tous les continents.

De quelle façon les voyages de la tavelure des habitats sauvages vers les vergers ruinent-ils les efforts des sélectionneurs ?

Au cours des quarante dernières années, l’activité humaine a facilité, de manière totalement fortuite, l’introduction dans les vergers d’une population de tavelure provenant de l’habitat sauvage selon un scénario comparable à celui du « cheval de Troie ». L’histoire débute en 1914, aux États-Unis, avec des travaux de sélectionneurs qui cherchaient à introduire par hybridation dans le pommier le gène de résistance Rvi6, qui confère une résistance totale à la tavelure.

Issu de l’espèce ornementale Malus floribunda, le gène Rvi6 est rapidement devenu la principale source de résistance introduite dans les programmes de sélection à travers le monde. Après plusieurs décennies de croisements, les premières variétés portant le gène Rvi6 issues de ces travaux de sélection ont été plantées en Europe dans les années 1980. Cependant, quelques années après leur plantation, des symptômes de tavelure ont commencé à apparaître dans les vergers.

Une analyse génétique des souches virulentes du champignon a révélé que la résistance du gène Rvi6 était contournée par une population du champignon, présente de manière insoupçonnée en Europe, non pas dans les vergers, mais sur des pommiers sauvages. En plantant des variétés nouvelles porteuses du gène Rvi6, l’activité humaine a ainsi involontairement facilité l’installation de cette population virulente dans des vergers non protégés par des fongicides. Cette étude met en lumière, une fois de plus, le rôle crucial de l’habitat sauvage en tant que réservoir potentiel de virulence et de maladies susceptibles d’affecter les agrosystèmes.

Chronique d’une perte de résistance chez le pommier, Inrae.

Des vergers sans fongicide ? Un changement de paradigme s’impose

Le plan EcoPhyto, qui ambitionne de diminuer de 50 % l’usage des pesticides, voire de les éliminer complètement, suscite des inquiétudes quant à sa faisabilité parmi les producteurs et représente un véritable défi pour les scientifiques.

En effet, les variétés de pommes les plus cultivées en France sont particulièrement sensibles à la tavelure, et non seulement la présence de tâches sur les fruits est inacceptable dans les circuits de distribution, mais toute possibilité d’exportation est également interdite.

À moins de convertir l’ensemble des vergers de pommiers en agriculture biologique et d’assouplir sensiblement la réglementation stricte sur la présence de taches sur fruits, imaginer se passer des fongicides de synthèse paraît aujourd’hui illusoire. La situation est similaire à l’étranger dans les grands pays producteurs et exportateurs de pommes, où les mêmes variétés sensibles à la tavelure dominent le marché.

Face à ce constat, comment changer la donne ? Faudrait-il envisager de réglementer voire d’interdire la plantation de variétés très sensibles à la tavelure ? Dans un contexte de sortie des pesticides, cette mesure radicale pourrait s’avérer nécessaire sous réserve que les producteurs soient accompagnés financièrement dans cette période de transition.

En l’absence de contraintes imposées par les politiques publiques, telles que des amendes sur l’application excessive de fongicides, les mêmes variétés gourmandes en traitements chimiques continueront de dominer le marché. Il serait également possible d’envisager la création d’un « pesti-score », une telle information portant sur la quantité de traitements appliqués sur les vergers pourrait participer au changement de paradigme attendu.

Sur le plan international, la recherche académique et les filières horticoles consacrent également beaucoup d’efforts pour lutter contre cette maladie. Toutefois, le long délai incompressible nécessaire pour amener de nouvelles variétés sur le marché reste un défi majeur en cultures pérennes. Substituer les variétés les plus sensibles par de nouvelles variétés porteuses de gènes de résistance provenant de pommiers sauvages reste réaliste, mais prendra du temps.

À court terme, une solution envisageable pour assurer cette transition pourrait résider dans la relance de campagnes de promotion et de sensibilisation auprès du grand public en faveur de variétés de pommes peu sensibles à la tavelure telles que la reine des reinettes ou la Chanteclerc, mais qui n’avaient pas rencontré à leur sortie le succès escompté face aux variétés dominantes. Une telle stratégie permettrait de diversifier les plantations en verger et de réduire ainsi l’usage des fongicides.

Combinaison de stratégies et de moyens

L’histoire récente nous enseigne toutefois l’humilité face à la complexité du problème : la tavelure présente une telle diversité qu’elle est capable de s’adapter aux résistances naturelles du pommier. Dès lors, l’enjeu va consister à protéger ces variétés en mettant en œuvre au verger une combinaison de stratégies visant à réduire la taille des populations de tavelure et ainsi prolonger l’efficacité des résistances, par différents moyens depuis l’utilisation de stimulateurs de défense des plantes à une diversification optimale des variétés dans le verger, en s’appuyant sur la modélisation mathématique.

Comment les maths protègent les pommiers de la tavelure ? Inrae.

Parmi les pistes alternatives aux pesticides étudiées dans notre laboratoire, nous évaluons la possibilité de perturber la reproduction sexuée du champignon, une étape indispensable à sa survie hivernale. L’objectif visé n’est pas de tuer le champignon, mais bien de l’empêcher de survivre durant l’hiver. Si nous réussissons à inhiber sa reproduction sexuée indispensable à sa survie hivernale, alors nous aurons franchi une étape importante vers la réduction de la dépendance aux fongicides.

Le changement de paradigme de substitution des variétés particulièrement sensibles aux différents bioagresseurs du pommier nécessitera un renforcement conséquent des investissements publics et privés pour mettre en place un plan ambitieux de développement de variétés résistantes aux maladies et aux ravageurs, impliquant tous les acteurs de la filière (arboriculteurs, techniciens de terrain, metteurs en marché, consommateurs, scientifiques).

Cet investissement lourd, mais indispensable pour atteindre les objectifs fixés, devra dépasser la lutte contre la tavelure en intégrant la résistance à bien d’autres maladies et ravageurs du pommier. Le défi sera de développer des variétés résilientes moins gourmandes en pesticides adaptées à des systèmes durables de gestion des résistances. Une telle transition demandera une refonte profonde des méthodes de production ainsi qu’un changement des habitudes des consommateurs.

The Conversation

Baudin Maël a reçu des financements de l'ANR, l'INRAE et Horizon-europe.

LE CAM a reçu des financements de ANR, de INRAE et de la Région Pays de La Loire

20.03.2025 à 16:52

Infrastructures critiques : le rôle clé des algorithmes mathématiques

Bernard Fortz, Professeur en méthodes d'optimisation pour la gestion, Université de Liège

Dans un monde où l’efficacité et la sécurité des infrastructures critiques sont essentielles, les algorithmes mathématiques apportent des solutions innovantes pour répondre à des défis complexes.
Texte intégral (1219 mots)

Dans un monde où l’efficacité et la sécurité des infrastructures critiques sont essentielles, les algorithmes mathématiques apportent des solutions innovantes pour répondre à des défis complexes. En particulier, trois domaines clés où ils se révèlent indispensables : la réduction de la fraude par évasion tarifaire dans les transports en commun, l’optimisation de l’autoconsommation dans les communautés énergétiques et la protection des réseaux informatiques contre les attaques ciblées malveillantes.


Réduction de la fraude dans les transports en commun

L’évasion tarifaire dans les transports en commun, notamment dans les systèmes sans barrières physiques où les contrôles sont aléatoires, constitue un problème économique majeur pour les opérateurs. Les pertes engendrées par les passagers frauduleux peuvent être considérables, rendant nécessaire l’optimisation des stratégies de contrôle.

Une étude récente propose d’utiliser le jeu de Stackelberg pour modéliser l’interaction entre les opérateurs de transport, qui planifient les contrôles, et les passagers opportunistes qui cherchent à les éviter. Cette approche permet d’élaborer des stratégies d’inspection plus efficaces en planifiant les patrouilles de manière imprévisible, ce qui complique la tâche des fraudeurs.

Selon cette étude, la méthode améliore la gestion des contrôles en intégrant les comportements des passagers dans la planification. Le modèle utilise des stratégies mixtes pour établir des probabilités d’inspection, et des heuristiques ont été développées pour améliorer la qualité des solutions, même si l’optimalité n’est pas toujours garantie. Cette méthodologie peut être appliquée à différents systèmes de transport (métro, bus, tram, train…), permettant une réduction significative de l’évasion tarifaire.

Optimisation de l’autoconsommation dans les communautés d’énergie

Les communautés d’énergie, où les membres partagent l’énergie qu’ils produisent, stockent et consomment, représentent une voie prometteuse vers une transition énergétique plus durable. Ces communautés restent connectées au réseau public, mais visent à maximiser leur taux d’autoconsommation collective, réduisant ainsi leur dépendance à l’égard du réseau et leurs coûts énergétiques.

Un projet pilote, baptisé Smart Lou Quila a été développé par la start-up de Montpellier Beoga. Il permet aux sept membres de la communauté de se partager une électricité 100 % renouvelable et locale, produite par des panneaux photovoltaïques posés sur les toits des maisons et sur celui du stade municipal.

En collaboration avec ce projet pilote, un modèle de programmation linéaire en nombres entiers mixtes a été développé pour optimiser l’autoconsommation d’une communauté d’énergie. Un modèle linéaire en nombres entiers est une méthode d’optimisation mathématique où l’objectif est de maximiser ou minimiser une fonction linéaire, soumise à des contraintes également linéaires. Ce qui distingue ce modèle est que certaines ou toutes les variables de décision doivent prendre des valeurs entières (et non continues). Il est largement utilisé pour résoudre des problèmes impliquant des choix discrets, comme la planification, l’affectation ou les horaires, mais il est souvent plus complexe à résoudre qu’un modèle linéaire classique à cause de la contrainte d’intégralité.

Le modèle que nous avons développé gère l’utilisation des appareils électriques, le stockage d’énergie, ainsi que les échanges entre les membres de la communauté. Grâce à ce modèle, il a été démontré qu’une adhésion à une communauté énergétique peut réduire la consommation d’énergie provenant du réseau public d’au moins 15 %, avec des économies substantielles sur les factures. L’utilisation des outils de la recherche opérationnelle pour une meilleure gestion des communautés d’énergie était également l’objet de recherche du projet européen SEC-OREA (Supporting Energy Communities–Operational Research and Energy Analytics) auquel j’ai participé.

Protection des réseaux contre les attaques ciblées

Les réseaux de services, qu’ils soient de communication, de logistique ou d’infrastructures critiques, sont particulièrement vulnérables aux cyberattaques. Ces attaques cherchent à désactiver des nœuds spécifiques du réseau, provoquant des dysfonctionnements graves et perturbant le service.

Pour contrer ces menaces, une nouvelle approche fondée sur la théorie des jeux a été développée. La théorie des jeux est une branche des mathématiques qui étudie les interactions stratégiques entre des acteurs rationnels, appelés « joueurs ». Elle modélise les situations où les décisions de chaque joueur influencent les résultats des autres, qu’il s’agisse de coopération ou de compétition.

Notre approche modélise l’interaction entre un opérateur de réseau, qui tente de protéger ses infrastructures, et un attaquant cherchant à maximiser les dommages.

Les chercheurs présentent des formulations mathématiques pour optimiser la protection des nœuds critiques du réseau. Les nouvelles formulations mathématiques proposées surpassent les méthodes existantes, offrant une meilleure anticipation des attaques et une réduction des dégâts potentiels. Ces modèles sont applicables non seulement aux réseaux de communication, mais aussi à d’autres secteurs critiques tels que les infrastructures publiques et les systèmes médicaux.

Les défis auxquels sont confrontés les opérateurs de transport, les communautés énergétiques et les gestionnaires de réseaux sont variés, mais les algorithmes mathématiques offrent des solutions efficaces et adaptables. Qu’il s’agisse de maximiser les revenus des transports en commun, d’optimiser l’autoconsommation énergétique ou de protéger des réseaux contre des cyberattaques, les avancées en matière de modélisation et d’optimisation mathématique jouent un rôle central dans la sécurisation et l’optimisation de nos infrastructures critiques, en renforçant la résilience et la durabilité de nos systèmes face aux défis actuels et futurs.


Cet article a été écrit en collaboration avec le Dr Arnaud Stiepen, expert en vulgarisation scientifique.

The Conversation

Bernard Fortz ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

20.03.2025 à 13:43

Les Français font-ils confiance aux sciences ?

Michel Dubois, Sociologue, Directeur de recherche CNRS, Sorbonne Université

L’édition 2025 du baromètre de l’esprit critique révèle des différences notables dans le rapport aux sciences selon les générations et les disciplines.
Texte intégral (1949 mots)
Les Français associent davantage l’esprit critique aux humanités qu’aux sciences exactes. NationalCancerInstitute/Unsplash, CC BY

L’édition 2025 du baromètre de l’esprit critique révèle des différences notables dans le rapport aux sciences selon les générations et les disciplines. Les jeunes font, par exemple, davantage confiance aux sciences que leurs aînés, mais leur tendance à privilégier les informations provenant de leur entourage et des réseaux sociaux les expose davantage à la désinformation, notamment en ce qui concerne les bonnes pratiques nutritionnelles.

Décryptage par Michel Dubois, sociologue et membre du comité scientifique du baromètre de l’esprit critique.


Comment évolue le rapport des Français aux sciences ? Se dirige-t-on vers une défiance comme aux États-Unis ?

Michel Dubois : En France, comme aux États-Unis, la défiance à l’égard des sciences reste un phénomène heureusement minoritaire. Ce que l’on observe aux États-Unis, depuis le retour de Donald Trump à la Maison Blanche, ce n’est pas tant un rejet de la science par l’opinion publique, qu’une volonté politique de faire des universités et des organismes de recherche des adversaires idéologiques. Il s’agit de couper les budgets, de licencier le personnel des agences fédérales, d’interdire la recherche sur un certain nombre de sujets jugés inutiles ou « déconseillés », mais plus fondamentalement de contester la légitimité des scientifiques à définir ce qui est un fait et ce qui ne l’est pas. Ce degré de politisation de la science est inédit dans l’histoire contemporaine des États-Unis et ses conséquences sont déjà perceptibles à travers la gestion chaotique de l’épidémie de rougeole au Texas.

En France, la situation est encore heureusement différente. L’édition 2025 du Baromètre de l’esprit critique confirme certaines des tendances positives mises en évidence lors de la dernière vague de l’enquête Les Français et la science. Par exemple, entre 7 et 8 enquêtés sur 10 considèrent que la science permet de comprendre qui nous sommes, et le monde dans lequel nous vivons. Ils sont autant à considérer qu’une affirmation a plus de valeur si elle a été validée scientifiquement ou que la science permet de développer de nouvelles technologies utiles à tous.

Quelles différences existe-t-il entre les générations concernant la confiance envers les institutions scientifiques ?

M. D. : L’édition 2025 du baromètre introduit un échantillon 15-24 ans qui peut être comparé à l’échantillon standard des 18-65 ans et plus. C’est l’occasion de souligner quelques résultats inattendus ou contre-intuitifs. Les études inutilement alarmistes ne manquent pas pour prétendre que les plus jeunes affichent une posture toujours plus critique à l’égard des sciences.

Or, nos résultats montrent le contraire : comparés aux 18 ans et plus, les 15-24 ans manifestent un plus grand intérêt pour les sciences. Les 15-24 ans manifestent également une plus grande confiance dans la communauté scientifique : ils sont plus nombreux que leurs aînés à considérer que la communauté scientifique est indépendante pour valider ses résultats (+13 points), ou que les scientifiques suivent des règles éthiques strictes (+9 points). Ce sont également les jeunes qui sont les plus impliqués dans des activités à caractère scientifique : la visite d’expositions scientifiques, la collaboration à des expériences de science participative ou la rencontre avec des chercheurs.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Constate-t-on des différences dans le rapport aux sciences humaines et aux sciences dites dures ?

M. D. : D’une façon générale, même si cela peut surprendre, l’esprit critique est davantage associé par nos répondants aux humanités qu’aux sciences exactes. Trois quarts d’entre eux considèrent faire preuve d’esprit critique et quand on leur demande de nommer les disciplines qui ont contribué à forger cet esprit durant leur scolarité, ils citent prioritairement le français, l’histoire-géographie, la philosophie et seulement ensuite arrivent les sciences de la vie et de la terre, les mathématiques, la physique ou la chimie. Ce résultat peut donner l’impression que les sciences exactes sont perçues comme des disciplines relativement dépourvues de questionnement réflexif. Cela doit sans doute nous inciter à revoir la manière dont on enseigne les sciences au collège et au lycée, afin de mieux mettre en valeur leur dimension critique.

Interrogés sur la façon dont ils perçoivent la scientificité des disciplines, nos deux échantillons se retrouvent pour voir dans la médecine, la biologie, la chimie et l’astrophysique, des sciences exemplaires. Tout comme ils convergent pour douter très majoritairement du caractère scientifique des horoscopes, de la naturopathie ou de l’homéopathie. Mais, entre ces extrêmes, les 15-24 ans se démarquent de leurs aînés par une attitude plus positive à l’égard de l’économie (+3 points), de l’histoire (+4 points), de l’écologie (+5 points), de la psychanalyse (5 points) et plus encore de la sociologie (+12 points).

Qu’est-ce qui fait que, dans la population générale, on accorde plus de valeur ou d’intérêt à certaines sciences ?

M. D. : En France comme ailleurs, l’attention accordée à une discipline dépend souvent des répercussions, positives et négatives, qu’on lui prête sur notre environnement ou sur nos conditions de vie. C’est relativement évident pour la médecine, la biologie ou plus généralement pour la recherche sur le vivant. Toutefois, cet intérêt ne signifie pas que les scientifiques bénéficient d’une légitimité de principe leur permettant de mener leurs travaux sans tenir compte des contraintes sociales et culturelles qui les entourent. Comme l’ont montré les enquêtes Les Français et la science, une écrasante majorité de Français estime nécessaire d’instaurer des règles encadrant le développement des sciences du vivant.

Y a-t-il un avant et un après-Covid en matière de confiance envers les sciences ?

M. D. : Si l’on s’en tient à une mesure générale de la confiance, les résultats que nous obtenons aujourd’hui ne sont pas très différents de ceux dont on disposait avant la période Covid. Toutefois, cette crise a mis en lumière de nouveaux enjeux pour le grand public : d’une part l’importance de l’indépendance de la recherche scientifique et, de l’autre, la nécessaire vigilance concernant les manquements à l’intégrité scientifique. On se souvient notamment des soupçons qui ont pesé pendant la crise Covid sur certains experts en raison de leurs liens d’intérêts avec de grands groupes pharmaceutiques ; ces liens étant souvent interprétés comme étant autant de conflits d’intérêts. Dans notre échantillon 18-65 ans et plus, il n’y a qu’un répondant sur deux à considérer que la communauté scientifique est indépendante pour valider ses résultats.

Par ailleurs, le nombre croissant de rétractations d’articles de l’équipe de l’Institut Méditerranée infection à Marseille – plus de 40 aujourd’hui – illustre les préoccupations liées à la fiabilité des publications scientifiques pendant la crise Covid. Et ils ne sont aujourd’hui que 6 répondants sur 10 à considérer que les scientifiques suivent des règles éthiques strictes. Plus qu’une remise en cause de la science, cette double tendance souligne une attente croissante de transparence et de régulation dans la production du savoir qui n’est pas très différente de celle que l’on peut mesurer, par ailleurs, dans la communauté scientifique.

L’édition 2025 du baromètre contient une section consacrée à nos croyances en matière d’alimentation. Quels en sont les enseignements généraux ?

M. D. : Cette année, le baromètre de l’esprit critique a voulu en savoir plus sur les pratiques et les croyances alimentaires. Est-il vrai par exemple qu’après un excès alimentaire, une cure détox est efficace pour nettoyer l’organisme ? Est-il vrai que les compléments alimentaires permettent de corriger une mauvaise alimentation ? Ou encore : est-il vrai que les hommes ont besoin de plus de viande rouge que les femmes ? Toutes ces propositions sont fausses, mais qu’en est-il de leur diffusion dans l’espace public ? Les résultats suggèrent que les opinions erronées au sujet de l’alimentation sont relativement courantes : 8 répondants sur 10 adhèrent à au moins une proposition fausse en matière d’alimentation.

La maîtrise des savoirs varie selon plusieurs facteurs, notamment le genre, avec une meilleure connaissance observée chez les femmes par rapport aux hommes, mais plus encore en fonction de l’âge. En matière d’alimentation, plus on est âgé et plus on a de chances de faire la différence entre une proposition vraie et une proposition fausse. Les 15-24 ans semblent manquer de repères.

Ce n’est sans doute pas sans rapport avec la façon dont ils s’informent en général. Ils se distinguent de leurs aînés par l’importance qu’ils accordent à leur entourage et aux réseaux sociaux. Et pour les informations liées à l’alimentation, ils sont près de 7 sur 10 à faire confiance aux professionnels de la médecine douce et alternative, 1 sur 2 aux influenceurs sportifs ou aux youtubeurs. Des constats ciblés qui devraient faire réfléchir celles et ceux qui travaillent sur la communication des messages de santé publique.


Entretien réalisé par Aurélie Louchart.


Cet article est publié dans le cadre de la série « Regards croisés : culture, recherche et société », publiée avec le soutien de la Délégation générale à la transmission, aux territoires et à la démocratie culturelle du ministère de la culture.

The Conversation

Michel Dubois a reçu des financements de l'Agence Nationale de la Recherche et du programme cadre Horizon Europe de l'Union Européenne

20.03.2025 à 00:00

Pourquoi l’expansion de l’Univers accélère ? Les nouveaux résultats de la collaboration DESI apportent leur pierre à l’édifice

Pauline Zarrouk, Chercheuse CNRS en cosmologie au Laboratoire de Physique Nucléaire et des Hautes Energies (LPNHE), Sorbonne Université

Une nouvelle carte 3D de l’Univers permet de mieux comprendre le mystère de l’énergie noire.
Texte intégral (1791 mots)
Les galaxies s’organisent en grandes structures, les filaments cosmiques. DESI collaboration, Fourni par l'auteur

DESI est une grande campagne d’observation astronomique. Son but ? Mesurer avec précision la position des galaxies dans l’espace, afin de traquer la mystérieuse « énergie noire » qui dominerait la manière dont l’Univers est en expansion aujourd’hui.

Pour cela, plus de 900 scientifiques de plus de 70 institutions dans le monde entier se sont alliés. Aujourd’hui, nous dévoilons nos nouveaux résultats sur l’histoire de l’expansion de l’Univers.


C’est en Arizona (États-Unis), au milieu du désert, que se trouve notre télescope Mayall de DESI, situé à l’observatoire de Kitt Peak. Avec son miroir principal de quatre mètres de diamètre, il observe le ciel depuis mai 2021. En trois ans, il a mesuré 15 millions de galaxies, collectant à la fois leur position dans le ciel et leur distance, grâce à ses 5 000 petits yeux robotisés.

À partir de la position des galaxies et de leur distance, nous publions aujourd’hui la cartographie tridimensionnelle des grandes structures de l’Univers la plus précise à ce jour.

Avec cette carte, nous voulons répondre à un mystère qui rend perplexes les astrophysiciens depuis sa découverte, il y a vingt-cinq ans : non seulement l’Univers est en expansion (cela, nous le comprenons), mais cette expansion s’accélère. Pour décrire cette accélération, notre modèle actuel de l’Univers suppose l’existence d’une énergie noire dont la forme la plus simple est une « constante » cosmologique. Les tout nouveaux résultats de DESI, combinés avec d’autres données, suggèrent que cette énergie noire varie avec le temps : elle ne serait donc pas constante.

Si ces observations ne résolvent pas à elles seules le mystère de l’énergie noire, elles donnent des pistes concrètes et quantitatives sur lesquelles appuyer les explorations futures.


Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


La carte 3D des galaxies la plus précise à ce jour

Les galaxies ne sont pas réparties de manière aléatoire dans le ciel, comme on le voit sur la vidéo. Il y a des régions avec beaucoup de galaxies regroupées en amas ou en filaments, et d’autres régions sont beaucoup moins denses, qui forment des vides cosmiques. Cette structuration de la matière dépend de la gravité, qui attire les corps massifs entre eux, ainsi que du contenu de l’Univers en matière ordinaire, en matière noire et en énergie noire.

Les positions des 15 millions de galaxies observées par DESI en trois ans. Source : DESI collaboration and KPNO/NOIRLab/NSF/AURA/R. Proctor.

La technique d’analyse utilisée pour obtenir ces nouveaux résultats avec trois ans de données avait déjà été testée, raffinée et appliquée aux données collectées pendant un an par DESI. Elle s’appelle BAO, un acronyme plus sympathique que son nom complet (les « oscillations acoustiques des baryons » ou baryon acoustic oscillations).

Elle est fondée sur l’existence d’une distance caractéristique entre deux galaxies qui change uniquement à cause de l’expansion de l’espace-temps lui-même. En mesurant cette distance caractéristique à différents moments de l’histoire de l’Univers, nous retraçons son expansion au cours de temps et nous pouvons ainsi étudier la façon dont cette expansion s’accélère.

Les oscillations acoustiques des baryons ont une taille caractéristique qui change uniquement à cause de l’expansion de l’espace-temps lui-même. En étudiant ce motif, cette distance caractéristique entre deux galaxies, à différents moments de l’histoire de l’Univers, les chercheurs cartographient l’expansion de l’espace-temps afin de comprendre le mécanisme à l’origine de l’expansion accélérée de l’Univers au cours des derniers six ou sept milliards d’années. Gabriela Secara, Perimeter Institut, Fourni par l'auteur

DESI et notre compréhension de l’expansion de l’Univers

À ce jour, aucune théorie ne permet d’expliquer de manière satisfaisante le mécanisme à l’origine de l’accélération récente de l’expansion de l’Univers (il y a environ cinq ou six milliards d’années), d’où le nombre croissant de projets qui y sont consacrés.

Pour expliquer ce phénomène, le modèle actuel de la cosmologie suppose l’existence d’une composante exotique, appelée énergie noire, dont on cherche à déterminer les propriétés, en particulier si celles-ci évoluent avec le temps ou sont constantes.

Jusqu’à présent, c’est l’hypothèse la plus simple pour décrire l’énergie noire qui a été adoptée : il s’agit de la constante cosmologique, dont la valeur est déterminée par les observations, mais que l’on ne sait pas relier à un mécanisme physique.

Les nouveaux résultats de DESI avec trois ans de données sont en parfait accord avec ceux obtenus en avril dernier avec un an de données, et ils apportent les meilleures contraintes à ce jour sur les paramètres de notre modèle cosmologique actuel.

Toutefois, à mesure que la précision de nos données s’améliore, des craquelures dans le modèle commencent à surgir dès lors qu’on essaye d’expliquer, avec le même modèle, différentes observations de notre Univers.

De plus, les nouveaux résultats de DESI combinés à l’analyse des premiers photons émis dans l’Univers (fond diffus cosmologique) et des explosions d’étoiles (supernovae de type Ia) confirment la préférence pour un modèle où l’énergie noire varie au cours du temps — c’est ce que l’analyse avec un an de données avait déjà montré en avril et en novembre derniers. Cette préférence pour un modèle d’énergie noire dynamique par rapport à une constante cosmologique n’a pas encore atteint le seuil d’une découverte, mais s’est renforcée avec plus de données collectées par DESI.

Nous assistons peut-être à la fin de la constante cosmologique et à l’aube d’une avancée majeure sur la nature de l’énergie noire, plus de vingt-cinq ans après la découverte de l’accélération de l’expansion de l’Univers.

Un œil vers le futur

D’autres programmes d’observations du ciel visent également à sonder la nature de l’énergie noire et à tester la théorie de la gravité en utilisant la cartographie tridimensionnelle des galaxies comme DESI, mais aussi d’autres sondes cosmologiques.

Parmi ces autres sondes de l’Univers récent, deux sont particulièrement intéressantes et complémentaires de DESI : les supernovae de type Ia et le lentillage gravitationnel, qui provient des déformations de la forme des galaxies du fait de la présence de matière le long de la trajectoire des rayons lumineux.

Côté supernovae, l’analyse cosmologique des supernovae de type Ia du programme Zwicky Transient Facility (ZTF) en combinaison avec les données de DESI devrait apporter un éclairage prometteur.

Côté lentillage gravitationnel, le satellite européen Euclid, lancé en juillet 2023, et le programme décennal d’observation du ciel de l’observatoire Vera-Rubin (en construction au Chili, ndlr) — dont la première lumière est prévue pour l’été 2025 — apporteront de nouvelles données et de nouveaux résultats, qu’il sera très intéressant de comparer et de combiner avec l’échantillon final de DESI, d’ici fin 2026.

Le télescope DESI (en anglais). Source : National Science Foundation News.
The Conversation

Pauline Zarrouk a reçu des financements du CNRS Particules et Noyaux.

19.03.2025 à 12:32

« Severance » : le processus de réintégration décrypté par les neurosciences

Laetitia Grabot, Chercheur postdoctoral en neurosciences cognitives, École normale supérieure (ENS) – PSL

Comment les neurosciences expliquent-elles le processus de réintégration dans la série « Severance » ? Est-il crédible ?
Texte intégral (2677 mots)

La série de science-fiction Severance dépeint un monde dystopique où une opération chirurgicale permet de séparer ses souvenirs au travail de ses souvenirs liés à sa vie privée. La saison 2, qui cartonne et dont l’épisode final sera diffusé le 21 mars 2025, met en avant une procédure qui permettrait de réintégrer ces deux pans de la personnalité. Qu’en disent les neurosciences ?


Cet article contient des spoilers des épisodes 1 à 6 de la saison 2.

Dans la série Severance, les employés de Lumon Industries sont dissociés entre leur « moi du boulot » et le « moi de la maison ». Le premier est ainsi entièrement dévolu à ses tâches professionnelles, sans interférences dues aux aléas de la vie quotidienne, et le second libre de vaquer à sa vie privée sans charge mentale due au travail. Cependant, malgré la promesse d’un équilibre travail/vie privée strictement parfait, les protagonistes ne vivent pas si bien leur dissociation. Le personnage principal, Mark Scout, tente une procédure de réintégration de ses deux « moi ». C’est Reghabi, une ancienne employée rebelle de Lumon qui s’en charge.

Dans l’épisode 3 de la saison 2, elle enregistre l’activité du cerveau de Mark après avoir posé des électrodes sur sa tête, comme on le fait de nos jours avec l’électroencéphalographie. Deux tracés en forme de vagues sont visibles, chacun d’eux représentant une partie des souvenirs de Mark. La procédure consiste à resynchroniser ces deux tracés, c’est-à-dire à les réaligner, pour réintégrer les deux « moi ».

Ce processus serait crédible à l’aune des connaissances actuelles en neurosciences. Connaître les recherches sur le sujet permet d’apprécier de nouvelles subtilités dans cette série, qui soulèvent déjà de nombreuses questions.


Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Dissociation et réintégration des « moi »

L’activité cérébrale mesurée par électroencéphalographie, une technique qui consiste à poser des électrodes sur le cuir chevelu d’une personne, se présente effectivement sous forme de vagues d’activité. Les chercheurs étudient ce signal en le découpant en différentes oscillations, plus ou moins rapides, dont les noms correspondent à la liste de lettres grecques égrenées par Reghabi : delta, theta, alpha, beta, gamma.

L’activité du cerveau enregistrée par électroencéphalographie (EEG, tracé en bleu) peut être découpée en différentes signaux correspondant à différentes bandes de fréquences (tracés en noir), de la plus lentes (delta) à la plus rapide (gamma)
L’activité du cerveau enregistrée par électroencéphalographie (EEG, tracé en bleu) peut être découpée en différentes signaux correspondant à différentes bandes de fréquences (tracés en noir), de la plus lentes (delta) à la plus rapide (gamma). Données de l’auteur, CC BY-SA

Les oscillations delta sont par exemple très lentes, autour de 2 Hz, ce qui correspond à deux cycles par seconde, proche du rythme cardiaque après un effort, et souvent retrouvées pendant certaines phases du sommeil. Les oscillations gamma sont plus rapides, autour de 40 Hz (40 cycles par seconde), et sont impliquées dans de nombreuses fonctions cognitives comme la perception visuelle ou la mémoire.

Dans la série, la réintégration se produit lorsque Reighabi force les deux signaux correspondant aux deux « moi » de Mark à se resynchroniser. On pourrait ici faire un lien avec une question fondamentale en neurosciences cognitives : comment le cerveau combine-t-il les différentes informations qu’il reçoit (lumière, son, odeurs…) en une expérience consciente cohérente ?

Considérons une scène avec un ballon rouge et une chaise grise : chaque objet a plusieurs caractéristiques, comme sa couleur, sa forme ou le fait qu’il soit statique ou en mouvement. Chacun de ses aspects est traité par des parties différentes du cerveau. Comment ces informations dispersées sont-elles ensuite regroupées pour donner une perception unifiée de la scène ? Plus particulièrement, comment le cerveau sait-il qu’il faut associer la couleur rouge au ballon, et la couleur grise à la chaise ?

Le phénomène de synchronisation des oscillations a été proposé comme solution potentielle : deux populations de neurones, à deux endroits différents du cerveau, vont se synchroniser si elles traitent deux caractéristiques d’un même objet.

Lorsqu’on regarde cette image, on peut alterner entre la perception d’un unique visage (caché derrière le chandelier) ou de deux visages qui se font face. Deux populations de neurones traitant deux parties de l’image (matérialisés par deux cercles) se syn
Lorsqu’on regarde cette image, on peut alterner entre la perception d’un unique visage (caché derrière le chandelier) ou de deux visages qui se font face. Deux populations de neurones traitant deux parties de l’image (matérialisés par deux cercles) se synchroniseront si les deux parties s’intègrent pour former un même objet. Adapté de Engel et coll., 2001, CC BY-ND

Cette théorie a été proposée suite à une étude de référence sur des chats, auxquels des électrodes ont été implantées dans le cerveau. Ces électrodes ont permis de mesurer la réponse de groupes de neurones dans le cortex visuel, lorsque des barres lumineuses étaient présentées devant les yeux des chats. On savait déjà qu’un neurone communiquait en envoyant des impulsions électriques à ses voisins. Les auteurs ont remarqué que les neurones déchargeaient ces impulsions de manière rythmique, suivant une oscillation, alternant entre périodes de repos et périodes d’activité. La découverte la plus remarquable, c’est l’observation que différents groupes de neurones, éloignés l’un de l’autre, se synchronisaient entre eux seulement s’ils étaient activés par la même barre lumineuse.

Plus généralement, les neuroscientifiques ont proposé l’idée que la synchronisation de deux groupes de neurones éloignés leur permettait d’aligner leurs périodes d’activité et donc de pouvoir échanger des informations. La synchronisation de l'activité cérébrale serait donc un mécanisme important du traitement de l’information dans le cerveau car elle permettrait aux différents groupes de neurones du cerveau de communiquer entre eux. Dans Severance, on retrouve cette idée : réintégrer les deux « moi » se fait en resynchronisant l’activité cérébrale de chacun des « moi », ce qui permet de rétablir une communication entre les deux pans de la personnalité de Mark.

Synchronisation des neurones : peut-on repérer une personnalité dans une zone du cerveau ?

Là où la fiction se permet quelques libertés artistiques par rapport à la science, c’est lorsqu’un objet aussi complexe qu’un « moi » défini par ses souvenirs, désirs, et émotions est capturé et réduit à une oscillation. En réalité, chaque aspect du fonctionnement du cerveau (perception, attention, mémoire…) est associé à différents types d’oscillations cérébrales. Par exemple, les oscillations theta (entre 4 et 8 Hz), alpha (entre 8 et 12 Hz) et gamma (> 35 Hz) sont impliquées dans les processus attentionnels. La mémoire mobilise aussi les oscillations theta et gamma. Le simple fait de regarder une image sollicite plusieurs mécanismes impactant différentes régions du cerveau et reste encore partiellement incompris à ce jour. Ainsi, aucune de ces capacités ne peut être expliquée par une seule oscillation. Il n’est donc pas possible de résumer une personnalité complète à un endroit précis du cerveau ni de stocker deux personnalités différentes n’ayant rien en commun dans deux parties bien délimitées du cerveau.

Faisons donc l’hypothèse que chaque tracé sur l’oscilloscope représente la moyenne de multiples électrodes mesurant l’activité globale du cerveau de Mark, plutôt que de provenir d’une unique électrode. C’est toute l’activité de son cerveau qui se déphase donc lorsqu’il passe de son « moi du boulot » à son « moi privé », le déphasage étant probablement activé par la puce insérée dans son cerveau. Dans le cas de Mark, on ne veut pas seulement intégrer l’information de deux régions différentes du cerveau, mais on veut réintégrer deux cerveaux complets déphasés dans le temps ! On comprend pourquoi la procédure est douloureuse et occasionne des effets secondaires…

TMS et stimulation cérébrale : une méthode réelle pour « réaligner » les pensées ?

Une dernière question se pose : peut-on resynchroniser deux ondes cérébrales ? Dans la série, Reighabi utilise un dispositif de stimulation magnétique transcrânienne (ou TMS), une technique utilisée à la fois pour la recherche et le traitement de troubles neurologiques ou psychiatriques. Le principe est d’envoyer un champ magnétique localisé qui stimule l’activité des neurones. Dans l’épisode 3 de la saison 2, on voit Mark bouger ses doigts suite à l’usage de la TMS. C’est exactement ce qui arrive lorsqu’on stimule avec la TMS le cortex moteur, une région du cerveau qui dirige l’exécution de mouvements. Il est aussi possible d’induire des oscillations avec la TMS, en envoyant des impulsions rythmiques de champ magnétique. On l’utilise donc dans la recherche pour moduler des oscillations dans le cerveau et observer si ces perturbations de l’activité cérébrale ont un impact sur la perception ou d’autres fonctions cognitives.

Quant à l’utiliser pour resynchroniser deux cerveaux déphasés en une personnalité unifiée, cela supposerait d’appliquer la TMS sur le cerveau entier (alors que l’intérêt de cette technique est de pouvoir cibler une zone donnée, par exemple le cortex moteur, ou le cortex visuel). Or une synchronisation trop forte de nombreuses populations de neurones voir du cerveau entier, conduit à… une crise d’épilepsie. Ce que vit d’ailleurs probablement Mark dans l’épisode 6, bien qu’elle ait aussi pu être déclenchée par un problème dans la tentative de Reighabi d’inonder la puce à l’intérieur de son cerveau pour la rendre inefficace.

La synchronisation des oscillations apparaît donc comme un processus délicat, un ballet subtil où chaque partie du cerveau doit s’accorder avec les autres pour permettre le fonctionnement normal d’un cerveau. Décrypter les mystères des oscillations cérébrales demeure un défi captivant pour la recherche, car elles n’ont pas encore livré tous leurs secrets. Leur potentiel intrigant en fait également une source d’inspiration riche pour la science-fiction, comme l’a montré avec brio la série Severance.

The Conversation

Laetitia Grabot est membre du comité des Jeunes Chercheurs de TRF (Timing Research Forum) une société académique ouverte visant à promouvoir la recherche sur la perception du temps. Elle a reçu des financements de la FRC (Fédération pour la Recherche sur le Cerveau).

19.03.2025 à 12:32

Pourquoi a-t-on la sensation de tomber avant de s’endormir ?

Astrid Thébault Guiochon, Ingénieure et Enseignante, Université Lumière Lyon 2

Pourquoi sursaute-t-on parfois juste avant de sombrer dans le sommeil ? Que se passe-t-il réellement dans notre cerveau lorsqu’on s’endort ?
Texte intégral (1093 mots)

Après une journée fatigante, vous êtes enfin confortablement installé dans votre lit, prêt à tomber dans les bras de Morphée… quand soudain, votre corps sursaute, comme si vous tombiez dans le vide. Mais pourquoi notre cerveau nous joue-t-il ce tour juste avant de sombrer dans le sommeil ? Et d’ailleurs, que se passe-t-il réellement dans notre cerveau lorsqu’on s’endort ?


Ce « sursaut du sommeil » porte le nom de « secousse hypnique » (du grec upnos, qui signifie sommeil) ou myoclonie (toujours des termes grecs myo pour muscle, et clonie pour agitation) d’endormissement, en référence à la contraction musculaire brève qui en est à l’origine.

Il s’agit d’une contraction musculaire brève et involontaire qui survient au moment de l’endormissement. Elle peut toucher l’ensemble du corps ou se limiter à un groupe musculaire, comme les bras ou les jambes. Bien souvent, elles sont assez intenses pour nous tirer du sommeil, mais il arrive qu’elles soient assez légères pour ne pas s’en rendre compte.

D’une certaine manière, ces secousses ressemblent au hoquet, qui est lui aussi une myoclonie sauf qu’ici, c’est une partie bien plus grande du corps qui est impliquée.

Environ 70 % de la population en a déjà fait l’expérience au moins une fois dans sa vie, et cette secousse touche autant les femmes que les hommes.

Un endormissement mal synchronisé

Plusieurs théories ont été formulées quant à son origine, mais les scientifiques ne se sont, à ce jour, pas accordés sur une cause certaine.

L’une des théories répandues propose une explication assez simple : lorsqu’on s’endort, on passe par différentes phases de sommeil, jusqu’à atteindre le sommeil paradoxal (qui permet notamment de consolider les souvenirs, et de faire les rêves dont on se souvient au réveil). Ce serait ce passage entre sommeil léger et profond qui engendrerait une relaxation des muscles (l’atonie musculaire), parfois trop soudaine pour le corps. Ce relâchement musculaire soudain pourrait surprendre le cerveau, qui, en réaction à cette perte de tonus, déclencherait une contraction réflexe des muscles.

Un certain nombre de scientifiques parlent également d’un déséquilibre dans l’endormissement du cerveau. Le passage d’un état d’éveil à un état de sommeil est géré au sein du tronc cérébral qui intervient dans un grand nombre de fonctions vitales. Parfois, la transition entre l’éveil et le sommeil est assez instable pour que ce système envoie accidentellement des signaux vers les muscles, qui vont alors se contracter.


Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Un vestige évolutif

Une autre hypothèse repose sur une erreur d’interprétation du cerveau. Lorsqu’on s’endort, nos muscles se relâchent progressivement, notre respiration ralentit et notre rythme cardiaque diminue. Or, le cerveau pourrait interpréter cette détente musculaire soudaine comme une chute, déclenchant un réflexe primitif de sursaut pour éviter un danger potentiel. Cette théorie trouve ses racines dans notre passé évolutif : nos ancêtres dormaient parfois en hauteur (sur des branches, des rochers…) et un relâchement incontrôlé du corps pouvait être synonyme de chute dangereuse. Ce réflexe serait donc un vestige de ce mécanisme de protection.

Cette vigilance résiduelle du cerveau ne se limite d’ailleurs pas aux secousses hypniques : elle se retrouve aussi dans l’effet de première nuit.

Il n’est pas rare, lorsqu’on dort dans un nouvel endroit pour la première fois, de mal dormir, ou moins bien dormir que d’habitude, et l’évolution semble aussi en être la cause. Lors de cette première nuit, une partie de notre cerveau, et plus précisément l’hémisphère gauche, reste plus éveillée que l’autre. L’objectif ? Surveiller l’environnement pour détecter d’éventuelles menaces pour se réveiller rapidement en cas de danger.

Un mécanisme de protection que l’on retrouve aussi chez certaines espèces animales, comme les oiseaux et les dauphins, qui dorment avec un hémisphère (et même un œil) éveillé pour rester en alerte.

Quand notre mode de vie s’en mêle

L’évolution n’est bien sûr pas la seule fautive possible. Certains facteurs peuvent également favoriser ces sursauts nocturnes : le stress, la consommation excessive de caféine ou de nicotine, et même certains médicaments !

Si ces sursauts nocturnes peuvent être surprenants, voire agaçants, ils restent totalement bénins dans la grande majorité des cas. Ils rappellent simplement que la transition entre l’éveil et le sommeil est un mécanisme complexe, encore imprégné des traces de notre passé évolutif.

The Conversation

Astrid Thébault Guiochon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

17 / 25
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Monde Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
  CULTURE / IDÉES 1/2
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  IDÉES 2/2
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
  FIABILITÉ LIMITÉE
Contre-Attaque
Issues
Korii
Positivr
Regain
Slate
Ulyces
🌓