08.12.2025 à 16:17
Fabrice Lollia, Docteur en sciences de l'information et de la communication, chercheur associé laboratoire DICEN Ile de France, Université Gustave Eiffel
Antananarivo, 12 octobre 2025, le président Rajoelina a pris la fuite et l’armée s’est emparée du pouvoir, à l’issue d’une vaste mobilisation de la jeunesse, largement alimentée par la circulation d’images et d’informations sur les réseaux sociaux. Une enquête conduite peu après les événements montre la façon dont les Malgaches construisent leur vision de la vie politique dans l’espace numérique.
En septembre 2025, alors que la crise socio-politique s’intensifie à Madagascar, une réalité s’impose discrètement mais puissamment : l’essentiel du débat public ne se joue plus sur les ondes ni dans les colonnes des journaux, mais dans les flux rapides et émotionnels de Facebook et WhatsApp. En quelques minutes, une rumeur peut mobiliser, inquiéter, rassurer ou diviser. En quelques heures, elle peut redessiner la perception collective d’un événement.
Les résultats de notre récente enquête menée auprès de 253 répondants, complétés par 42 contributions qualitatives, révèlent que la crise est autant une crise politique qu’une crise de médiation où les réseaux sociaux deviennent les principaux architectes du réel. Derrière la simple perception de réseaux sociaux dédiés à la transmission d’informations, ils façonnent les émotions, orientent les interprétations et reconfigurent la confiance.
Ce basculement, largement anticipé par les sciences de l’information et de la communication (SIC), s’observe ici avec une netteté particulière. Les médiations traditionnelles (radio, télévision, presse) cèdent du terrain à des dispositifs socio-techniques qui redéfinissent la manière dont les citoyens perçoivent, réagissent… et croient.
Derrière la crise malgache, c’est donc une transformation plus profonde qui apparaît. C’est celle d’un espace public recomposé où l’attention, l’émotion et la vitesse deviennent les nouveaux moteurs de l’opinion malgache.
Le déplacement observé dans l’enquête – de la radio et de la presse vers Facebook et WhatsApp – illustre ce que Louise Merzeau appelait une médiation environnementale. C’est-à-dire que l’information ne circule plus dans des canaux distincts mais s’inscrit dans un environnement continu, ubiquitaire, où chacun est simultanément récepteur et relais.
Dominique Cardon rappelait que les plateformes numériques transforment la visibilité publique selon des logiques de hiérarchisation algorithmique qui ne reposent plus sur l’autorité éditoriale mais sur la dynamique attentionnelle.
L’enquête confirme ce point : les Malgaches ne s’informent pas sur les réseaux, ils s’informent dans les réseaux, c’est-à-dire dans un écosystème où la temporalité, la viralité et l’émotion structurent la réception de l’information.
Conformément à un phénomène analysé dans les travaux de Manuel Castells, nous passons d’un modèle de communication de masse vertical à un modèle de « mass self communication », intensément horizontal, instantané et émotionnel.
Yves Jeanneret indiquait que la communication n’est pas un simple transfert d’informations mais un processus qui transforme les êtres et les formes. Les résultats de l’enquête malgache confirment cette thèse.
L’enquête montre que 48 % des répondants déclarent avoir modifié leur opinion après avoir consulté des contenus numériques. Ce chiffre illustre ce que Jeanneret appelle « la performativité des dispositifs » : les messages ne se contentent pas de signifier ; ils organisent des parcours d’interprétations, orientent des sensibilités et éprouvent des affects.
La crise malgache est ainsi moins une crise de l’information qu’une crise des médiations, où l’autorité symbolique se déplace vers des acteurs hybrides (groupes WhatsApp, influenceurs locaux, communautés émotionnelles, micro-réseaux sociaux affinitaires).
Les données de l’enquête – les répondants disent éprouver colère, peur, tristesse mais aussi espoir – confirment le constat formulé par Yves Citton selon lequel nous vivons dans un régime d’attention émotionnelle où les affects structurent la réception bien plus que les faits.
La viralité observée relève de ce que Morin nommait la logique dialogique. C’est-à-dire que le numérique agrège simultanément les forces de rationalisation (recherches d’informations, vérification) et les forces d’irrationalité (panique, rumeurs, indignation…). Ce qui circule, ce ne sont pas seulement des informations, ce sont des structures affectives, des dispositifs d’émotion qui modulent les perceptions collectives. Danah Boyd évoquait à ce propos le « context collapse », à savoir l’effondrement des cadres sociaux distincts qui expose les individus à des flux ininterrompus d’émotions hétérogènes sans médiation contextuelle.
Dans ce paysage, l’émotion devient un raccourci cognitif, un critère de vérité, voire un mode d’appartenance.
Dominique Wolton insistait sur le fait que la communication politique repose d’abord sur un contrat de confiance et non sur la quantité d’information disponible. L’enquête malgache montre que ce contrat est rompu : il en ressort que les réseaux sociaux sont jugés peu fiables (2,4/5) mais sont massivement utilisés ; que les médias traditionnels sont perçus comme prudents ou silencieux ; que la parole institutionnelle est jugée trop lente ; et que les algorithmes sont accusés de censure.
En résulte une fragmentation du récit national, chaque groupe social reconstruisant son propre réel, comme l’ont montré Alloing et Pierre dans leurs travaux sur les émotions et la réputation numérique. La crise révèle ainsi une dissociation entre l’autorité de l’information (affaiblie) et l’autorité des narratifs (renforcée).
Réduire la situation à un phénomène de « fake news » serait, pour reprendre Morin, une « erreur de réduction ». La désinformation n’est ici que la surface visible d’un phénomène bien plus profond, qui est celui de la vulnérabilité cognitive structurelle. Elle repose sur : la saturation attentionnelle, la rapidité des cycles émotionnels, la fragmentation des médiations, le déficit de littératie médiatique et l’architecture algorithmique des plates-formes.
L’ensemble de ces éléments forment un écosystème au sens de Miège, dans lequel l’information et la communication ne peuvent être séparées des logiques techniques, économiques et sociales qui les produisent. C’est dans ce cadre que la souveraineté cognitive devient une question stratégique comparable à ce que Proulx appelait la nécessité de « réapprendre à habiter en réseaux ».
L’enquête révèle l’urgence, à Madagascar, d’opérer une transition cognitive. Cela implique une veille capable de détecter rapidement les signaux faibles, une communication publique adaptée au rythme émotionnel des plateformes, une éducation critique aux biais de réception et une coopération structurée entre État, régulateurs, société civile et plateformes pour encadrer la circulation des contenus.
Ces pistes s’inscrivent dans la perspective d’un « État élargi », c’est-à-dire un État qui reconnaît que la stabilité collective dépend désormais de nouveaux acteurs : infrastructures numériques, entreprises technologiques, médias sociaux, communautés connectées. Dans ce modèle, la confiance devient une infrastructure qui est le socle indispensable au fonctionnement de la vie publique, à l’image de l’électricité ou des réseaux de communication.
La crise malgache de 2025 n’est pas un accident. C’est un révélateur des transformations profondes de nos sociétés numériques. Elle montre un espace public recomposé où s’entremêlent architectures techniques globales, émotions collectives locales et médiations affaiblies. Elle a aussi entraîné une prise de conscience au sein des médias malgaches, qui développent désormais une approche plus réflexive sur ces enjeux. Comme l’écrivait Merzeau, « la mémoire est un milieu » ; en 2025, à Madagascar, le réel l’est devenu aussi.
Le défi dépasse largement la lutte contre la désinformation. Il s’agit désormais de reconstruire des médiations fiables, capables d’articuler faits, émotions et légitimité dans une écologie informationnelle où le vrai ne circule plus seul, mais au milieu de récits concurrents, d’affects partagés et d’algorithmes invisibles.
Fabrice Lollia ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
08.12.2025 à 16:16
Jad Eid, Professeur de biophysique et bio-informatique, École de Biologie Industrielle (EBI)
Comment aider notre corps à se réparer après une blessure ? Trouver et produire les bonnes molécules qui stimulent la régénération cellulaire reste un défi pour la médecine régénérative. Mais l’intelligence artificielle assiste maintenant les chercheurs pour réussir à concevoir le composé chimique idéal.
La médecine pourra-t-elle un jour réparer durablement des tissus ou des organes gravement blessés ? Derrière cette question se cache un enjeu central de la médecine régénérative : contrôler finement le comportement des cellules. C’est ce qui permettra de maîtriser des processus déterminants tels que la cicatrisation, la croissance de nouveaux tissus ou encore la capacité des cellules à bien s’accrocher à leur environnement.
Lorsqu’un tissu est endommagé, les cellules ne savent pas, à elles seules, comment s’organiser pour le réparer. Elles s’appuient pour cela sur les signaux présents dans leur environnement immédiat, la matrice extracellulaire. Cette matrice est formée d’un réseau dense de protéines et de sucres qui non seulement soutient physiquement les cellules, mais leur fournit aussi des informations essentielles pour s’orienter, s’agréger ou migrer. À cette échelle, elle joue un rôle comparable à une cartographie biologique : elle indique aux cellules où aller, comment se fixer et quelles fonctions activer pour que la réparation tissulaire puisse se dérouler correctement. Mais parfois, ces mécanismes échouent à régénérer complètement les tissus.
Et si l’intelligence artificielle (IA) pouvait nous aider à franchir un cap dans ce domaine ? Aujourd’hui, les chercheurs explorent une voie émergente : concevoir, avec l’aide de l’IA, de nouvelles protéines capables de guider et de stimuler la régénération des tissus abîmés, là où les cellules ne réagissent plus spontanément. L’objectif est d’imaginer des molécules qui envoient aux cellules les bons signaux, au bon endroit et au bon moment, pour relancer un processus de réparation insuffisant ou défaillant.
À terme, cette nouvelle façon de concevoir des protéines, appuyée par l’IA, pourrait contribuer au développement d’implants dits intelligents, de pansements bioactifs ou de thérapies personnalisées capables de dialoguer avec les cellules du patient. On peut imaginer, par exemple, un implant conçu pour interagir finement avec la matrice et les récepteurs cellulaires, afin d’accélérer la régénération d’un tissu après une chirurgie ou une blessure, de manière rapide, contrôlée et durable.
Au sein du laboratoire EBInnov de l’École de biologie industrielle, nous concevons des protéines simplifiées. Plutôt que d’utiliser une protéine naturelle dans son intégralité – qui sera fragile, longue et complexe à produire – nous en découpons les parties utiles qui permettent aux cellules de s’accrocher, de se déplacer vers une zone à réparer ou de recevoir un signal pour activer la cicatrisation. Cette stratégie repose sur le génie génétique : nous modifions et réassemblons l’ADN codant la protéine, puis nous l’exprimons biologiquement en laboratoire grâce à des bactéries modifiées.
Le recours à cette approche est motivé par deux impératifs scientifiques et industriels. D’un côté, nous obtenons une molécule plus simple, plus stable et plus facile à fabriquer que la protéine complète. De l’autre, nous pouvons tester plus précisément les fonctions que nous visons sans être perturbés par des régions de la protéine d’origine qui ne sont pas nécessaires, voire parfois gênantes.
La migration cellulaire se joue à petite échelle : il s’agit d’un déplacement local sur quelques micromètres, réalisé par des cellules de la peau ou du tissu conjonctif qui se dirigent vers une zone lésée pour déclencher la réparation du tissu. Ce guidage repose sur la signalisation cellulaire, un langage biochimique basé sur la reconnaissance et l’échange de motifs moléculaires, permettant aux cellules d’activer les bonnes réponses au bon moment. C’est ce langage que nous essayons d’apprendre et de maîtriser.
Observer expérimentalement la structure 3D et les interactions entre protéines reste aujourd’hui lent et coûteux, car ces approches nécessitent des infrastructures lourdes et de l’expertise. À l’inverse, les méthodes récentes d’IA permettent d’inférer des formes tridimensionnelles très réalistes et très précises à partir de larges jeux de données.
Ces modèles apprennent les règles statistiques et physiques du repliement moléculaire, en s’entraînant sur des milliers de structures biologiques déjà élucidées. Cela fournit un avantage stratégique : évaluer virtuellement si une molécule conçue conservera ses zones d’interaction correctement exposées et atteignables par les récepteurs cellulaires, avant de la produire au laboratoire, réduisant ainsi le nombre d’essais exploratoires nécessaires in vitro.
Cette synergie entre design génétique simplifié, modélisation 3D par IA et simulations d’interactions moléculaires nous permet de rationaliser nos choix expérimentaux et d’anticiper la compatibilité biologique des protéines. Cela accélère aussi la conception de nouvelles biomolécules pour des matériaux thérapeutiques et cosmétiques bioactifs, tout en renforçant une ingénierie moléculaire guidée par les données et la simulation.
Comprendre l’efficacité d’une protéine conçue en laboratoire impose de relier deux échelles : celle du corps humain et celle des interactions moléculaires, où tout se joue à la taille de quelques atomes et de quelques nanomètres. Une protéine est une chaîne d’éléments minuscules, des acides aminés, qui s’assemblent puis se plient spontanément pour former une architecture 3D. C’est cette forme qui lui permet ensuite d’agir comme un point d’ancrage, un message chimique ou un guide pour les cellules qui doivent réparer un tissu.
Un point essentiel est donc la prédiction de la structure tridimensionnelle de la protéine, c’est-à-dire la façon dont elle va se replier dans l’espace en fonction de la séquence d’acides aminés qui la composent. Cette tâche, historiquement difficile, a connu une transformation radicale avec l’émergence des modèles d’intelligence artificielle. Ces modèles sont entraînés sur de vastes bases de données combinant des séquences d’acides aminés et des structures déjà connues expérimentalement. Ils apprennent ainsi à établir un lien statistique entre la séquence et la forme finale de la protéine.
Concrètement, ils sont capables de prédire comment une protéine va se replier, un peu comme si l’on devinait la forme finale d’un origami complexe en ne connaissant que les plis de départ. Ils fournissent une forme 3D plausible en estimant, avec une grande précision, les distances entre acides aminés, les angles de repliement locaux et l’organisation spatiale des différentes régions de la protéine.
Dans notre projet, ces prédictions constituent une première évaluation critique de la cohérence structurale de la molécule que nous concevons expérimentalement. Elles nous permettent d’identifier les zones où les différentes parties de la molécule s’articulent entre elles et de repérer d’éventuels conflits de forme où une zone en gênerait une autre. Nous pouvons aussi localiser des régions potentiellement désordonnées ou trop flexibles et anticiper l’impact de ces caractéristiques sur la stabilité globale de la protéine et sur l’accessibilité de ses zones d’interaction.
Une molécule n’agit jamais seule : son efficacité dépend de sa capacité à interagir avec d’autres partenaires biologiques, au sein d’un environnement dense comme la matrice extracellulaire, où de nombreuses protéines, récepteurs et signaux coexistent en permanence.
C’est pourquoi, au-delà de la structure isolée, nous avons utilisé des approches de modélisation pour étudier comment notre molécule se comporte au contact de différents partenaires clés de la matrice. Cette phase d’analyse des interactions est essentielle : l’efficacité biologique d’une molécule dépend non seulement de sa capacité à se lier à ses cibles, mais aussi de la stabilité de ces liaisons dans le temps et de leur bonne compatibilité avec les récepteurs concernés.
Pour nous rapprocher des conditions biologiques réelles, nous avons simulé des systèmes complexes proches des tissus réels où des dizaines ou centaines de protéines identiques interagissent en même temps avec leurs cibles. Cela permet d’explorer des phénomènes de coopération entre molécules, de tester la robustesse des contacts lorsqu’elles sont nombreuses et d’analyser comment les domaines actifs se répartissent dans un espace tridimensionnel dense. Cette simulation nous permet de déterminer si les multiples copies de la protéine restent capables d’interagir ensemble sans perdre leur lisibilité biologique et sans se gêner physiquement.
Ces simulations fournissent des indices précieux sur la capacité de la molécule à maintenir des interactions efficaces malgré les contraintes physiques et géométriques de son environnement. Elles nous permettent de rationaliser la conception expérimentale, d’écarter certains scénarios peu prometteurs avant de passer à la paillasse, et ainsi de mieux cibler les expériences in vitro qui seront réellement informatives.
Ces approches ne remplacent pas l’expérience : elles nous permettent surtout de comprendre à l’avance si une molécule produite par génie génétique a la bonne forme, si elle garde ses zones d’action accessibles, et si elle peut maintenir des interactions solides dans un environnement aussi encombré que la matrice extracellulaire du corps humain. En bref, l’IA nous aide à mieux concevoir et à éviter de tester à l’aveugle, pour que les expériences menées ensuite sur de vraies cellules soient plus ciblées, pertinentes et rapides.
Si l’IA ouvre aujourd’hui un champ immense pour concevoir des protéines bioactives et des matériaux capables d’orienter la réparation des tissus, plusieurs verrous persistent encore dans la recherche académique. En premier lieu, il reste difficile de prédire la dynamique de la conformation des protéines sur de très longues échelles de temps. Un autre obstacle réside dans notre capacité à modéliser fidèlement tous les composants d’un tissu réel. Les prochaines étapes consistent donc à renforcer encore cette boucle vertueuse entre IA et biologie expérimentale, en intégrant davantage de données biologiques, en évaluant plus finement la tenue des interactions multiples et en préparant les validations in vitro les plus informatives possible.
Jad Eid ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
08.12.2025 à 11:46
Riadh Manita, Professor of Accounting and Auditing, Neoma Business School
Sabri Boubaker, Professor of Finance, EM Normandie

Comment récolter cette somme colossale ? Une étude menée auprès de 42 pays souligne que la stabilité institutionnelle permet d’assurer le développement de la finance verte. Ses conclusions sont nettes et sans bavure : les pays avec un cadre réglementaire solide s’en sortent le mieux.
La planète réclame une facture colossale : 3 859 milliards d’euros par an jusqu’en 2050 pour éviter le chaos climatique, selon l’Agence internationale de l’énergie. L’écart reste abyssal entre cette urgence climatique et les capitaux levés pour financer cette transition.
Notre étude couvrant 42 pays entre 2007 et 2023 rappelle une bonne nouvelle : la finance verte se déploie durablement là où les États offrent un cadre clair et cohérent.
Comment, concrètement, fonctionne cette corrélation?
Nos résultats montrent que plus un pays adopte des politiques environnementales ambitieuses, plus le volume d’obligations vertes émises sur son territoire augmente.
L’indice utilisé dans cette étude, fondé sur les données de l’Agence internationale de l’énergie, recense l’ensemble des mesures environnementales adoptées dans le monde. Il correspond au nombre total de lois, réglementations et plans d’action environnementaux en vigueur dans chaque pays. Plus ce stock de règles est élevé, plus le cadre climatique national apparaît développé, prévisible et crédible pour les investisseurs.
Ce lien s’explique par un mécanisme simple : un environnement réglementaire clair réduit l’incertitude sur les futures politiques climatiques. Les émetteurs d’obligations vertes savent quelles activités seront financées, tandis que les investisseurs disposent d’un cadre pour évaluer la rentabilité des projets. De facto, la demande d’obligations vertes croît, réduit leur prime de risque, et stimule mécaniquement leur volume d’émission.
Cette dynamique se vérifie particulièrement en Europe. Selon l’Agence européenne de l’environnement, la part des obligations vertes dans l’ensemble des obligations émises par les entreprises et les États de l’Union européenne est passée d’environ 0,1 % en 2014 à 5,3 % en 2023, puis 6,9 % en 2024.
Dans ce contexte, la taxonomie verte européenne et le reporting obligatoire sur les risques climatiques et les indicateurs ESG – CSRD, SFDR– instaurent un cadre d’investissement harmonisé, facilitant l’allocation de capitaux vers les actifs verts.
À lire aussi : À quoi servent les obligations vertes ?
La France illustre cette dynamique européenne. Elle ouvre la voie dès 2017 avec une obligation verte de sept milliards d’euros sur vingt-deux ans, émise par l’Agence France Trésor. Selon une étude de la Banque de France, les obligations souveraines vertes de la zone euro offrent en moyenne un rendement inférieur de 2,8 points de base (0,028 point de pourcentage) à celui d’obligations souveraines classiques comparables. Cet écart, faible mais régulier, est interprété par la Banque de France comme une « prime verte ». Concrètement, les investisseurs acceptent de gagner un peu moins pour détenir des titres verts.
À ce jour, les gouvernements du monde entier ont adopté environ 13 148 réglementations, cadres et politiques visant à atteindre la neutralité carbone d’ici 2050.
En Chine, les réformes des critères ESG en 2021 et 2022, ainsi que leur alignement avec les standards internationaux, ont placé le pays parmi les tout premiers émetteurs mondiaux d’obligations vertes, selon la Climate Bonds Initiative. En Afrique du Nord, l’Égypte s’est lancée avec une première obligation souveraine verte en 2020, soutenue par la Banque mondiale.
Dans ces économies, un cadre réglementaire stable est également associé, dans nos données, à des maturités moyennes pondérées plus longues pour les obligations vertes. Lorsque le cadre réglementaire se renforce, les obligations vertes présentent en moyenne des échéances de dix à vingt ans, plutôt que de quelques années seulement. L’enjeu : financer des projets de long terme, comme des infrastructures énergétiques ou de transport.
L’effet des politiques climatiques sur la finance verte est particulièrement marqué dans les économies « vulnérables sur le plan énergétique ». Dans notre étude, nous avons utilisé deux indicateurs : la part des importations nettes d’énergie dans la consommation nationale et l’intensité énergétique (consommation d’énergie rapportée au PIB).
À titre d’illustration, des pays européens fortement importateurs d’énergie, comme l’Italie ou l’Espagne, et des économies émergentes à forte intensité énergétique, comme l’Inde ou l’Indonésie, présentent ce profil de vulnérabilité.
Nous classons ensuite les pays de notre échantillon selon leur degré de vulnérabilité énergétique à partir de ces deux indicateurs. Lorsque l’on compare l’évolution des émissions d’obligations vertes dans les économies les plus vulnérables à celle observée dans les autres pays de l’échantillon, on constate qu’un même durcissement des politiques climatiques s’y traduit par une augmentation nettement plus rapide du recours à la finance verte.
En Europe, la crise énergétique de 2022 et le lancement de REPowerEU ont profondément reconfiguré le lien entre politique climatique et sécurité énergétique.
Face à la flambée des prix du gaz, l’Union européenne a accéléré la réduction de sa dépendance aux combustibles fossiles importés. Selon le Conseil de l’Union européenne, la part du gaz russe dans ses importations de gaz est passée de plus de 40 % en 2021 à environ 11 % en 2024 pour le gaz acheminé par gazoducs ; à moins de 19 % si l’on inclut le gaz naturel liquéfié. Dans le même temps, la capacité solaire de l’Union européenne a presque triplé depuis 2019 pour atteindre un peu plus de 300 GW en 2024, et les énergies renouvelables ont fourni près de 47 % de l’électricité européenne.
Ces transformations s’accompagnent d’un effort d’investissement massif. La Commission européenne a décidé de lever jusqu’à 30 % du plan NextGenerationEU sous forme d’« obligations vertes NextGenerationEU », soit un volume potentiel d’environ 225 milliards d’euros. De leur côté, plusieurs États membres ont mis en place des programmes souverains importants : en France, l’encours des obligations assimilables du Trésor vertes (OAT vertes) atteignait environ 70 milliards d’euros fin 2023.
Pour les décideurs, l’enjeu n’est donc pas de multiplier les annonces, mais de fixer un cap crédible dans la durée.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.