17.11.2025 à 16:04
Biodiversité alimentaire, microbiote et bien-être : la recherche explore les liens potentiels
Texte intégral (2198 mots)
Une alimentation variée en termes de diversité d’espèces végétales consommées est essentielle à la santé pour son apport en fibres et en nutriments. La recherche s’intéresse à cette biodiversité alimentaire qui pourrait aussi se révéler précieuse pour le bien-être mental, notamment par l’entremise du microbiote intestinal.
L’industrialisation de l’agriculture et le développement de l’industrie agroalimentaire ont favorisé les monocultures induisant une baisse drastique de la biodiversité alimentaire, depuis le XXe siècle.
Actuellement, douze espèces végétales et cinq espèces animales fournissent 75 % des cultures alimentaires mondiales, selon l’organisation non gouvernementale World Wide Fund (WWF). Et trois espèces végétales sont produites majoritairement dans le monde : le maïs, le blé et le riz, malgré une estimation de plus de 7 000 (peut-être même 30 000) espèces végétales comestibles, rappelle l’Organisation des Nations unies pour l’alimentation et l’agriculture (FAO).
De l’intérêt de la biodiversité alimentaire pour le microbiote intestinal
Il est important de différencier la diversité alimentaire qui représente la consommation de grands groupes alimentaires comme les produits laitiers ou les fruits et les légumes… de la biodiversité alimentaire qui prend en compte chaque espèce biologique (animale et végétale) consommée par un individu.
Par exemple, si un individu mange des carottes, des poivrons et des artichauts, en termes de diversité alimentaire, un seul groupe – celui des légumes – sera comptabilisé, contre trois espèces en biodiversité alimentaire. Or, tous les légumes n’apportent pas les mêmes nutriments et molécules actives. La biodiversité alimentaire est donc importante pour couvrir tous nos besoins.
Une fois ingérés, les aliments impactent notre organisme, et ce, jusqu’au cerveau, notamment via le microbiote intestinal. Le microbiote intestinal représente l’ensemble des microorganismes (bactéries et autres) qui se trouvent dans le tube digestif, en particulier au niveau du côlon. Cela représente un écosystème complexe avec environ 10 000 milliards de microorganismes.
Un microbiote sain et équilibré est caractérisé par une grande diversité bactérienne et la présence de certaines espèces bactériennes. L’état de santé ou l’alimentation peuvent moduler la composition de notre microbiote en quelques jours. Par ailleurs, l’impact de l’alimentation pourrait, après plusieurs mois, se répercuter sur le bien-être mental.
Fibres, microbiote, neurotransmetteurs et bien-être mental
Parmi les molécules de notre alimentation, qui impactent de façon bénéfique notre microbiote, se trouvent les fibres végétales. Ces longues chaînes glucidiques ne sont pas hydrolysées par les enzymes humaines, mais constituent le substrat principal de bactéries importantes du microbiote. En dégradant les fibres, des métabolites sont produits par certaines bactéries (par exemple, Bifidobacterium, Lactobacillus, des espèces du phylum des Bacillota), dont les acides gras à chaîne courte (AGCC) : acétate, propionate et butyrate.
Le butyrate, en particulier, agit sur certains paramètres biologiques et pourrait exercer des effets bénéfiques sur la santé physique et mentale. En effet, le butyrate module la réponse immunitaire par stimulation des cellules immunitaires et exerce une action anti-inflammatoire en augmentant l’expression de certains gènes. Il permet également de diminuer la perméabilité de l’épithélium intestinal et donc de limiter le passage de molécules inflammatoires ou toxiques dans la circulation sanguine.
Par ailleurs, certains neurotransmetteurs comme la sérotonine, l’acide gamma-aminobutyrique (GABA) ou la dopamine sont synthétisés à partir de précurseurs apportés par l’alimentation.
L’augmentation de la concentration des précurseurs suivants aurait un impact positif sur le cerveau :
le tryptophane (présents notamment dans le riz complet, les produits laitiers, les œufs, la viande et le poisson, les fruits à coque…) pour la sérotonine ;
le glutamate qui représente 8 à 10 % de la teneur en acides aminés dans l’alimentation humaine, les acides aminés étant les constituants de base des protéines alimentaires (on retrouve le glutamate dans les produits laitiers, graines oléagineuses, viandes et produits de la mer). Il est le précurseur du neurotransmetteur GABA (qui est également directement présent dans le riz brun germé ou les aliments fermentés) ;
la tyrosine (présente notamment dans les fromages à pâtes pressées cuites, les graines de soja ou la viande) pour la dopamine.
De l’intérêt de consommer davantage de fibres végétales
Il est recommandé de consommer de 25 grammes à 38 grammes de fibres quotidiennement, apportées via la consommation de végétaux (cf. tableau ci-après). Or la moyenne française en 2015 était inférieure à 18 grammes d’après une étude de Santé publique France.
On soulignera néanmoins que, lorsqu’on souhaite augmenter son apport en fibres, pour éviter les effets indésirables de leur fermentation dans le colon, il est conseillé de les réintroduire progressivement dans son alimentation au cours de plusieurs semaines.
Favoriser aussi un bon ratio oméga-3/oméga-6, vitamines, minéraux, etc.
Enfin, d’autres nutriments jouant un rôle important sur la santé mentale par une action directe sur le cerveau ont aussi une action indirecte en modulant le microbiote intestinal ou en étant précurseurs de métabolites bactériens ayant un effet au niveau du système nerveux central (qui inclut le cerveau).
Ainsi, un ratio équilibré oméga-3/oméga-6 (1 :4) exerce des effets bénéfiques sur le microbiote intestinal. Mais dans l’alimentation occidentale, le ratio est déséquilibré en faveur des oméga-6, ce qui engendre un état inflammatoire.
Les aliments les plus riches en oméga-3 sont issus de végétaux terrestres (l’huile de lin, de colza, etc.) et d’animaux marins (les poissons gras comme le saumon, le maquereau, le hareng, la sardine et l’anchois, etc.), explique l’Agence nationale de sécurité sanitaire (Anses). En revanche, l’huile de tournesol et de pépin de raisin sont très riches en oméga-6, participant ainsi au déséquilibre des apports.
Une alimentation riche en polyphénols (certaines épices, cacao, baies de couleur foncée, artichauts…) confère également des effets bénéfiques anti-inflammatoires via la modification du profil du microbiote intestinal.
Enfin, les vitamines ou minéraux participent aux fonctions de base de l’organisme.
Quels aliments apportent quelles classes de nutriments ?
Une alimentation biodiversifiée permet un apport complet de tous ces nutriments (cf. les recommandations sur le site de l’Anses et du Programme national nutrition santé [PNNS]). Des données existent sur la teneur moyenne en nutriments de ces aliments et leur saisonnalité (site Ciqual). Cependant, les aliments n’apportent pas tous les mêmes classes de nutriments.
Pour donner un exemple concret, un artichaut cuit contient assez de fibres (11 g/100 g) pour satisfaire les besoins journaliers, mais sera pauvre en vitamine C (moins de 0,5 mg/100 g), contrairement au brocoli cuit plus riche en vitamine C (90 mg/100 g), mais assez pauvre en fibre (2,4 g/100 g). Ainsi, la prise en compte de la biodiversité alimentaire est essentielle pour évaluer les apports totaux en ces différents nutriments.
Afin d’avoir un bon état de santé physique et mentale, il est recommandé de diversifier les sources alimentaires pour couvrir l’ensemble des besoins. Cependant, la disponibilité en aliments varie selon les saisons. Le tableau ci-dessous présente quelques propositions d’associations d’aliments de saison pour couvrir nos besoins quotidiens en fibres.
Exemples d’aliments de saison à consommer pour avoir un apport journalier suffisant en fibres totales (Sources : Ciqual et ministère de l’agriculture et de la souveraineté alimentaire)
L’impact des PFAS, pesticides et perturbateurs endocriniens à ne pas négliger
A contrario, l’organisme est impacté négativement par d’autres facteurs, comme l’exposome qui représente l’ensemble des expositions environnementales au cours de la vie.
Ainsi, les xénobiotiques (par exemple, les pesticides), qui impactent la croissance et le métabolisme des bactéries du microbiote intestinal, qui, en retour, peut bioaccumuler ou modifier chimiquement ces composés. Les aliments issus de l’agriculture biologique contiennent beaucoup moins de xénobiotiques et sont donc recommandés.
Enfin, l’utilisation d’ustensiles de cuisine en plastique ou en téflon, entre autres, peut notamment engendrer la libération de perturbateurs endocriniens ou de polluants persistants (comme les substances per- et polyfluroalkylées PFAS) qui vont se bioaccumuler dans les bactéries du microbiote intestinal. De ce fait, il est recommandé de limiter leur utilisation au profit d’autres matériaux alimentaires (inox, verre).
Différentes molécules et facteurs impactant le microbiote intestinal et susceptibles d’agir sur le bien-être mental
Adopter une alimentation variée est donc essentiel pour couvrir les besoins nutritionnels à l’échelle moléculaire, et cela impacte de manière bénéfique la santé physique mais aussi mentale, notamment via le microbiote.
Toutefois, il est important de prendre soin de son alimentation sans tomber dans une anxiété excessive, qui pourrait engendrer des troubles alimentaires et nuire finalement au bien-être global, la notion de plaisir restant essentielle dans l’alimentation.
Déborah Maurer Nappée (étudiante en master 2 Nutrition et sciences des aliments de l’Université de Rennes) a contribué à la rédaction de cet article.
ROUX Emeline a reçu un financement de la Fondation de l'Université de Rennes, chaire Aliments et bien-manger.
Gaëlle Boudry ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.11.2025 à 16:04
Château de Chambord : pourquoi les Français financent-ils « leur » patrimoine ?
Texte intégral (1652 mots)
La campagne de financement participatif des travaux du château de Chambord est un vrai succès. Que dit cette réussite de l’intérêt des Français pour le patrimoine ? Les résultats obtenus sont-ils transposables à d’autres monuments ? Ou faut-il craindre que ces campagnes pour des édifices d’intérêt national ne détournent le public d’opérations moins ambitieuses mais indispensables ?
Le domaine national de Chambord (Loir-et-Cher), deuxième château le plus visité de France après celui de Versailles (Yvelines), a fermé l’accès à l’aile François Ier. Fragilisée par le temps et le climat, cette partie du monument nécessite des travaux de restauration estimés à 37 millions d’euros.
Bien que disposant d’un modèle économique solide, le domaine ne peut absorber seul un tel coût. Aux côtés du mécénat, Chambord a choisi de mobiliser aussi le grand public en lançant, le 19 septembre 2025, une campagne de financement participatif à l’occasion des Journées européennes du patrimoine. Intitulée « Sauvez l’aile François Ier, devenez l’ange gardien de Chambord », elle visait à collecter 100 000 euros.
Deux mois plus tard, la collecte a déjà dépassé l’objectif initial, atteignant 218 139 euros grâce aux 2 191 dons, déclenchant un nouveau palier à 300 000 euros. Ce succès interroge : pourquoi des citoyens choisissent-ils de contribuer à la restauration d’un monument déjà emblématique soutenu par l’État et par des mécènes privés ?
À lire aussi : Culture : faut-il mettre à contribution les touristes étrangers pour mieux la financer ?
Un mode de financement à géométrie variable
Le cas de Chambord n’est pas isolé. Le financement participatif consacré au patrimoine est devenu une pratique courante en France, malgré de fortes fluctuations. Selon le baromètre du financement participatif en France, 1,4 million d’euros ont été collectés en 2022, 5,7 millions en 2023, puis seulement 0,8 million en 2024. Les raisons de ces écarts restent à documenter, mais ces chiffres révèlent un mode de financement ponctuel, voire incertain.
Ce mode de financement repose sur les dons principalement en ligne des citoyens. Il ne remplace ni l’argent public ni le mécénat d’entreprise, mais les complète, parfois même symboliquement. Dans certains cas, il joue un rôle de déclencheur. En effet, en apportant la preuve d’une mobilisation locale, la participation citoyenne peut débloquer des subventions publiques conditionnées à cet engagement. En partenariat avec certaines régions, la Fondation du patrimoine peut ainsi apporter une bonification à la souscription, comme ce fut le cas pour la restauration de l’église de Sury-en-Vaux (Cher) dans le Sancerrois.
Les projets financés sont divers : restauration d’églises rurales, sauvegarde de moulins, mise en valeur de jardins historiques, consolidation de lavoirs… Cette diversité reflète la richesse du patrimoine français, mais aussi sa fragilité et le besoin constant de mobilisation pour sa préservation.
Une question de proximité
Des recherches menées en région Centre-Val de Loire montrent que la décision de contribuer repose sur divers éléments, notamment sur le lien, appelé proximité, entre le contributeur et le bien patrimonial. Les donateurs entretiennent souvent un lien particulier avec le monument qu’ils soutiennent. Ce lien est d’abord géographique. Il peut être lié au lieu de résidence, mais aussi à des séjours passés, des vacances ou encore des visites. Il n’implique donc pas toujours d’habiter à proximité.
Il est aussi affectif. Certains contributeurs expriment un attachement direct au bien patrimonial, car ce monument peut évoquer des origines familiales, des souvenirs personnels ou susciter une émotion particulière. D’autres s’y intéressent de manière plus indirecte, parce qu’il incarne, au même titre que d’autres biens, une identité territoriale ou encore une passion pour le patrimoine en général.
Chambord cumule les atouts
La campagne de Chambord se distingue des projets plus modestes. Contrairement à une petite église de village ou à un lavoir communal, ce château touristique active simultanément plusieurs types de liens, ce qui explique en partie son potentiel de mobilisation exceptionnelle. Les premiers témoignages de participants à la campagne de Chambord illustrent ces logiques de proximité.
Chambord est un marqueur d’identité territoriale fort, dont le lien géographique et affectif fonctionne à plusieurs échelles. Chambord est avant tout un symbole du patrimoine culturel français. Pour de nombreux contributeurs, soutenir cette restauration vise à préserver un emblème de la France et de son rayonnement culturel.
« Tout comme Notre-Dame de Paris, c’est un symbole de notre patrimoine que nous devons préserver », souligne Julie.
« Ce patrimoine exceptionnel contribue au rayonnement de la France à travers le monde », précise Benjamin.
Ce sentiment d’appartenance ne s’arrête pas au niveau national. Chambord est aussi un marqueur d’identité territoriale locale. Pour les habitants du Loir-et-Cher et de la région Centre-Val de Loire, Chambord est « leur » château, le fleuron de leur territoire, comme le confie un autre donateur anonyme.
« J’habite à proximité du château de Chambord et le domaine est mon jardin ! »
Cette capacité à créer un sentiment élargi d’appartenance géographique multiplie considérablement le potentiel de contributeurs.
Passion pour l’histoire
Ce lien affectif indirect s’exprime également lorsqu’il est nourri par une passion pour l’histoire ou pour le patrimoine en général. Ces passionnés ne soutiennent pas Chambord parce qu’ils y ont des souvenirs personnels, mais parce qu’il incarne, à leurs yeux, l’excellence de l’architecture française, le génie de la Renaissance ou l’héritage culturel commun. Leur engagement s’inscrit dans une forme d’adhésion à l’idée même de sauvegarder le patrimoine.
C’est le cas de Carole,
« passionnée d’histoire, je souhaite participer à la conservation d’un patrimoine qui doit continuer à traverser les siècles pour que toutes les générations futures puissent en profiter et continuer cette préservation unique ».
Au-delà de l’identité territoriale nationale ou locale ou encore de la passion patrimoniale, les commentaires des contributeurs expriment un lien affectif direct avec le monument. L’état alarmant de Chambord réveille des émotions patrimoniales profondes, liées aux valeurs que le monument incarne, comme la beauté et la grandeur.
« Personne ne peut rester insensible à la beauté de ce château », estime Dorothée.
Urgence et souvenirs
L’urgence de la restauration suscite également une forme de tristesse et d’inquiétude,
« C’est très triste de voir un tel chef-d’œuvre en péril », pour Mickaël.
Ce lien affectif direct s’exprime également à travers l’évocation de souvenirs personnels, témoignant d’une identité singulière attachée au lieu, comme la sortie scolaire inoubliable, la visite en famille ou entre amis, les vacances familiales ou encore la découverte émerveillée de l’escalier à double révolution.
Cette accumulation de liens entre le bien patrimonial et les contributeurs explique en partie pourquoi Chambord peut viser un objectif au-delà des 100 000 euros, là où la plupart des projets patrimoniaux se contentent de quelques dizaines de milliers d’euros. Tous les monuments ne disposent pas des mêmes atouts.
L’exemple de Chambord montre la force de l’attachement des Français au patrimoine. Il illustre aussi à quel point la réussite d’un financement participatif patrimonial repose en partie sur une bonne compréhension des liens géographiques et affectifs qui unissent les citoyens à un monument.
Ce succès interroge. Le recours au don pour les « monuments stars » comme Chambord ne risque-t-il pas de détourner l’attention des patrimoines plus fragiles et moins visibles, ou au contraire de renforcer la sensibilisation des Français à leur sauvegarde ? Dans ce contexte, le ministère de la culture, sous l’impulsion de Rachida Dati, explore l’idée d’un National Trust à la française, inspiré du modèle britannique, pour soutenir l’ensemble du patrimoine.
Aurore Boiron ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.11.2025 à 16:03
Miné par l’inflation, le Japon a-t-il vraiment fait un virage à droite avec sa nouvelle première ministre ?
Texte intégral (2756 mots)
*Pour la première fois, une femme se trouve à la tête du gouvernement au Japon. Un apparent progrès sociétal qui, pour autant, n’est pas synonyme de progressisme, au vu de ses opinions ultraconservatrices. Le gouvernement de Sanae Takaichi va avant tout devoir relever le défi de l’inflation qui frappe les foyers japonais… et, pour cela, peut-être assouplir certaines de ses positions. *
Le 4 octobre 2025, Sanae Takaichi remportait les élections internes à la présidence du Parti libéral-démocrate (PLD). Après deux semaines de suspense marquées par de multiples tractations et recompositions des alliances, elle est devenue, le 21 octobre, la première femme à se retrouver à la tête d’un gouvernement au Japon. Depuis, nombreux ont été les articles de presse à l’étranger soulignant le caractère historique de cet événement dans un pays que le pourcentage de femmes au Parlement place à la 141ᵉ position sur 193 dans le classement de l’Union interparlementaire, tout en rappelant à juste titre les positions très conservatrices de la nouvelle dirigeante, notamment sur les questions sociétales, mais aussi mémorielles).
Ce n’est certes pas la première fois qu’une femme se retrouve à la tête d’un parti politique au Japon. En 1986, Takako Doi devenait en effet la secrétaire générale du Parti socialiste (jusqu’en 1991 puis de 1996 à 2003) ; elle est aussi la première et seule femme à avoir été présidente de la Chambre basse (1993-1996). Néanmoins, Mme Takaichi est bien la première à devenir cheffe de gouvernement.
Un parcours classique de femme politique dans un monde d’hommes
Afin d’expliquer cette nomination, on peut commencer par lui reconnaître une habileté certaine en politique et une bonne maîtrise des stratégies communicationnelles.
À l’instar de l’actuelle gouverneure de Tokyo, Yuriko Koike, et de plusieurs autres femmes politiques japonaises, elle a été un temps présentatrice télé avant sa première élection à la Diète (Parlement japonais) en 1993.
Elle a ensuite navigué entre plusieurs partis politiques avant de s’arrimer au PLD et de se rapprocher de son aile droite, en particulier de l’ancien premier ministre Shinzō Abe (2012-2020, assassiné en 2022).
À plus d’un titre, Sanae Takaichi, 64 ans aujourd’hui, a en réalité mené une carrière typique… d’homme politique. Elle a progressivement gravi les échelons au sein d’un parti qui, malgré quelques évolutions, privilégie encore largement l’ancienneté (son principal adversaire, Shinjirō Koizumi, âgé de 44 ans, en a sûrement fait les frais). Elle n’a, par ailleurs, jamais eu à concilier maternité et vie professionnelle, contrairement à bien des Japonaises (les enfants de son mari, ancien parlementaire du PLD, étaient déjà âgés quand ils se sont mariés en 2004).
Le pari du PLD pour redynamiser son image
Mais l’arrivée de Mme Takaichi à la tête du PLD résulte avant tout d’un pari réalisé par une frange du parti (notamment par certains de ses caciques autrefois proches de Shinzō Abe, comme Tarō Asō) pour remédier aux récentes défaites électorales subies d’abord à la Chambre basse en 2024, puis à la Chambre haute en 2025.
En faisant d’elle le nouveau visage du parti, les objectifs étaient multiples. Il s’agissait tout d’abord de redonner une image dynamique à un PLD frappé par plusieurs scandales (liens avec la secte Moon, financements de campagne illégaux, etc.), ce que les trois précédents premiers ministres (2020-2025), aux styles parfois très austères, avaient peiné à réaliser.
Cette personnalisation de la politique n’est pas nouvelle au Japon, mais il est clair, depuis les années 2000, que la figure et le style du premier ministre ont désormais un impact déterminant sur les résultats électoraux du parti. Les cadres du PLD, conscients que leur destin est étroitement lié à la perception que l’opinion publique a de leur chef, n’hésitent pas à mettre entre parenthèses leurs éventuels désaccords et leurs luttes intrapartisanes.
Bien entendu, le parti n’avait aucun doute quant au fait que la candidate avait la ferme intention de ne surtout rien changer en substance concernant la gouvernance du PLD ou les règles de financement de campagne – en dépit du slogan et mot-dièse #KawareJimintō (#ChangePLD !) utilisé dans les réseaux sociaux officiels du parti lors de cette élection à la présidence.
Ainsi, Sanae Takaichi sait également qu’elle doit cette élection à la tête du parti au soutien de personnages essentiels qui n’hésiteront pas à la pousser vers la sortie s’ils estiment qu’elle les dessert plus qu’elle ne les sert. Elle qui a plusieurs fois évoqué son admiration pour Margaret Thatcher doit sûrement se rappeler de la violence et de la rapidité avec laquelle le Parti conservateur britannique avait évincé la Dame de fer. Elle a conscience que seules de multiples victoires électorales pourraient lui permettre de consolider sa place à la tête du parti. C’est ce qui avait permis à son autre modèle, Shinzō Abe, de battre le record de longévité au poste de premier ministre (sept ans et huit mois).
C’est justement sur ce point que Mme Takaichi a su convaincre son parti. L’un de ses atouts évidents réside dans le fait qu’elle semblait être la seule à pouvoir potentiellement capter la fraction de l’électorat qui s’était tournée vers le parti d’extrême droite Sanseitō aux dernières élections à la Chambre haute (il y avait obtenu 14 sièges).
En ce sens, contrairement aux élections à la présidence du PLD de 2021 et 2024 où elle avait terminé respectivement troisième puis seconde, sa candidature arrivait cette fois-ci à point nommé puisque, sur bien des sujets, ses positions très conservatrices sont alignées sur celles du Sanseitō (par exemple sur les questions migratoires).
Une redéfinition des alliances : le « virage à droite »
Par ailleurs, ce « virage à droite » peut aussi être vu comme une manifestation du mouvement de balancier (furiko no genri) observé depuis longtemps au sein du PLD, qui consiste en une alternance à sa tête entre des figures tantôt plus libérales, tantôt plus conservatrices.
Ce phénomène, qualifié d’« alternance factice » (giji seiken kōtai) par les spécialistes, est souvent invoqué comme explication de l’extraordinaire longévité de la domination du PLD (soixante-cinq années au pouvoir entre 1955 et 2025) ; il donnerait en effet à l’électeur la vague impression d’un changement sans pour autant qu’une autre force politique s’empare du pouvoir.
Cela étant dit, certaines choses ont d’ores et déjà changé. À la suite de la nomination de Mme Takaichi à la présidence du PLD, le Kōmeitō, parti bouddhiste qui formait avec lui une coalition depuis vingt-six ans (1999), a décidé d’en sortir. Officiellement, le Kōmeitō a expliqué son geste par le refus de la première ministre de réguler davantage les dons réalisés par les entreprises aux partis politiques (le PLD perçoit la quasi-totalité des dons faits par des entreprises au Japon).
Cependant, on peine à voir pourquoi cette réforme deviendrait aussi soudainement une condition sine qua non de sa participation au gouvernement alors que le Kōmeitō a, au cours de cette dernière décennie, fait des concessions que son électorat – par ailleurs très féminin et essentiellement composé des membres de la secte Sōka gakkai – a eu bien du mal à digérer, notamment la réforme de 2015 qui a élargi les cas dans lesquels les Forces d’autodéfense japonaises peuvent intervenir à l’étranger. C’est en réalité plutôt là que se trouve la raison pour laquelle ce parti, pacifiste et présentant une fibre plus « sociale », a décidé de quitter cette alliance qui ajoutait désormais à l’inconvénient d’être une coalition minoritaire avec un PLD affaibli, celui d’opérer un virage à droite qui n’allait pas manquer de crisper ses soutiens.
Mais, alors que la situation du PLD semblait encore plus critique – au point que l’élection de sa présidente comme première ministre devenait très incertaine –, Nippon Ishin no kai, le parti de la restauration du Japon, est venu à sa rescousse.
Ce parti, dont l’assise électorale se concentre dans la région d’Ōsaka, était demeuré dans l’opposition depuis sa création en 2015. Pour autant, en dehors de son ancrage local, il ne se distinguait pas vraiment du PLD sur le plan idéologique et votait de fait en faveur de la plupart de ses projets de loi. Son président, l’actuel gouverneur d’Ōsaka Hirofumi Yoshimura, suit, tout comme son fondateur Tōru Hashimoto, avocat devenu célèbre sur les plateaux de télévision, une ligne néolibérale et sécuritaire, saupoudrée de déclarations populistes anti-establishment, nationalistes et parfois clairement révisionnistes.
La compatibilité avec le PLD, désormais menée par Sanae Takaichi, n’a probablement jamais été aussi grande. Le parti a néanmoins pris la précaution de ne pas intégrer le gouvernement, et il sait qu’en dépit du fait qu’il ne possède qu’une trentaine de sièges à la Chambre basse (environ 7 %), il est celui qui peut à tout moment le faire tomber (le PLD occupe à l’heure actuelle 196 sièges, sur les 465 de la Chambre basse).
De la Dame de fer à la Dame d’étain ?
Pour autant, doit-on s’attendre à ce que ces nouvelles alliances accouchent d’importantes évolutions au niveau des politiques publiques ? C’est plus qu’improbable.
Même sur la question migratoire, Mme Takaichi ne pourra pas revenir sur la politique volontariste engagée en 2019 par Shinzō Abe lui-même, lequel avait bien été obligé d’accéder aux doléances du monde économique (soutien indispensable du PLD) confronté à une pénurie de main-d’œuvre dans plusieurs secteurs (construction, hôtellerie, etc.). Le pays comptait en 2024 environ 3,6 millions d’étrangers sur son sol (3 % de la population totale), dont environ 56 % ont entre 20 ans et 39 ans. Plus de 23 % sont Chinois, 17 % Vietnamiens et 11 % Sud-Coréens. Bien que ces chiffres soient relativement modestes, il convient de rappeler que la population immigrée au Japon a augmenté de 69 % au cours de ces dix dernières années.
Bien sûr, tout comme Shinzō Abe, la première ministre ne manquera pas d’afficher sa fermeté et fera peut-être adopter quelques mesures symboliques qui n’auront qu’un impact numérique marginal.
Elle pourrait certes avoir les coudées plus franches si elle décidait de dissoudre la Chambre basse et remportait ensuite une large victoire électorale qui redonnerait à son parti une confortable majorité. Son taux de soutien actuel dans l’opinion publique (autour de 70 %), et les prévisions favorables au PLD concernant le report des votes des électeurs du Sanseitō, du parti conservateur et du parti de la restauration du Japon (environ 25 % de report vers le PLD), pourraient bien l’inciter à adopter cette stratégie.
Cependant, ce soutien dans l’opinion (notamment chez les jeunes où le taux atteint les 80 %) n’est guère le produit de ses positions conservatrices, mais plus le résultat d’une communication – aussi redoutable que superficielle – qui fait espérer un renouveau. C’est bien plus sur l’amélioration de la situation économique d’un Japon durement frappé par l’inflation (notamment liée à des importations rendues coûteuses par un yen faible) que la cheffe du gouvernement est attendue.
Ses premières déclarations en tant que première ministre montrent que Mme Takaichi en est bien consciente et qu’elle va par ailleurs devoir assouplir ses positions sur plusieurs thèmes. En somme, la Dame de fer va devoir opter pour un alliage plus malléable.
Arnaud Grivaud ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.11.2025 à 16:03
Comment la consommation précoce de pornographie affecte la sexualité des garçons et des filles
Texte intégral (1816 mots)

L’exposition des enfants et adolescents à la pornographie commence de plus en plus tôt, souvent avant l’âge de 10 ans, et façonne leur compréhension du désir, du consentement et des relations affectives. Elle influe sur la manière dont les jeunes apprennent à désirer, mais aussi sur celle dont les adolescentes apprennent à être désirées.
Le contact avec la pornographie se produit de plus en plus tôt. En Espagne par exemple, 20 % des adolescents ont accédé à ce type de contenu avant l’âge de 10 ans et plus de 90 % avant l’âge de 14 ans.
(En France, un rapport d’information du Sénat corrobore, en septembre 2022, ces tendances en dénombrant 1,1 million d’adolescents de 15 ans à 18 ans et 1,2 million d’enfants de moins de 15 ans sur 19 millions de visiteurs mensuels uniques de sites pornographiques, ndlr.)
Ces chiffres révèlent une enfance exposée trop tôt à des contenus qui façonnent leur manière de comprendre le désir, le consentement et les relations affectives. Dans un contexte où l’éducation sexuelle approfondie est pratiquement inexistante tant dans les familles qu’à l’école, Internet est devenu le professeur et la pornographie son programme.
À lire aussi : La pornografía miente: por qué no sirve para aprender
Une enfance exposée trop tôt
Les recherches les plus récentes réalisées en Espagne situent le début de la consommation de pornographie entre les âges de 8 ans et 13 ans. Le téléphone portable est le principal dispositif d’accès : il permet une consommation privée, immédiate et difficile à surveiller par l’entourage adulte.
Cet accès continu est dépourvu des filtres familiaux et éducatifs qui pourraient servir d’éléments de protection.
Ce que voient les enfants
L’exposition précoce à des contenus sexuels explicites dans lesquels sont reproduites des attitudes de violence, de domination et de machisme, et la consommation comme pratique intégrée dans la socialisation numérique des adolescents ont pour conséquence que la violence physique, la coercition ou l’humiliation des femmes, loin d’être reconnues comme des agressions, sont interprétées comme des comportements sexuels normaux, voire souhaitables.
Ce sont des contenus et des attitudes qui renforcent les modèles de virilité fondés sur la domination et le rabaissement.
Certains chercheurs ont constaté que les vidéos les plus visionnées comprenaient des scènes de cheveux tirés, de gifles ou d’insultes, et même un viol collectif (avec plus de 225 millions de vues). D’autres recherches ont confirmé que la consommation régulière de pornographie violente est associée à des attitudes de domination et d’agression sexuelle : 100 % des études ont établi un lien entre la pornographie et la violence sexuelle, 80 % avec la violence psychologique et 66,7 % avec la violence physique.
En définitive, à l’adolescence, cette exposition façonne les premières expériences affectives et normalise l’idée selon laquelle le pouvoir, la soumission et la violence font partie du désir
Les filles face au miroir de la violence
Les adolescentes consultent également la pornographie, bien que dans une moindre mesure et dans un contexte marqué par la pression esthétique, les normes de genre et le besoin de validation externe, facteurs qui influencent la manière dont elles construisent leur désir et leur relation avec leur corps.
Cette consommation est souvent vécue avec un malaise ou une ambivalence émotionnelle, et est rarement partagée entre pairs.
La nouvelle pornographie numérique renforce la chosification des femmes, en les présentant comme des instruments du plaisir masculin. Des plateformes, telles qu’OnlyFans, poursuivent cette logique, en commercialisant le corps féminin sous le couvert d’une liberté apparente qui répond à la demande masculine.
Ainsi, les jeunes filles apprennent que la reconnaissance sociale dépend de leur capacité à s’exposer, ce qui génère une socialisation fondée sur l’autosexualisation et le capital érotique.
Cet apprentissage perpétue les injonctions à la soumission et consolide un modèle de désir fondé sur l’inégalité. En conséquence, la pornographie non seulement façonne la manière dont les hommes apprennent à désirer, mais aussi la manière dont les adolescentes apprennent à être désirées.
Une éducation qui arrive trop tard
L’absence d’une éducation sexuelle adéquate est l’un des facteurs qui contribuent le plus à la consommation précoce de pornographie.
Dans le domaine éducatif, il existe toujours un manque de programmes abordant les relations affectives et sexuelles avec sérieux, naturel et dans une approche fondée sur les droits et les valeurs, ce qui favorise l’intériorisation des contenus pornographiques.
De plus, les écoles en Espagne, mais aussi dans d’autres pays, manquent de ressources pour une éducation sexuelle complète et, dans les familles, le silence et le tabou prévalent souvent.
Face à ce manque de repères, la pornographie devient la principale source d’information, annulant des dimensions essentielles de la sexualité telles que l’affection, l’égalité et le respect.
À lire aussi : Habilidades para gestionar los conflictos, clave en las parejas adolescentes
Éducation socio-affective et approche de genre
C’est pourquoi l’éducation socio-affective avec une approche de genre s’est avérée essentielle pour prévenir les effets de la consommation et promouvoir des relations égalitaires.
Intégrer une réflexion sur le consentement, le plaisir et la diversité permet de contrebalancer les messages de domination véhiculés par les écrans et de responsabiliser les adolescents à partir du respect mutuel.
Un défi pour la santé publique
La consommation de pornographie à l’adolescence constitue un problème émergent de santé publique. Ses effets transcendent l’individu et affectent le bien-être émotionnel, la socialisation et la construction des identités de genre, ce qui nécessite une approche préventive et globale de la part du système de santé.
De plus, il est prouvé que l’exposition précoce à des contenus sexuels explicites influence les comportements à risque, les addictions comportementales et la reproduction des inégalités de genre.
D’une question privée à un défi collectif
Les acteurs du travail social jouent un rôle clé en se positionnant entre le système de santé, la société et les familles. De cette position, les travailleurs sociaux peuvent détecter les conséquences psychosociales de la consommation (anxiété, isolement ou attitudes sexistes) et intervenir par des actions éducatives et d’accompagnement.
De même, le travailleur social en santé contribue à la conception de stratégies intersectorielles qui intègrent l’éducation affective et sexuelle dans les soins primaires et favorisent des relations saines dès le plus jeune âge. En fin de compte, accompagner les nouvelles générations vers une sexualité fondée sur l’empathie, le consentement et l’égalité est sa plus grande responsabilité.
La consommation de pornographie n’est plus une question privée, mais un défi collectif. Il ne s’agit pas d’un problème moral, mais d’un problème de santé et d’égalité. Si la pornographie enseigne à désirer avec violence, notre tâche est d’enseigner à désirer avec empathie. En ce sens, éduquer à l’égalité, à l’affection et au consentement n’est pas une option : c’est une urgence sociale.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
17.11.2025 à 16:02
Elon Musk a raison de dire que Wikipédia est biaisé, mais Grokipedia et l’IA ne feront pas mieux
Texte intégral (2458 mots)

Grokipedia, le nouveau projet d’Elon Musk, mis en ligne le 27 octobre 2025, promet plus de neutralité que Wikipédia. Pourtant, les modèles d’IA sur lesquels il repose restent marqués par les biais de leurs données.
La société d’intelligence artificielle d’Elon Musk, xAI, a lancé, le 27 octobre 2025, la version bêta d’un nouveau projet destiné à concurrencer Wikipédia, Grokipedia. Musk présente ce dernier comme une alternative à ce qu’il considère être « le biais politique et idéologique » de Wikipédia. L’entrepreneur promet que sa plateforme fournira des informations plus précises et mieux contextualisées grâce à Grok, le chatbot de xAI, qui générera et vérifiera le contenu.
A-t-il raison ? La problématique du biais de Wikipédia fait débat depuis sa création en 2001. Les contenus de Wikipédia sont rédigés et mis à jour par des bénévoles qui ne peuvent citer que des sources déjà publiées, puisque la plateforme interdit toute recherche originale. Cette règle, censée garantir la vérifiabilité des faits, implique que la couverture de Wikipédia reflète inévitablement les biais des médias, du monde académique et des autres institutions dont elle dépend.
Ces biais ne sont pas uniquement politiques. Ainsi, de nombreuses recherches ont montré un fort déséquilibre entre les genres parmi les contributeurs, dont environ 80 % à 90 % s’identifient comme des hommes dans la version anglophone. Comme la plupart des sources secondaires sont elles aussi majoritairement produites par des hommes, Wikipédia tend à refléter une vision plus étroite du monde : un dépôt du savoir masculin plutôt qu’un véritable panorama équilibré des connaissances humaines.
Le problème du bénévolat
Sur les plateformes collaboratives, les biais tiennent souvent moins aux règles qu’à la composition de la communauté. La participation volontaire introduit ce que les sciences sociales appellent un « biais d’autosélection » : les personnes qui choisissent de contribuer partagent souvent des motivations, des valeurs et parfois des orientations politiques similaires.
De la même manière que Wikipédia dépend de cette participation volontaire, c’est aussi le cas de Community Notes, l’outil de vérification des faits de Musk sur X (anciennement Twitter). Une analyse que j’ai menée avec des collègues montre que sa source externe la plus citée, après X lui-même, est en réalité Wikipédia.
Les autres sources les plus utilisées se concentrent elles aussi du côté des médias centristes ou orientés à gauche. Elles reprennent la même liste de sources « approuvées » que Wikipédia ; c’est-à-dire précisément le cœur des critiques de Musk adressées à l’encyclopédie ouverte en ligne. Pourtant, personne ne reproche ce biais à Musk.
Wikipédia reste au moins l’une des rares grandes plateformes à reconnaître ouvertement ses limites et à les documenter. La recherche de la neutralité y est inscrite comme l’un de ses cinq principes fondateurs. Des biais existent, certes, mais l’infrastructure est conçue pour les rendre visibles et corrigibles.
Les articles contiennent souvent plusieurs points de vue, traitent des controverses et même consacrent des sections entières aux théories complotistes, comme celles entourant les attentats du 11-Septembre. Les désaccords apparaissent dans l’historique des modifications et sur les pages de discussion, et les affirmations contestées sont signalées. La plateforme est imparfaite mais autorégulée, fondée sur le pluralisme et le débat ouvert.
L’IA est-elle impartiale ?
Si Wikipédia reflète les biais de ses contributeurs humains et des sources qu’ils mobilisent, l’IA souffre du même problème avec ses données d’entraînement. Grokipedia : Elon Musk a raison de dire que Wikipédia est biaisée, mais son alternative fondée sur l’IA ne fera pas mieux
Les grands modèles de langage (LLM) utilisés par Grok sont formés sur d’immenses corpus issus d’Internet, comme les réseaux sociaux, les livres, les articles de presse et Wikipédia elle-même. Des études ont montré que ces modèles reproduisent les biais existants – qu’ils soient de genre, d’ordre politique ou racial – présents dans leurs données d’entraînement.
Musk affirme que Grok a été conçu pour contrer de telles distorsions, mais Grok lui-même a été accusé de partialité. Un test, dans laquelle quatre grands modèles de langage ont été soumis à 2 500 questions politiques, semble montrer que Grok est plus neutre politiquement que ses rivaux, mais présente malgré tout un biais légèrement orienté à gauche (les autres étant davantage marqués à gauche).
Si le modèle qui soustend Grokipedia repose sur les mêmes données et algorithmes, il est difficile d’imaginer comment une encyclopédie pilotée par l’IA pourrait éviter de reproduire les biais que Musk reproche à Wikipédia. Plus grave encore, les LLM pourraient accentuer le problème. Ceux-ci fonctionnent de manière probabiliste, en prédisant le mot ou l’expression la plus probable à venir sur la base de régularités statistiques, et non par une délibération entre humains. Le résultat est ce que les chercheurs appellent une « illusion de consensus » : une réponse qui sonne de manière autoritaire, mais qui masque l’incertitude ou la diversité des opinions.
De ce fait, les LLM tendent à homogénéiser la diversité politique et à privilégier les points de vue majoritaires au détriment des minoritaires. Ces systèmes risquent ainsi de transformer le savoir collectif en un récit lisse mais superficiel. Quand le biais se cache sous une prose fluide, les lecteurs peuvent même ne plus percevoir que d’autres perspectives existent.
Ne pas jeter le bébé avec l’eau du bain
Cela dit, l’IA peut aussi renforcer un projet comme Wikipédia. Des outils d’IA contribuent déjà à détecter le vandalisme, à suggérer des sources ou à identifier des incohérences dans les articles. Des recherches récentes montrent que l’automatisation peut améliorer la précision si elle est utilisée de manière transparente et sous supervision humaine.
L’IA pourrait aussi faciliter le transfert de connaissances entre différentes éditions linguistiques et rapprocher la communauté des contributeurs. Bien mise en œuvre, elle pourrait rendre Wikipédia plus inclusif, efficace et réactif sans renier son éthique centrée sur l’humain.
De la même manière que Wikipédia peut s’inspirer de l’IA, la plate-forme X pourrait tirer des enseignements du modèle de construction de consensus de Wikipédia. Community Notes permet aux utilisateurs de proposer et d’évaluer des annotations sur des publications, mais sa conception limite les discussions directes entre contributeurs.
Un autre projet de recherche auquel j’ai participé a montré que les systèmes fondés sur la délibération, inspirés des pages de discussion de Wikipédia, améliorent la précision et la confiance entre participants, y compris lorsque cette délibération implique à la fois des humains et une IA. Favoriser le dialogue plutôt que le simple vote pour ou contre rendrait Community Notes plus transparent, pluraliste et résistant à la polarisation politique.
Profit et motivation
Une différence plus profonde entre Wikipédia et Grokipedia tient à leur finalité et, sans doute, à leur modèle économique. Wikipédia est géré par la fondation à but non lucratif Wikimedia Foundation, et la majorité de ses bénévoles sont motivés avant tout par l’intérêt général. À l’inverse, xAI, X et Grokipedia sont des entreprises commerciales.
Même si la recherche du profit n’est pas en soi immorale, elle peut fausser les incitations. Lorsque X a commencé à vendre sa vérification par coche bleue, la crédibilité est devenue une marchandise plutôt qu’un gage de confiance. Si le savoir est monétisé de manière similaire, le biais pourrait s’accentuer, façonné par ce qui génère le plus d’engagements et de revenus.
Le véritable progrès ne réside pas dans l’abandon de la collaboration humaine mais dans son amélioration. Ceux qui perçoivent des biais dans Wikipédia, y compris Musk lui-même, pourraient contribuer davantage en encourageant la participation d’éditeurs issus d’horizons politiques, culturels et démographiques variés – ou en rejoignant eux-mêmes l’effort collectif pour améliorer les articles existants. À une époque de plus en plus marquée par la désinformation, la transparence, la diversité et le débat ouvert restent nos meilleurs outils pour nous approcher de la vérité.
Taha Yasseri a reçu des financements de Research Ireland et de Workday.
17.11.2025 à 16:02
Collaborations art-science : qui ose vraiment franchir les frontières ?
Texte intégral (2171 mots)

Les collaborations entre scientifiques et artistes font régulièrement parler d’elles à travers des expositions intrigantes ou des performances artistiques au sein de laboratoires scientifiques. Mais qu’est-ce qui motive vraiment les chercheuses et les chercheurs à s’associer à des artistes ?
Art et science se sont historiquement nourris mutuellement comme deux manières complémentaires de percevoir le monde.
Considérons ainsi les principaux instituts états-uniens de sciences marines : tous sont dotés d’ambitieux programmes de collaboration art/science, mis en place à partir du tournant des années 2000. Le prestigieux Scripps Institution of Oceanography a, par exemple, développé une collection d’art privée, ouverte au public, pour « refléter des connaissances scientifiques objectives dans des œuvres d’art à la fois réalistes et abstraites ». À l’Université de Washington, des résidences d’artiste sont organisées, au cours desquelles des peintres passent entre un et trois mois au milieu des scientifiques des Friday Harbor Laboratories (une station de recherche en biologie marine), sur l’île reculée de San Juan.
Ces démarches semblent indiquer que les institutions scientifiques sont déjà convaincues du potentiel de la collaboration entre art et science. L’initiative ne vient pas toujours des laboratoires : nombre d’artistes ou de collectifs sollicitent eux-mêmes les chercheurs, que ce soit pour accéder à des instruments, à des données ou à des terrains scientifiques. En France comme ailleurs, plusieurs résidences – au CNRS, à Paris-Saclay ou dans des centres d’art – sont ainsi nées d’une démarche portée d’abord par les artistes.
Mais qu’en est-il des chercheurs eux-mêmes ? ceux-là même qui conçoivent, développent et réalisent les projets de recherche et qui a priori ont une sensibilité artistique qui n’est ni inférieure ni supérieure à la moyenne de la population. Quels sont ceux qui choisissent d’intégrer l’art dans leurs projets scientifiques ? Et pour quoi faire ? Les études disponibles ne sont pas très éclairantes sur le sujet, car elles se sont focalisées sur des scientifiques atypiques, passionnés par l’art et artistes eux-mêmes. Peu de travaux avaient jusqu’ici procédé à un recensement « tout azimuts » des pratiques.
Dans une étude récente, nous avons recensé les pratiques, des plus originales aux plus banales, en analysant plus de 30 000 projets de recherche financés par la National Science Foundation (NSF) aux États-Unis entre 2003 et 2023, dans les domaines des géosciences et de la biologie.
Une analyse textuelle du descriptif des projets permet de sortir de l’anecdotique pour révéler des tendances structurelles inédites. Cette source comporte toutefois des biais possibles : les résumés de projets sont aussi des textes de communication, susceptibles d’amplifier ou d’édulcorer les collaborations art/science. Pour limiter ces écarts entre discours et réalité, nous combinons analyse contextuelle des termes artistiques, comparaison temporelle et vérification qualitative des projets. Ce croisement permet de distinguer les effets d’affichage des pratiques réellement intégrées.
En France aussi, les initiatives art/science existent mais restent dispersées, portées par quelques laboratoires, universités ou centres d’art, sans base de données centralisée permettant une analyse systématique. Nous avons donc choisi les États-Unis, car la NSF fournit depuis vingt ans un corpus homogène, public et massif de résumés de projets, rendant possible un recensement large et robuste des collaborations art/science.
Trois façons d’associer les artistes
Pour commencer, les collaborations entre art et science sont très rares : moins de 1 % des projets ! Ce chiffre reste toutefois une estimation basse, car il ne capture que les collaborations déclarées par les chercheurs dans des projets financés : nombre d’initiatives impulsées par des artistes ou des collectifs échappent à ces bases de données. En revanche, leur fréquence a augmenté sans discontinuer sur les vingt années d’observation.
En analysant plus finement les projets, on peut identifier que l’artiste peut y jouer trois grands rôles. D’abord, il peut être un disséminateur, c’est-à-dire qu’il aide à diffuser les résultats auprès du grand public. Il ne contribue pas vraiment à la recherche mais joue le rôle d’un traducteur sans qui l’impact des résultats du projet serait moindre. C’est, par exemple, la mise sur pied d’expositions ambulantes mettant en scène les résultats du projet.
Ensuite, l’artiste peut intervenir comme éducateur. Il intervient alors en marge du projet, pour faire connaître un domaine scientifique auprès des enfants, des étudiants, ou de communautés marginalisées. L’objectif est de profiter d’un projet de recherche pour faire connaître un domaine scientifique de manière plus générale et susciter des vocations. Par exemple, l’un des projets prévoyait la collaboration avec un dessinateur de bande dessinée pour mieux faire connaître aux enfants les sciences polaires.
Enfin, dans des cas beaucoup plus rares, les artistes jouent un rôle de cochercheurs. Le recours au travail artistique participe alors à la construction même des savoirs et/ou des méthodes. Par exemple, un des projets réunissait des artistes et des chercheurs en neurosciences pour concevoir de nouvelles façons de visualiser les circuits nerveux du cerveau, et in fine créer de nouvelles formes de données scientifiques.
Ces différentes formes reflètent une tension encore vive dans le monde académique : l’art est majoritairement mobilisé pour « faire passer » la science, plutôt que pour nourrir la recherche elle-même. Pourtant, les projets les plus ambitieux laissent entrevoir un potentiel plus grand : celui d’une science transformée par le dialogue avec d’autres formes de connaissance.
Cette réflexion fait également écho à des considérations plus générales sur la complémentarité entre l’art et la science, non pas comme des disciplines opposées, mais comme deux approches différentes pour questionner le monde. Comme le formulait joliment un article publié dans The Conversation, il s’agit moins d’opposer l’art à la science que de leur permettre de « faire l’amour, pas la guerre », c’est-à-dire de collaborer pour produire de nouvelles formes de compréhension et d’engagement citoyen.
Au-delà de ces différentes façons d’associer les artistes à un projet, notre étude montre également que ces collaborations ne sont pas réparties au hasard. Certains scientifiques les pratiquent bien plus que d’autres, en fonction de leurs caractéristiques personnelles, leur contexte institutionnel et enfin les objectifs scientifiques de leur projet.
Une science plus ouverte… mais pas partout
Première surprise : ce ne sont pas les universités les plus prestigieuses qui s’ouvrent le plus à l’art. Au contraire, ce sont les institutions les moins centrées sur la recherche dite « pure » qui s’y engagent plus largement. Ces établissements s’appuient probablement sur l’art pour conduire des projets plutôt éducatifs, visant essentiellement à faire connaître la science au plus grand nombre.
Deuxième enseignement : les femmes scientifiques sont bien plus nombreuses que leurs homologues masculins à s’engager dans ces démarches. Cette surreprésentation est à rapprocher d’autres résultats montrant que les femmes scientifiques sont en moyenne plus engagées dans les activités de vulgarisation que les hommes – qui, eux, ont tendance à investir plus exclusivement les domaines supposés plus prestigieux, notamment ceux liés à la publication purement académique.
Ce biais de genre, loin d’être anecdotique, soulève des questions sur la manière dont la reconnaissance académique valorise (ou ignore) certains types d’engagement. Incidemment, ce résultat suggère aussi que promouvoir et financer des collaborations entre art et science serait un moyen a priori efficace de rééquilibrer les différences régulièrement constatées entre hommes et femmes.
L’art, catalyseur d’impact sociétal, mais pas sur tous les sujets
Alors que l’on demande de plus en plus aux scientifiques de démontrer l’impact de leurs travaux sur la société, beaucoup se trouvent mal préparés à cette tâche. Peintres, sculpteurs, écrivains, photographes, etc., ont l’habitude de s’adresser à un public large, de captiver l’attention et déclencher les émotions qui garantissent une impression. Leur interprétation du travail et des résultats scientifiques peut ainsi accroître la visibilité des recherches et susciter le changement. On pourrait donc s’attendre à ce que les projets les plus orientés vers des objectifs sociétaux ambitieux aient plus souvent recours aux artistes.
C’est globalement le cas, mais avec toutefois de grosses différences selon les défis sociétaux concernés, que nous avons classés suivants les grands objectifs de développement durable (ODD) édictés par l’ONU. Notamment, la collaboration art/science est bien plus fréquente dans les projets portant sur la biodiversité marine (ODD 14 « Vie aquatique ») que dans ceux axés sur l’action climatique (ODD 13).
Cette différence s’explique probablement en partie par la grande difficulté à rendre visibles ou compréhensibles certains phénomènes plutôt lointains de la vie quotidienne du grand public : l’acidification des océans, la dégradation des écosystèmes marins, etc. Le travail artistique permet de mobiliser les sens, créer des émotions, des narrations, des imaginaires, qui vont faciliter les prises de conscience et mobiliser les citoyens ou les pouvoirs publics. Bref, il va augmenter l’impact sociétal de la recherche sur ces sujets.
Lever les freins : une affaire de politiques scientifiques
Comment expliquer que ces collaborations restent somme toute très marginales dans le monde de la recherche ? Des défis persistent, tels que le manque de financements qui y sont consacrés ou le cloisonnement disciplinaire des recherches. En outre, l’incitation à explorer ces frontières reste très faible pour les chercheurs, dans un monde académique où la production de publications dans des revues spécialisées reste le critère de performance essentiel.
Intégrer l’art à un projet scientifique nécessite du temps, de la confiance et un changement de posture, souvent perçu comme risqué dans un milieu académique très normé. Mais des solutions existent sans doute : il s’agirait de former mieux les scientifiques à la collaboration, de financer des projets transdisciplinaires et de changer les critères d’évaluation de la recherche, pour valoriser les prises de risque.
À l’heure où la science est appelée à jouer un rôle majeur dans la transition écologique et sociale, l’art ne doit plus être considéré comme un simple emballage esthétique : il pourrait devenir un allié stratégique ! Il ne s’agit pas uniquement de « vulgariser » la science, mais bien de la faire résonner autrement dans les imaginaires, les émotions et les débats publics.
En écoutant celles et ceux qui osent franchir les murs du laboratoire, nous comprendrons peut-être mieux comment faire de la science de manière plus sensible, plus accessible et surtout plus transformatrice.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
17.11.2025 à 16:02
La guerre de communication derrière la pénurie de carburant au Mali
Texte intégral (3603 mots)
De nombreux articles ont déjà été publiés sur la pénurie de carburant provoquée au Mali par le blocus que les djihadistes imposent à la quasi-totalité du pays. La présente analyse propose une approche communicationnelle de cette crise sans précédent.
Dans une guerre, qu’elle soit conventionnelle ou asymétrique, comme c’est le cas au Mali et plus largement au Sahel, il est déconseillé de porter un coup avant d’en mesurer les conséquences. La pénurie de carburant actuelle résulte de l’amateurisme des autorités maliennes, qui ont été les premières à interdire la vente de carburant aux citoyens venant s’approvisionner avec des bidons. Cette décision s’inscrit dans leur stratégie visant à couper la chaîne d’approvisionnement des djihadistes afin de réduire la mobilité de ceux-ci. Dans la région de Nioro, les autorités militaires ont interdit, le 30 juillet 2025, « la vente de carburant dans des bidons ou des sachets plastiques ». Rappelons que les djihadistes ne sont pas les seuls à utiliser les bidons : les populations rurales s’en servent aussi, pour de multiples usages, notamment pour le fonctionnement des équipements agricoles.
À la suite de la décision du 30 juillet, le Groupe de soutien à l’islam et aux musulmans (Jama’at Nusrat ul-Islam wa al-Muslimin, JNIM) a étendu l’interdiction à l’ensemble de la population. Ainsi, dans une vidéo publiée le 3 septembre, l’organisation terroriste a adressé un message aux commerçants et aux chauffeurs de camions-citernes qui importent des hydrocarbures depuis les pays côtiers voisins du Mali, à savoir la Côte d’Ivoire, la Guinée, le Sénégal et la Mauritanie. Elle a annoncé des représailles à l’encontre de quiconque violerait cette décision.
Assis en tenue militaire, Nabi Diarra, également appelé Bina Diarra, porte-parole du JNIM, explique en bambara les raisons de ce blocus. Son porte-parolat met à mal l’argument selon lequel les djihadistes seraient exclusivement des Peuls, car Nabi Diarra est bambara. D’après lui :
« Depuis leur arrivée, les bandits qui sont au pouvoir [les militaires, ndlr] fatiguent les villageois en fermant leurs stations-service. Pour cette raison, nous avons également décidé d’interdire toutes vos importations d’essence et de gasoil, jusqu’à nouvel ordre. […] Ces bandits ont voulu priver les villageois d’essence et de gasoil, pensant que cela arrêterait notre activité de djihad. Est-ce qu’un seul de nos véhicules ou de nos motos s’est arrêté depuis le début de cette opération ? Aucun ! Nous continuons notre travail. Les conséquences ne touchent que les plus vulnérables. »
Après cette annonce, une centaine de camions-citernes ont été incendiés par les djihadistes sur différents axes. Des vidéos ont été publiées sur les réseaux sociaux par les auteurs afin de démontrer leurs capacités de nuisance. Dans une vidéo que nous avons pu consulter, un homme à moto montre près d’une quarantaine de camions-citernes incendiés sur la route nationale 7, entre Sikasso et la frontière ivoirienne.
Dans sa vidéo annonçant le blocus, le JNIM a également interdit la circulation de tous les autobus et camions de la compagnie Diarra Transport, qu’il accuse de collaborer avec l’État malien. Depuis, la compagnie a cessé ses activités. Après un mois d’inactivité, le 6 octobre, sa directrice générale Nèh Diarra a publié une vidéo sur les réseaux sociaux pour justifier les actions de son entreprise et, indirectement, présenter ses excuses aux djihadistes dans l’espoir que ces derniers autorisent ses véhicules à reprendre la route.
Le 17 octobre, dans une autre vidéo, arme de guerre et talkie-walkie en main, le porte-parole du JNIM a autorisé la reprise des activités de la compagnie de transport, dans un discours au ton particulièrement clément :
« Nous sommes des musulmans, nous sommes en guerre pour l’islam. En islam, si vous vous repentez après une faute, Allah accepte votre repentir. Donc, les gens de Diarra Transport ont annoncé leur repentir, nous allons l’accepter avec quelques conditions. La première est de ne plus vous impliquer dans la guerre qui nous oppose aux autorités. Transportez les passagers sans vérification d’identité. La deuxième condition va au-delà de Diarra Transport : tous les transporteurs, véhicules personnels, même les mototaxis, doivent exiger des femmes qu’elles portent le hijab afin de les transporter. »
Pour finir, il exige de tous les conducteurs qu’ils s’arrêtent après un accident afin de remettre les victimes dans leurs droits. Une manière de montrer que les membres du JNIM sont des justiciers, alors qu’ils tuent fréquemment des civils innocents sur les axes routiers. Le cas le plus récent et le plus médiatisé remontait à deux semaines plus tôt : le 2 octobre, le JNIM avait mitraillé le véhicule de l’ancien député élu à Ségou et guide religieux Abdoul Jalil Mansour Haïdara, sur l’axe Ségou-Bamako, le tuant sur place. Il était le promoteur du média Ségou TV.
Dans les gares routières de Diarra Transport, des scènes de liesse ont suivi l’annonce de la reprise. La compagnie a même partagé la vidéo du JNIM sur son compte Facebook, avant de la supprimer plus tard. Le lendemain, elle a annoncé la reprise de ses activités, avant que le gouvernement malien ne les suspende à son tour.
Revenons au blocus sur le carburant. Il ne concerne pas uniquement Bamako, comme on peut le lire dans de nombreux articles de presse. Il couvre l’ensemble du territoire national.
Cependant, les médias concentrent leur couverture sur la situation dans la capitale, principal symbole politique de la souveraineté des autorités en place. Les analyses, notamment celles des médias étrangers, gravitent autour d’une question centrale : Bamako va-t-elle tomber ? Nous répondons : le Mali ne se limite pas à Bamako. Toutes les localités du pays sont affectées par ce blocus. Les habitants des autres localités méritent autant d’attention que les Bamakois.
Pays enclavé, au commerce extérieur structurellement déficitaire, le Mali dépend totalement des importations. Les régions de Kayes, plus proche du Sénégal, et de Sikasso, plus proche de la Côte d’Ivoire, sont toutefois moins impactées par ce blocus, qui est particulièrement concentré autour de Bamako. Les attaques sont principalement menées sur les voies menant à la capitale. Des actions sporadiques ont également été signalées sur l’axe Bamako-Ségou, afin de priver les régions du centre, comme Ségou et Mopti, d’hydrocarbures. Dans la ville de Mopti, les habitants manquent de carburant depuis deux mois. Depuis un mois, ils n’ont pas eu une seule minute d’alimentation électrique. Ils ne réclament d’ailleurs plus l’électricité, devenue un luxe : ils recherchent plutôt du carburant pour pouvoir vaquer à leurs occupations.
La violence des mots pour camoufler l’insuffisance des actes
Confrontées à la crise, les autorités, tant régionales que nationales, ont préféré masquer l’impuissance par la désinformation, l’appel mécanique à la résilience et la censure des voix critiques.
Le 23 septembre, le gouverneur de la région de Mopti a présidé une réunion de crise consacrée à la pénurie de carburant. Au lieu de s’attaquer aux racines du mal, le directeur régional de la police, Ibrahima Diakité, s’en est pris aux web-activistes de la région, couramment appelés « videomen (ils prononcent videoman) » au Mali, qui, selon lui, se font particulièrement remarquer par leur « incivisme ». Les créateurs de contenus sont blâmés et menacés par la police pour avoir diffusé des faits et alerté sur les souffrances qu’ils vivent, à l’image de l’ensemble de la population. Au lieu de s’en prendre aux djihadistes, M. Diakité dénigre les citoyens qui publient sur les réseaux sociaux des images de longues files de conducteurs attendant désespérément d’être servis dans les stations-service :
« Si nous entendons n’importe quel “videoman” parler de la région de Mopti, il ira en prison. Il ira en prison ! Celui qui parle au nom de la région ira en prison, parce que c’est inadmissible ! […] Ils mettent Mopti en sellette, oubliant que les réseaux [sociaux, ndlr] ne se limitent pas au Mali. »
Il exige donc de censurer tout propos mettant en évidence l’incompétence des autorités à pallier un problème qui compromet leur mission régalienne. Au lieu de rassurer la population en annonçant des politiques qui atténueront sa souffrance, il opte pour la censure et la menace d’emprisonnement. Dans sa vocifération autoritaire, il mobilise un récit classique en appelant à préserver l’image du pays et en présentant les web-activistes comme des ennemis de celui-ci, des ignorants qui ne comprennent rien aux événements en cours :
« On est dans une situation où les gens ne comprennent rien de ce qui se passe dans leur pays et ils se permettent de publier ce genre de vidéo. Mais c’est le Mali tout entier qui est vilipendé à travers ce qu’ils disent, parce que le monde le voit. […] Ils sont en train d’aider l’ennemi contre le pays. Monsieur le gouverneur, il faut saisir le moment pour remettre ces gens à leur place, pour les amener à comprendre que, dans un État, tant que tu es Malien et que tu restes au Mali, tu respectes la loi ; sinon, tu quittes notre pays si tu ne veux pas te soumettre aux lois de la République. »
Le policier s’est substitué au législateur en appelant le gouverneur à adopter une loi autorisant la censure médiatique locale de cette crise.
Dans les heures qui ont suivi, de nombreux journalistes et web-activistes l’ont interpellé sur les réseaux sociaux pour obtenir des explications concernant l’existence d’une loi malienne prohibant la diffusion d’informations factuelles. Les contenus des web-activistes n’ont pas pour objectif de ternir l’image du pays. Contrairement à ce que laisse entendre le directeur régional de la police, il n’est pas plus malien qu’eux. Il ne lui revient pas non plus de décider qui doit quitter le pays.
Nous observons un clivage général au sein de la population malienne. Les dirigeants et leurs soutiens estiment que tous les citoyens doivent obligatoirement soutenir la transition. Ceux qui la critiquent sont qualifiés de mauvais citoyens, voire d’apatrides. Cette pression a étouffé le pluralisme et la contradiction dans l’espace médiatique.
« Ils ont su créer la pénurie de carburant dans la tête des Maliens »
Pendant que les citoyens passent la nuit dans les files d’attente pour s’approvisionner en carburant, l’un des désinformateurs du régime, adepte des théories du complot, Aboubacar Sidiki Fomba, membre du Conseil national de transition, a livré, dans un entretien avec un videoman, des explications qui défient tout entendement. Dans cette vidéo publiée le 7 octobre, il établit un lien entre la stratégie du JNIM et la volonté de l’Alliance des États du Sahel (AES, qui regroupe le Mali, le Burkina Faso et le Niger) de créer sa propre monnaie. D’après lui, l’objectif de ce blocus, qu’il présente comme la dernière stratégie des terroristes, est de porter atteinte au pouvoir d’Assimi Goïta et à l’AES :
« Ils attaquent les citernes, puis font croire aux populations qu’il y a une pénurie de carburant, alors qu’il n’y en a pas. Mais ils convainquent tout le monde qu’il y a une pénurie. Ils créent la psychose. Sous l’effet de la panique, les citoyens provoquent eux-mêmes une pénurie qui, à l’origine, n’existait pas. »
Dans la même vidéo, il dissocie les coupures d’électricité de la pénurie de carburant, expliquant les premières par des problèmes de remplacement de câbles électriques défaillants. Pourtant, c’est bien le manque de carburant qui est à l’origine des coupures d’électricité observées ces dernières années. Le blocus n’a été qu’un accélérateur d’une crise énergétique déjà déclenchée. Il a considérablement réduit les capacités de production énergétique. Selon une étude conduite par le PNUD, en 2020, « la production électrique était de 2 577,44 GWh (69 % thermique, 26,8 % hydraulique et 4,2 % solaire photovoltaïque) ».
Le pays doit accélérer sa transition énergétique afin de réduire sa dépendance aux importations d’hydrocarbures et de limiter ses émissions de gaz à effet de serre. En plus de la crise énergétique, ce blocus a également entraîné une pénurie d’eau potable dans la région de Mopti, le gasoil étant utilisé pour la production et la distribution d’eau.
Le même parlementaire s’est ensuite attaqué aux conducteurs de camions-citernes, les accusant de « complicité avec les terroristes ». Selon lui, les conducteurs simuleraient des pannes pour quitter les convois escortés par l’armée et revendre leur cargaison d’hydrocarbures aux groupes djihadistes. À la suite de cette déclaration, le Syndicat national des chauffeurs et conducteurs routiers du Mali (Synacor) a lancé un mot d’ordre de grève et déposé une plainte contre Fomba pour diffamation. Au lieu d’apporter la preuve de ses accusations, ce dernier a finalement présenté ses excuses aux conducteurs de camions-citernes. Il avait auparavant annoncé la mort de Nabi Diarra et qualifié de deepfake les vidéos du porte-parole du JNIM – une énième fausse information. Par la suite, le porte-parole a diffusé des vidéos dans lesquelles il précise la date d’enregistrement et se prononce sur des faits d’actualité.
Le pouvoir dénonce la piste ukrainienne
Au sommet de l’État, lors d’un déplacement dans la région de Bougouni le 3 novembre, le président de la transition a appelé les Maliens à faire preuve de résilience et à limiter les sorties inutiles. Assimi Goïta a tenté de rassurer la population et de dissuader ceux qui apportent leur aide aux djihadistes : « Si nous refusons de mener cette guerre, nous subirons l’esclavage qui en sera la conséquence », a-t-il déclaré face aux notables de la région. Il a salué le courage des chauffeurs et des opérateurs économiques pour leurs actes de bravoure. En effet, depuis l’instauration du blocus, les premiers risquent leur vie, et les seconds voient leur investissement menacé.
Assimi Goïta a laissé entendre que des puissances étrangères soutiennent les actions des djihadistes. Il convient de rappeler que l’Ukraine a apporté son aide aux rebelles séparatistes du Cadre stratégique permanent (CSP), lesquels coopèrent parfois avec le JNIM dans le nord du pays. Alors que les djihadistes revendiquent l’application de la charia, les rebelles exigent la partition du territoire. Les deux mouvements se sont, à plusieurs reprises, alliés pour combattre l’armée malienne. Le 29 juillet 2024, Andriy Yusov, porte-parole du renseignement militaire ukrainien (GUR), a sous-entendu, lors d’une émission de télévision locale, que son service était en relation avec les rebelles indépendantistes du nord du Mali. Après la dissolution du CSP fin 2024, l’Ukraine a poursuivi son aide au groupe rebelle qui a pris le relais au nord du Mali, le Front de Libération de l’Azawad (FLA). Parmi les actions, nous pouvons noter « la visite de conseillers militaires ukrainiens dans un camp du FLA l’an dernier. Dans la foulée, plusieurs combattants du FLA sont envoyés en Ukraine. De retour dans le désert, ils adoptent les mêmes tactiques que celles de l’armée ukrainienne contre les positions russes ».
Cette aide fournie par l’Ukraine s’inscrit dans le prolongement du conflit qui l’oppose à la Russie, devenue le principal partenaire du Mali dans la lutte contre le terrorisme depuis la fin de la coopération militaire avec la France en 2022. Grâce à ce nouveau partenariat, la ville de Kidal contrôlée par les rebelles depuis 2012 a pu être reprise en novembre 2023. Toutefois, la situation sécuritaire s’est détériorée dans le reste du pays, les djihadistes ayant renforcé leur influence et étendu leur présence à l’ensemble des régions.
Les autorités maliennes estiment que cette assistance ukrainienne est soutenue par la France, qui souhaiterait l’échec de la transition. Dans leurs éléments de langage, les responsables de la transition expliquent tous leurs problèmes par des complots contre leur régime et contre le Mali. Toutes les difficultés et incompétences sont justifiées par « l’acharnement de la France » contre la transition. L’ancienne puissance coloniale a pour sa part ouvertement montré son opposition à cette transition qu’Emmanuel Macron qualifie de « l’enfant de deux coups d’État ».
La guerre de communication est au cœur de la crise malienne et ne semble pas devoir s’arrêter si tôt. Pendant que les médias occidentaux commentent l’éventualité d’une prise de Bamako par le JNIM, le gouvernement malien a inauguré le 11 novembre le Salon international de la défense et de la sécurité intitulé Bamex 25. Cette exposition turque est, pour la transition malienne, un autre moyen de communiquer au monde que la situation sécuritaire est sous contrôle.
Ayouba Sow ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.11.2025 à 11:40
Le contrôle en cours de redéfinition à l’ère du travail à distance. Mais cela va-t-il dans le bon sens ?
Texte intégral (2372 mots)
Le télétravail en éloignant les salariés de leur manager a-t-il augmenté ou réduit le contrôle des tâches et du temps de travail ? De nouvelles formes et pratiques de management sont-elles apparues ? Dans quelle mesure sont-elles cohérentes avec les nouvelles façons de travailler à l’ère numérique ?
Alors que le contrôle du temps de travail et le droit à la déconnexion sont des obligations de l’employeur pour protéger la santé des salariés, l’étude 2025 de l’Observatoire du télétravail (Ugict-CGT) révèle que le Code du travail n’est pas respecté concernant ces deux dimensions.
En effet, malgré les bouleversements induits par le développement du travail à distance, les pratiques de contrôle restent assez limitées et s’orientent principalement vers la surveillance des temps de connexion, non pas dans l’objectif de les réguler comme le voudrait la loi, mais au contraire comme une attestation que le travail est effectué.
Cette pratique ne présage pas de l’implication et de la performance des télétravailleurs, mais révèle en revanche un manque de considération pour les conditions dans lesquelles le travail est exercé alors que l’employeur en est juridiquement responsable.
Du lien de subordination
Le contrôle fait partie inhérente du travail salarié et de la relation d’emploi formalisée par le lien contractuel employeur/employé, qui induit légalement un lien de subordination
Le contrat de travail est une
« convention par laquelle une personne s’engage à mettre son activité à la disposition d’une autre personne (physique ou morale), sous la subordination de laquelle elle se place, moyennant une rémunération ».
Le lien de subordination est donc consubstantiel à tout contrat de travail (quel qu’en soit le type) et renvoie au
« lien par lequel l’employeur exerce son pouvoir de direction sur l’employé : pouvoir de donner des ordres, d’en contrôler l’exécution et de sanctionner la mauvaise exécution des ordres ».
Le contrôle du travail concerne ainsi de manière très large l’exécution des tâches confiées par l’employeur.
À lire aussi : Le télétravail est-il devenu le bouc émissaire des entreprises en difficulté ?
Des modalités de contrôle peu novatrices
Avec le développement du télétravail et l’éclatement des unités de lieu, de temps et d’action, on aurait pu s’attendre à une évolution des modalités avec laquelle s’exerce ce lien de subordination et l’activité de contrôle qui lui est inhérente : la surveillance visuelle par les comportements n’est en effet plus possible lorsque les missions confiées sont réalisées à distance. L’enquête menée par l’Observatoire du télétravail de l’Ugict-CGT auprès de 5 336 télétravailleurs ne montre cependant pas de transformations profondes. Elle atteste en revanche de pratiques qui ne sont pas à la hauteur des enjeux.
Si de plus en plus de salariés se sentent surveillés en télétravail, ils restent une minorité. En outre, la perception du contrôle est relativement faible. C’est seulement le cas de 17 % des répondants, contre 8 % lors de la précédente enquête menée en 2023.
A contrario, tout comme dans l’enquête précédente (2023), une forte majorité de salariés (79 %) ne savent pas s’ils sont contrôlés et n’ont pas été informés des dispositifs utilisés. Ces chiffres suggèrent que ce contrôle pourrait s’exercer à leur insu ou au travers de pratiques informelles déviantes.
Par ailleurs, lorsqu’ils sont identifiés, les dispositifs de contrôle ne sont guère novateurs et s’appuient encore largement sur le traditionnel reporting a posteriori plutôt que sur de nouvelles modalités technologiques en temps réel (IA, frappes de clavier, mouvements de souris, caméras). Le contrôle s’exerce ainsi avant tout sur les résultats de l’activité (plutôt que sur l’activité en train de se faire), en phase avec un management par objectifs qui sied mieux au travail à distance que le micromanagement, mais qui est loin d’être nouveau puisqu’il a été théorisé dans les années 1950 par Peter Drucker.
Transposition du réel au virtuel
Les modalités de contrôle consistent souvent en une transposition simple dans le monde virtuel les pratiques qui avaient déjà cours sur site : système de badge numérique (22,6 %) et feuille de temps (12,67 %).
Les verbatim recueillis lors de l’enquête révèlent en outre que, pour les télétravailleurs interrogés, ce contrôle consiste avant tout à s’assurer qu’ils sont bien connectés : « Le logiciel utilise le contrôle des connexions et leur durée », « Contrôle connexion permanent », « Heure de connexion/déconnexion sur Teams », « Suspicion de surveillance par le statut en veille de Teams ».
Ces témoignages traduisent une forme de glissement, d’un contrôle de l’activité à un contrôle de la disponibilité. Autrement dit, le contrôle ne renvoie plus à une mesure de la performance, mais à une preuve de présence – qui n’assure pas pour autant que le travail demandé est effectivement réalisé. Il s’agit donc davantage de regarder « le nombre d’heures de connexion du salarié que la qualité des contributions ou des échanges »
Impératif de présence
Cet impératif de présence peut par ailleurs s’étendre au-delà du temps de travail avec des sollicitations hors horaires (avant 9 heures ou après 19 heures). Si ces pratiques restent minoritaires, elles concernent tout de même un peu plus d’un salarié sur cinq régulièrement, et seul un tiers des répondants disent ne jamais y être confrontés.
Cette situation présente ainsi le risque de voir se développer « des journées de travail à rallonge » qui ne respectent pas les temps de repos légaux. Notons cependant que pour les répondants, ces sollicitations hors horaires ne sont pas directement liées au télétravail : plus de neuf personnes sur dix déclarent que ces situations ne sont pas plus fréquentes lorsqu’elles sont en télétravail que lorsqu’elles sont sur site.
Ce phénomène serait ainsi davantage lié à la « joignabilité » permanente permise par les outils numériques et à leur usage non régulé, quel que soit le lieu où s’exerce l’activité professionnelle.
Des pratiques en décalage avec le Code du travail
Il en ressort ainsi une vision assez pauvre du contrôle, qui pose par ailleurs problème au regard de nombreux articles du Code du travail qui ne sont pas respectés :
Articles L3131-1 à L3131-3 : l’employeur doit contrôler le volume horaire, l’amplitude, les maxima et les temps de repos.
Article L4121-1 : l’employeur a l’obligation de protéger la santé et la sécurité des travailleurs.
Article L1121-1 : les restrictions des libertés individuelles ne sont possibles que si elles sont justifiées et proportionnées.
Article L1222-4 : aucune donnée personnelle ne peut être collectée sans information préalable du salarié.
Article L2242-17 : droit à la déconnexion qui impose la mise en place de dispositifs de régulation de l’utilisation des outils numériques, en vue d’assurer le respect des temps de repos et de congé ainsi que de la vie personnelle et familiale
Ainsi, le contrôle du travail n’implique pas seulement un droit de surveiller et de sanctionner de la part de l’employeur, il inclut également un devoir de protection des salariés.
Le télétravail lève ainsi le voile sur l’ambivalence du contrôle, tel qu’il est inscrit dans le Code du travail et tel qu’il est mis en œuvre par les entreprises. Comme le résume bien un télétravailleur interrogé dans le cadre des entretiens qualitatifs menés en complément de l’enquête :
« On a un outil qui permet non pas de contrôler qu’on travaille trop, mais de contrôler qu’on est bien connecté. »
Contrôler, c’est veiller… ou presque
À cet égard, il peut être utile de rappeler l’étymologie du terme « contrôle . En vieux français, le terme « contrerole » est le « rôle opposé », le « registre tenu en double », permettant de vérifier l’exactitude et de réguler. Il est proche du terme « surveiller », qui est un dérivé de « veiller ». Ces origines étymologiques acquièrent une nouvelle portée à l’heure du télétravail en questionnant l’objet et l’objectif du contrôle : s’agit-il de contrôler uniquement le travail pour sanctionner sa mauvaise exécution ? N’est-il pas aussi question de contrôler les conditions dans lesquelles il est réalisé dans l’objectif de veiller au respect des droits des travailleurs ?
La question du contrôle s’inscrit pleinement dans les problématiques du travail hybride, à la fois en télétravail mais également sur site.
En effet, alors que le débat sur le « retour au bureau » agite les organisations, avec des annonces très médiatisées de certaines grandes entreprises, on peut questionner là aussi la notion du contrôle.
Du côté des employeurs, l’argumentaire principalement utilisé pour justifier le retour au bureau est celui du délitement des liens sociaux et ses conséquences potentielles sur l’intelligence collective sous toutes ses formes. Du côté des salariés et de leurs représentants subsiste une légitime suspicion quant à l’association entre présence sur site et contrôle.
Insaisissable objet du contrôle
Il y a donc une tension dans les organisations. Mais on manque de précision sur ce qu’on souhaite contrôler. Deux ensembles de questions demeurent. D’une part, celles relatives à la surveillance. Est-on encore dans l’idée que la présence physique prouve le travail effectué ? Contrôle-t-on la quantité de travail ? Sa qualité ? La volonté d’une présence physique a-t-elle pour objectif de surveiller en temps réel le salarié à sa tâche, possiblement en l’absence de confiance ? D’autre part, celles relatives à l’accompagnement et au soutien. Le management est-il meilleur en co-présence ? Le soutien social est-il meilleur sur site ? La circulation de l’information trouve-t-elle de plus efficaces canaux ?
À l’évidence, le débat sur le retour au bureau est clivant, mais il pourrait l’être moins si l’on questionnait la valeur ajoutée réelle pour le salarié, pour son travail, pour sa satisfaction et donc pour sa performance, de se rendre sur site plutôt que de rester chez lui. La question n’est donc pas de savoir s’il faut contrôler, mais comment le faire !
Le lien de subordination demeure consubstantiel au contrat de travail – il fonde le pouvoir de direction, d’organisation et de sanction de l’employeur. Mais ce pouvoir doit s’exercer dans les bornes que fixe le droit : celles du respect, de la proportionnalité et de la santé au travail.
Ceci questionne une nouvelle éthique du management : veiller et protéger plutôt que surveiller ; réguler et animer plutôt que traquer. S’il est de sa responsabilité de garantir que ses équipes atteignent les performances attendues, le manager doit également le faire en s’assurant de la qualité et de la légalité des conditions dans lesquelles ces performances sont réalisées.
Cet article a été co-écrit avec Nicolas Cochard, directeur de la recherche du groupe Kardham, enseignant en qualité de vie au travail (QVT) en master RH à l’Université Paris Nanterre.
Suzy Canivenc est membre de l'OICN (Observatoire de l''Infobésité et de la Collaboration Numérique) et Directrice scientifique de Mailoop
Caroline Diard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.11.2025 à 11:32
Pourquoi les réunions de travail nuisent au bien-être
Texte intégral (1147 mots)

Trop nombreuses, trop longues et inefficaces, les réunions de travail, loin d’être de simples outils de coordination, peuvent devenir de véritables moteurs de mal-être. Comment y remédier ? Analyse par la science… des réunions.
Quiconque travaille dans une organisation le sait : les réunions s’enchaînent à un rythme effréné. En moyenne, les managers y passent vingt-trois heures par semaine. Une grande partie de ces échanges est jugée de faible valeur, voire totalement contre-productive. Le paradoxe de cette frénésie est que de mauvaises réunions en génèrent encore davantage… pour tenter de réparer les précédentes.
Pendant longtemps, les réunions n’ont pas été étudiées comme un objet de recherche en soi ; elles servaient de contexte à l’analyse, mais rarement d’unité centrale. Un manuel publié en 2015 a posé les bases de ce champ émergent, la « science des réunions ». Le véritable problème ne tient pas tant au nombre de réunions qu’à leur conception, au manque de clarté de leurs objectifs, et aux inégalités qu’elles renforcent souvent inconsciemment.
Se réunir nourrit le bien-être, ou lui nuit
Notre série d’études menées pendant et après la pandémie de Covid-19 souligne que les réunions peuvent à la fois nourrir le bien-être des participants et lui nuire. Trop de réunions peuvent conduire au burn-out et à l’envie de quitter son organisation ; mais elles peuvent aussi renforcer l’engagement des employés.
Le recours massif au télétravail et aux réunions virtuelles, accéléré par la pandémie, a introduit de nouvelles sources de fatigue : surcharge cognitive, hyperconnexion, effacement des frontières entre vie professionnelle et personnelle. Ces réunions en ligne favorisent aussi des interactions sociales continues et permettent de mieux percevoir la place de chacun dans l’organisation.
Les femmes parlent moins en visioconférence
Ces nouveaux formats de réunion ne sont pas vécus par tous de la même manière.
Un constat frappant concerne le temps de parole. Dans notre enquête menée auprès de centaines d’employés, les résultats sont clairs. Les femmes rapportent avoir plus de difficultés à s’exprimer en réunion virtuelle qu’en présentiel. Les causes sont multiples : interruptions plus fréquentes, invisibilité sur les écrans partagés, difficulté à décoder les signaux non verbaux, ou encore la double charge mentale lorsque les réunions se tiennent à domicile.
Autrement dit, les réunions en ligne – censées démocratiser l’accès – peuvent, si l’on n’y prend pas garde, renforcer les inégalités de genre.
Une réunion doit se concevoir, pas se subir
Face à cette folie des réunions, la solution n’est pas de les supprimer, mais de mieux les concevoir. Tout commence par une question simple, souvent oubliée : pourquoi nous réunissons-nous ?
Selon notre série d’études couvrant plusieurs milliers de réunions, il existe quatre grands objectifs :
- Partager de l’information ;
- Prendre des décisions ;
- Exprimer des émotions ou des opinions ;
- Construire des relations de travail.
Chacun de ces objectifs exige des conditions spécifiques, comme voir les visages, entendre les intonations, observer les réactions, partager un écran, etc. Aucun format (audio, visioconférence, hybride ou présentiel) n’est universellement le meilleur. Le mode choisi doit dépendre de l’objectif principal, et non d’une habitude ou d’une commodité technologique.
Plus encore, la recherche identifie des leviers simples mais puissants pour améliorer l’expérience collective :
Partager à l’avance un ordre du jour clair et les documents nécessaires pour préparer les participants ;
Varier les modes de prise de parole grâce à des outils de « main levée », des chats anonymes, ou des tours systématiques ;
Jouer un vrai rôle de modération. Les responsables de réunion doivent équilibrer les interventions, encourager la participation et éviter les dynamiques d’exclusion.
Miroir de la culture organisationnelle
Les réunions ne sont jamais neutres. Elles reflètent – souvent inconsciemment – la culture, les rapports de pouvoir et les priorités implicites d’une organisation. Les données sont claires, les pistes d’amélioration existent. Reste aux entreprises et à leurs dirigeants à reconnaître le pouvoir transformateur des réunions.
Une organisation où seules les voix les plus fortes se font entendre en réunion est rarement inclusive en dehors. À l’inverse, des réunions bien menées peuvent devenir des espaces de respect et d’innovation collective.
L’objectif n’est pas d’avoir moins de réunions, mais de meilleures réunions. Des réunions qui respectent le temps et l’énergie de chacun. Des réunions qui donnent une voix à tous. Des réunions qui créent du lien.
Article écrit avec le Dr Arnaud Stiepen, expert en communication et vulgarisation scientifiques.
Willem Standaert ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.11.2025 à 11:32
Pour la première fois, une étude révèle ce qui se passe dans le cerveau d'un entrepreneur
Texte intégral (1471 mots)

L’entrepreneuriat façonne-t-il le cerveau ? Certaines personnes naissent-elles avec des caractéristiques cérébrales qui les prédisposent à entreprendre ? Pour tenter de répondre à ces questions, une étude récente explore le fonctionnement du cerveau d’entrepreneurs grâce à l’imagerie par résonance magnétique fonctionnelle, une technique qui permet de visualiser l’activité cérébrale.
Si l’on reconnaît l’importance des processus cognitifs chez les entrepreneurs
– comment pensent-ils et agissent-il face à l’incertitude ? –, on s’est peu intéressé à l’étude de leur cerveau lorsqu’ils prennent leurs décisions.
Pourquoi certains individus semblent exceller dans la création d’entreprises et naviguent habilement à travers l’incertitude, tandis que d’autres peinent à s’adapter ?
Pour tenter de faire la lumière sur la réponse à cette question, nous avons mené des travaux faisant converger neurosciences et recherche en entrepreneuriat. Nous avons en effet exploré l’activité cérébrale chez des entrepreneurs grâce à une technique d’imagerie médicale, l’imagerie par résonance magnétique fonctionnelle (IRMf).
Fruit d’une collaboration entre le centre de recherche interdisciplinaire en sciences biomédicales GIGA Consciousness Research Unit de l’Université de Liège (Belgique) et le Centre hospitalier universitaire (CHU) de Liège, notre étude ouvre de nouvelles perspectives sur la manière dont les entrepreneurs abordent la prise de décision, gèrent l’incertitude et exploitent de nouvelles opportunités.
Imagerie par résonance magnétique fonctionnelle (IRMf)
L’IRMf permet de visualiser l’activité cérébrale en mesurant les variations du flux sanguin dans le cerveau. Cette méthode repose sur un principe simple : lorsqu’une région du cerveau est activée, elle consomme plus d’oxygène, ce qui entraîne une augmentation du flux sanguin vers cette zone. Ce surplus d’oxygène modifie légèrement les propriétés magnétiques du sang. C’est cette différence que l’IRMf mesure pour créer des cartes d’activité cérébrale en temps réel, offrant ainsi une vue détaillée de la fonction cérébrale.
Plus précisément, notre étude s’est concentrée sur 23 entrepreneurs habituels
– c’est-à-dire ceux qui ont lancé plusieurs entreprises, en les comparant à 17 managers travaillant dans de grandes organisations.
L’analyse de connectivité en état de repos basée sur une région cérébrale d’intérêt (seed-based resting state fMRI) a révélé que ces entrepreneurs expérimentés présentent une connectivité neuronale accrue entre certaines régions de l’hémisphère droit du cerveau : l’insula et le cortex préfrontal. Ces zones jouent un rôle dans la flexibilité cognitive et la prise de décisions exploratoires, c’est-à-dire la capacité à ajuster sa stratégie et à penser autrement face à des situations nouvelles ou incertaines.
Mieux gérer l’incertitude
Ce réseau cérébral plus connecté pourrait contribuer à expliquer pourquoi ces entrepreneurs semblent mieux armés pour gérer l’incertitude et faire preuve de flexibilité cognitive, des capacités souvent associées à l’identification d’opportunités entrepreneuriales.
Que ce soit de manière séquentielle – les serial entrepreneurs, qui créent une entreprise après l’autre – ou de façon concurrente – les portfolio entrepreneurs qui gèrent plusieurs entreprises en même temps –, ces profils paraissent exceller dans l’art de s’adapter rapidement. Une compétence précieuse dans le monde des start-ups, où les repères sont rarement stables.
Une autre étude, portant sur le même groupe d’entrepreneurs et de managers met en lumière un autre phénomène intrigant : ces entrepreneurs habituels présentent un volume de matière grise plus important dans l’insula gauche. Bien que l’étude n’ait pas directement mesuré la pensée divergente, d’autres travaux ont montré que l’augmentation du volume de matière grise dans l’insula gauche est associée à cette capacité – c’est-à-dire la faculté de générer de nombreuses idées différentes pour résoudre un même problème.
Ce qui suggère que les différences observées chez ces entrepreneurs pourraient refléter une plus grande propension à la pensée divergente.
Une question essentielle reste ouverte : l’entrepreneuriat façonne-t-il le cerveau… ou bien certaines personnes naissent-elles avec ces caractéristiques cérébrales qui les prédisposent à entreprendre ?
Autrement dit, sommes-nous entrepreneurs par nature ou par culture ?
Nature ou culture ?
Cette interrogation est aujourd’hui au cœur des nouveaux projets de recherche menés par l’équipe d’HEC Liège et du Centre de recherche du cyclotron (CRC) de l’Université de Liège. Cette orientation de recherche s’appuie sur le concept de « plasticité cérébrale », c’est-à-dire la capacité du cerveau à se modifier sous l’effet des expériences et des apprentissages.
Si le cerveau est capable de renforcer certains réseaux neuronaux grâce à l’entraînement, comme on muscle son corps par le sport, alors l’expérience entrepreneuriale répétée pourrait elle-même être un facteur de développement de ces connexions particulières. À l’inverse, si ces différences cérébrales sont présentes dès le départ, cela poserait la question de traits cognitifs ou neurobiologiques favorisant l’esprit d’entreprise.
Pour répondre à ces questions, de nouveaux travaux sont en cours au sein du laboratoire et du GIGA-CRC, avec notamment des études longitudinales visant à suivre l’évolution des cerveaux d’entrepreneurs au fil de leur parcours, mais aussi des comparaisons avec de jeunes porteurs de projets ou des aspirants entrepreneurs.
L’enjeu est de mieux comprendre si, et comment, l’expérience de l’entrepreneuriat peut façonner notre cerveau. Cette nouvelle phase de la recherche est en cours et entre dans une phase clé : le recrutement des participants pour une étude en imagerie par résonance magnétique (IRM). Nous recherchons des volontaires, entrepreneurs ou non, prêts à contribuer à cette exploration scientifique inédite sur les effets de la pratique entrepreneuriale sur le cerveau.
Former les futurs entrepreneurs
L’intégration des neurosciences dans l’étude de l’entrepreneuriat offre une perspective novatrice sur les facteurs qui pourraient contribuer à l’esprit entrepreneurial. En comprenant si – et comment – l’expérience entrepreneuriale influence la structure et la fonction cérébrales, il deviendrait possible de concevoir des approches de formation spécifiques pour favoriser l’esprit d’entreprendre. On pourrait, par exemple, imaginer de mettre au point des exercices pratiques et des approches d’apprentissage immersif afin de développer chez les étudiants les compétences observées chez des entrepreneurs habituels.
Cet article a été rédigé avec l’aide du Dr Arnaud Stiepen, expert en communication et vulgarisation scientifiques.
Frédéric Ooms a été financé par une subvention ARC (Actions de Recherche Concertée) de la Fédération Wallonie‑Bruxelles.
17.11.2025 à 10:20
Intelligence économique : de la compétition à la coopération
Texte intégral (1219 mots)
La notion d’intelligence économique renvoie au moins à deux réalités différentes. Moins offensive, elle peut être un levier pertinent pour favoriser la collaboration entre les entreprises et leur environnement et pour rendre les écosystèmes plus résilients.
Depuis les années 1990, l’intelligence économique oscille entre deux modèles antagonistes : l’un, hérité de la « competitive intelligence » qui en fait une arme de guerre économique ; l’autre, issu de la « social intelligence » qui la conçoit au service d’un développement partagé. Aujourd’hui, face à l’incertitude croissante, des dirigeants d’entreprise semblent privilégier la seconde voie, celle de la coopération et de la responsabilité collective.
Deux visions
Popularisée dans les années 1990, l’intelligence économique s’est imposée en France comme une boîte à outils stratégique. Elle aide les organisations à anticiper les évolutions, à protéger leurs ressources et à influencer leur environnement à leur avantage. Son principe est simple : l’information est vitale. Il faut la collecter, l’analyser, la partager et la protéger via par exemple des pratiques de veille, de prospective, de sécurité économique et numérique, de protection des savoir-faire, d’influence et de lobbying. Mais derrière cette définition se cachent deux visions opposées.
La première voit l’intelligence économique comme une arme au service de la compétition. La seconde la conçoit comme un bien commun, au service de la société.
La première, popularisée par Michael Porter au début des années 1980, s’inscrit dans le courant de la « competitive intelligence ». La maîtrise de l’information permet d’éclairer les choix stratégiques et d’anticiper les mouvements de la concurrence. L’entreprise est considérée comme un acteur en alerte permanente, mobilisant des données, des outils d’analyse et des modèles prédictifs pour renforcer sa compétitivité. La perspective est à la fois défensive et offensive : l’intelligence économique sert à conquérir des parts de marché et à se prémunir des menaces externes.
À lire aussi : Le renseignement au service de l’économie : les 30 ans de retard de la France
À la même époque, un tout autre courant émerge. À l’initiative du chercheur suédois Stevan Dedijer qui propose une vision bien plus inclusive avec la « social intelligence ». L’information n’est pas seulement une ressource stratégique au profit de quelques acteurs cherchant à être dominants, mais une orientation collective : celle des institutions, des entreprises et des citoyens cherchant à apprendre, à s’adapter et à innover ensemble. Cette approche, fondée sur la coopération entre sphères publique et privée, promeut une perspective visant le développement durable des sociétés plutôt que la seule performance des organisations.
Un lien entre savoir et action
Ces deux traditions ne s’opposent pas seulement dans leurs finalités ; elles reflètent deux conceptions du lien entre savoir et action. La « competitive intelligence » privilégie la maîtrise de son environnement et la compétition, quand la « social intelligence » valorise la coordination et la mutualisation des connaissances. En Suède, cette dernière s’est traduite par des dispositifs régionaux associant recherche, industrie et pouvoirs publics pour renforcer la capacité d’adaptation collective.
En France, l’intelligence économique s’est construite sur un équilibre fragile entre ces deux héritages : celui de la guerre économique et celui de la coopération à l’échelle du territoire. Aujourd’hui, la perspective de la social intelligence trouve un véritable écho chez les dirigeants d’entreprise. Face à la complexité et à l’incertitude, ils privilégient désormais des démarches collectives et apprenantes plutôt que la seule recherche d’un avantage concurrentiel. L’intelligence économique devient un levier d’action concrète, ancré dans la coopération et la responsabilité.
Veille collaborative
Ces démarches se traduisent sur le terrain par des formes de veille collaborative, où les entreprises mutualisent la collecte et l’analyse d’informations pour anticiper les mutations de leur environnement. Elles s’incarnent aussi dans les « entreprises à mission », qui placent le sens, la durabilité et la contribution au bien commun au cœur de leur stratégie.
Ces pratiques s’inscrivent pleinement dans la réflexion menée par Maryline Filippi autour de la responsabilité territoriale des entreprises (RTE). Elle propose d’« entreprendre en collectif et en responsabilité pour le bien commun ». Elles traduisent une conception du développement où le territoire devient un espace vivant de coopération entre les acteurs économiques, publics et associatifs. Dans cette perspective, la performance n’est plus une fin en soi, mais un moyen d’assurer la robustesse des systèmes productifs, cette capacité à durer et à s’adapter que défend Olivier Hamant.
Des formes variées d’appropriation
Comme le montre ma recherche doctorale (en particulier Poisson et coll., 2025), la notion d’intelligence économique connaît une appropriation variée selon le profil de dirigeant. En particulier, nous révélons que l’intelligence économique est souvent mobilisée pour construire des relations en vue de se doter de la force collective nécessaire pour faire face à l’incertitude.
Ainsi comprise, l’intelligence économique s’incarne dans des réseaux d’acteurs apprenants, dans la capacité à créer de la confiance et à partager les ressources d’un territoire. Elle propose une autre voie que celle de la compétition : celle de la coopération, de l’éthique et de la conscience d’un destin commun.
Cet article est publié dans le cadre de la Fête de la science (qui a eu lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.
Julien Poisson a reçu des financements de la Région Normandie et de l'Agence Nationale de la Recherche Technologique (ANRT) dans le cadre de sa thèse CIFRE menée depuis novembre 2021.
Ludovic Jeanne est membre de l'Académie de l'Intelligence économique.
Simon Lee a reçu des financements de l'ANRT dans le cadre de contrats CIFRE.
16.11.2025 à 17:20
Pourquoi certains fromages couverts de moisissures peuvent être consommés, mais jamais de la viande avariée : les conseils d’un toxicologue sur les précautions à prendre
Texte intégral (2607 mots)
Dans la cuisine, la prudence est de mise avec les aliments qui se dégradent. Gare aux moisissures sur les céréales, les noix et les fruits, car ces champignons microscopiques libèrent des toxines à risque. Attention surtout aux bactéries très nocives qui se développent en particulier sur la viande avariée. Des pathogènes qui ne sont pas toujours perceptibles à l’odeur ou à l’œil.
Quand vous ouvrez le réfrigérateur et que vous trouvez un morceau de fromage couvert de moisissure verte ou un paquet de poulet qui dégage une légère odeur aigre, vous pouvez être tentés de prendre le risque de vous rendre malades plutôt que de gaspiller de la nourriture.
Mais il faut établir une frontière très nette entre une fermentation inoffensive et une altération dangereuse. La consommation d’aliments avariés expose l’organisme à toute une série de toxines microbiennes et de sous-produits biochimiques, dont beaucoup peuvent perturber des processus biologiques essentiels. Les effets sur la santé peuvent aller de légers troubles gastro-intestinaux à des affections graves telles que le cancer du foie.
Je suis toxicologue et chercheur, spécialisé dans les effets sur l’organisme de substances chimiques étrangères, à l’image de celles libérées lors de la détérioration des aliments. De nombreux aliments avariés contiennent des microorganismes spécifiques qui produisent des toxines. Étant donné que la sensibilité individuelle à ces substances chimiques diffère et que leur quantité dans les aliments avariés peut également varier considérablement, il n’existe pas de recommandations absolues sur ce qu’il est sûr de manger. Cependant, il est toujours bon de connaître ses ennemis afin de pouvoir prendre des mesures pour les éviter.
Céréales et noix
Les champignons sont les principaux responsables de la détérioration des aliments d’origine végétale tels que les céréales, les noix et les arachides. Ils forment des taches de moisissures duveteuses de couleur verte, jaune, noire ou blanche qui dégagent généralement une odeur de moisi. Bien qu’elles soient colorées, bon nombre de ces moisissures produisent des substances chimiques toxiques appelées mycotoxines.
Aspergillus flavus et Aspergillus parasiticus sont deux champignons courants présents sur des céréales comme le maïs, le sorgho, le riz ainsi que sur les arachides. Ils peuvent produire des mycotoxines appelées aflatoxines qui, elles-mêmes forment des molécules appelées époxydes ; ces dernières étant susceptibles de déclencher des mutations lorsqu’elles se lient à l’ADN. Une exposition répétée aux aflatoxines peut endommager le foie et a même été associée au cancer du foie, en particulier chez les personnes qui présentent déjà d’autres facteurs de risque, comme une infection par l’hépatite B.
Le genre Fusarium est un autre groupe de champignons pathogènes qui peuvent se développer sous forme de moisissures sur des céréales comme le blé, l’orge et le maïs, en particulier dans des conditions d’humidité élevée. Les céréales contaminées peuvent présenter une décoloration ou une teinte rosâtre ou rougeâtre, et dégager une odeur de moisi. Les champignons Fusarium produisent des mycotoxines appelées trichothécènes qui peuvent endommager les cellules et irriter le tube digestif. Ils libèrent également une autre toxine, la fumonisine B1 qui perturbe la formation et le maintien des membranes externes des cellules. Au fil du temps, ces effets peuvent endommager le foie et les reins.
Si des céréales, des noix ou des arachides semblent moisies, décolorées ou ratatinées, ou si elles dégagent une odeur inhabituelle, il vaut mieux faire preuve de prudence et les jeter. Les aflatoxines, en particulier, sont connues pour être de puissants agents cancérigènes, il n’existe donc aucun niveau d’exposition sans danger.
Qu’en est-il des fruits ?
Les fruits peuvent également contenir des mycotoxines. Quand ils sont abîmés ou trop mûrs, ou quand ils sont conservés dans des environnements humides, la moisissure peut facilement s’installer et commencer à produire ces substances nocives.
L’une des plus importantes est une moisissure bleue appelée Penicillium expansum. Elle est surtout connue pour infecter les pommes, mais elle s’attaque également aux poires, aux cerises, aux pêches et à d’autres fruits. Ce champignon produit de la patuline, une toxine qui interfère avec des enzymes clés dans les cellules, entrave leur fonctionnement normal et génère des molécules instables appelées espèces réactives de l’oxygène. Ces dernières peuvent endommager l’ADN, les protéines et les graisses. En grande quantité, la patuline peut endommager des organes vitaux comme les reins, le foie, le tube digestif ainsi que le système immunitaire.
Les « cousins » bleus et verts de P. expansum, Penicillium italicum et Penicillium digitatum, se retrouvent fréquemment sur les oranges, les citrons et autres agrumes. On ne sait pas s’ils produisent des toxines dangereuses, mais ils ont un goût horrible.
Il est tentant de simplement couper les parties moisies d’un fruit et de manger le reste. Cependant, les moisissures peuvent émettre des structures microscopiques ressemblant à des racines, appelées hyphes, qui pénètrent profondément dans les aliments et qui peuvent libérer des toxines, même dans les parties qui semblent intactes. Pour les fruits mous en particulier, dans lesquels les hyphes peuvent se développer plus facilement, il est plus sûr de jeter les spécimens moisis. Pour les fruits durs, en revanche, je me contente parfois de couper les parties moisies. Mais si vous le faites, c’est à vos risques et périls.
Le cas du fromage
Le fromage illustre parfaitement les avantages d’une croissance microbienne contrôlée. En effet, la moisissure est un élément essentiel dans la fabrication de nombreux fromages que vous connaissez et appréciez. Les fromages bleus tels que le roquefort et le stilton tirent leur saveur acidulée caractéristique des substances chimiques produites par un champignon appelé Penicillium roqueforti. Quant à la croûte molle et blanche des fromages tels que le brie ou le camembert, elle contribue à leur saveur et à leur texture.
En revanche, les moisissures indésirables ont un aspect duveteux ou poudreux et peuvent prendre des couleurs inhabituelles. Les moisissures vert-noir ou rougeâtre, parfois causées par des espèces d’Aspergillus, peuvent être toxiques et doivent être éliminées. De plus, des espèces telles que Penicillium commune produisent de l’acide cyclopiazonique, une mycotoxine qui perturbe le flux de calcium à travers les membranes cellulaires, ce qui peut altérer les fonctions musculaires et nerveuses. À des niveaux suffisamment élevés, elle peut provoquer des tremblements ou d’autres symptômes nerveux. Heureusement, ces cas sont rares, et les produits laitiers avariés se trahissent généralement par leur odeur âcre, aigre et nauséabonde.
En règle générale, jetez les fromages à pâte fraîche type ricotta, cream cheese et cottage cheese dès les premiers signes de moisissure. Comme ils contiennent plus d’humidité, les filaments de moisissure peuvent se propager facilement dans ces fromages.
Vigilance extrême avec les œufs et la viande avariés
Alors que les moisissures sont la principale cause de détérioration des végétaux et des produits laitiers, les bactéries sont les principaux agents de décomposition de la viande. Les signes révélateurs de la détérioration de la viande comprennent une texture visqueuse, une décoloration souvent verdâtre ou brunâtre et une odeur aigre ou putride.
Certaines bactéries nocives ne produisent pas de changements perceptibles au niveau de l’odeur, de l’apparence ou de la texture, ce qui rend difficile l’évaluation de la salubrité de la viande sur la base des seuls indices sensoriels. Quand elles sont toutefois présentes, l’odeur nauséabonde est causée par des substances chimiques telles que la cadavérine et la putrescine, qui se forment lors de la décomposition de la viande et peuvent provoquer des nausées, des vomissements et des crampes abdominales, ainsi que des maux de tête, des bouffées de chaleur ou une chute de tension artérielle.
Les viandes avariées sont truffées de dangers d’ordre bactérien. Escherichia coli, un contaminant courant du bœuf, produit la toxine Shiga qui bloque la capacité de certaines cellules à fabriquer des protéines et peut provoquer une maladie rénale dangereuse appelée syndrome hémolytique et urémique.
La volaille est souvent porteuse de la bactérie Campylobacter jejuni qui produit une toxine qui envahit les cellules gastro-intestinales, ce qui entraîne souvent des diarrhées, des crampes abdominales et de la fièvre. Cette bactérie peut également provoquer une réaction du système immunitaire qui attaque ses propres nerfs. Cela peut déclencher une maladie rare appelée syndrome de Guillain-Barré qui peut entraîner une paralysie temporaire.
Les salmonelles présentes notamment dans les œufs et le poulet insuffisamment cuits, causent l’un des types d’intoxication alimentaire les plus courants. Elles provoquent des diarrhées, des nausées et des crampes abdominales. Elles libèrent des toxines dans la muqueuse de l’intestin grêle et du gros intestin, qui provoquent une inflammation importante.
(En France, l’Agence nationale de sécurité sanitaire – Anses – rappelle que les aliments crus ou insuffisamment cuits, surtout d’origine animale, sont les plus concernés par les contaminations par les bactéries du genre « Salmonella » : les œufs et les produits à base d’œufs crus, les viandes -bovines, porcines, incluant les produits de charcuterie crue, et de volailles –, les fromages au lait cru. L’Anses insiste aussi sur le fait que les œufs et les aliments à base d’œufs crus – mayonnaise, crèmes, mousse au chocolat, tiramisu, etc.- sont à l’origine de près de la moitié des toxi-infections alimentaires collectives dues à Salmonella, ndlr).
Clostridium perfringens attaque également l’intestin, mais ses toxines agissent en endommageant les membranes cellulaires. Enfin, Clostridium botulinum, qui peut se cacher dans les viandes mal conservées ou vendues en conserves, produit la toxine botulique, l’un des poisons biologiques les plus puissants, qui se révèle mortelle même en très petites quantités.
Il est impossible que la viande soit totalement exempte de bactéries. Mais plus elle reste longtemps au réfrigérateur – ou pire, sur votre comptoir ou dans votre sac de courses – plus ces bactéries se multiplient. Et vous ne pouvez pas les éliminer toutes en les cuisant. La plupart des bactéries meurent à des températures sûres pour la viande – entre 63-74 °C (145 et 165 degrés Fahrenheit) – mais de nombreuses toxines bactériennes sont stables à la chaleur et survivent à la cuisson.
Brad Reisfeld ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
16.11.2025 à 15:39
L’affrontement sur la taxe Zucman : une lutte de classe ?
Texte intégral (1326 mots)
Le terme de lutte des classes est peu utilisé depuis l’effondrement du communisme. Pourtant, le débat sur la taxe Zucman révèle un violent clivage de classe entre une infime minorité de très grandes fortunes et l’immense majorité des Français.
Pendant près de six mois, le projet de taxe Zucman a focalisé l’intérêt médiatique et politique. Il a aussi contribué à mettre en évidence un clivage de classes habituellement occulté par une forme « d’embargo théorique » qui pèse depuis le milieu des années 1970 sur le concept de classe sociale, comme sur tous les concepts affiliés (à tort ou à raison) au marxisme.
Retour sur le feuilleton de la taxe Zucman
Le 11 juin dernier, Olivier Blanchard (économiste en chef du Fonds monétaire international entre 2008 et 2015), Jean Pisani-Ferry (professeur d’économie à Sciences Po Paris et directeur du pôle programme et idées d’Emmanuel Macron en 2017) et Gabriel Zucman (professeur à l’École normale supérieure) publiaient une tribune où ils se prononçaient, en dépit de leurs divergences, en faveur d’un impôt plancher de 2 % sur le patrimoine des foyers fiscaux dont la fortune dépasse 100 millions d’euros (environ 1 800 foyers fiscaux), susceptible de rapporter de 15 milliards à 25 milliards d’euros par an au budget de l’État (les exilés fiscaux éventuels restant soumis à l’impôt plancher cinq ans après leur départ).
Dès la rentrée, les médias ouvraient un débat sur fond de déficit public et de « dette de l’État » que relançait chaque apparition de Gabriel Zucman. Sur un sujet économique réputé aride, ils recyclaient la confrontation à la fois inusable et omnibus entre « intellectualisme », « amateurisme » sinon « incompétence », imputés aux universitaires, et « sens pratique » des « hommes de terrain » confrontés aux « réalités » (de la vie économique) et/ou entre « prise de position partisane » et « neutralité », « impartialité », « apolitisme », attribués à la prise de position opposée. Le débat s’étendait rapidement aux réseaux sociaux : il opposait alors les partisans de la taxe qui invoquaient la « justice fiscale et sociale » à des opposants qui dénonçaient « une mesure punitive », « dissuasive pour l’innovation et l’investissement ».
Le 20 septembre, dans une déclaration au Sunday Times, Bernard Arnault, PDG du groupe LVMH et première fortune de France, avait décliné in extenso les deux volets de l’anti-intellectualisme médiatique en mettant en cause la « pseudo-compétence universitaire » de Gabriel Zucman et en dénonçant « un militant d’extrême gauche » dont « l’idéologie » vise « la destruction de l’économie libérale ».
Le Medef lui avait emboîté le pas. En guerre contre la taxe Zucman, Patrick Martin, affirmant que Zucman « serait aussi économiste que [lui] serait danseuse étoile au Bolchoï », annonçait un grand meeting le 13 octobre à Paris. Pourtant, il avait dû y renoncer face à la division créée par cette initiative au sein du camp patronal : l’U2P et la CPME (artisans et petites et moyennes entreprises) avaient décliné l’invitation : « On ne défend pas les mêmes intérêts », disaient-ils.
Mi-septembre, selon un sondage Ifop, 86 % des Français plébiscitaient la taxe Zucman.
Une bataille politique
À ces clivages que traçait le projet de taxe Zucman au sein du champ médiatique (audiovisuel public, d’un côté, et « supports » contrôlés par une dizaine de milliardaires, de l’autre) et de l’espace social (où les milliardaires s’opposaient à tous les autres) correspondaient approximativement ceux du champ politique. Portée initialement par une proposition de loi de Clémentine Autain et Éva Sas (groupe Écologiste et social), la taxe Zucman avait d’abord été adoptée par l’Assemblée nationale, le 20 février, avant d’être rejetée par le Sénat, le 12 juin.
Mais l’opportunité du projet se faisait jour au cours de l’été avec l’exhortation de François Bayrou à « sortir du piège mortel du déficit et de la dette », puis à l’occasion de l’invitation de Sébastien Lecornu à débattre du projet de budget du gouvernement « sans 49.3 ».
Le 31 octobre dernier, non seulement la taxe Zucman était balayée par une majorité de députés, mais également « sa version light » portée par le Parti socialiste (PS). Mesure de « compromis », la taxe « Mercier » (du nom d’Estelle Mercier, députée PS de Meurthe-et-Moselle) pouvait sembler plus ambitieuse, mais, en créant des « niches et des « exceptions », elle comportait, selon Gabriel Zucman, « deux échappatoires majeures » qui amorçaient « la machine à optimisation ».
Refusant de « toucher à l’appareil productif », selon sa porte-parole Maud Bregeon, le gouvernement Lecornu s’y opposait. Les députés d’Ensemble pour la République (députés macronistes) votaient contre (60 votants sur 92 inscrits) comme ceux de la Droite républicaine (28 sur 50). Le Rassemblement national (RN), qui s’était abstenu en février, s’inscrivait désormais résolument contre ce projet de taxe (88 sur 123) que Marine Le Pen décrivait comme « inefficace, injuste et dangereuse puisqu’elle entraverait le développement de nos entreprises ». Soixante-et-un députés socialistes et apparentés sur 69, 60 députés sur 71 de La France insoumise (LFI), 33 députés sur 38 du groupe Écologiste et social ainsi que 12 députés sur 17 du groupe Gauche démocrate et républicaine avaient voté pour le projet. Les députés LFI appelaient alors à la censure du gouvernement.
La lutte des 1 % les plus riches pour leurs privilèges
L’essor du néolibéralisme au cours des cinquante dernières années a certes transformé la morphologie des classes sociales (à commencer par celle de la « classe ouvrière » délocalisée et précarisée), accréditant ainsi l’avènement d’une « société post-industrielle », l’extension indéfinie d’une « classe moyenne » envahissante ou l’émergence d’une « société des individus » ou encore la prééminence des clivages (de sexe, de phénotype, d’âge, etc.) associés au revival des « nouveaux mouvements sociaux ».
Pourtant, le débat sur la taxe Zucman révèle bien un clivage de classe – comment l’appeler autrement ? – entre le 1 % et les 99 %, et l’âpreté de la lutte des 1 % pour la défense de leurs privilèges. Tout se passe comme si, en effet, à l’occasion de ce débat, s’était rejoué en France, sur la scène politico-médiatique, le mouvement Occupy Wall Street de septembre 2011 qui avait pour mot d’ordre :
« Ce que nous avons tous en commun, c’est que nous sommes les 99 % qui ne tolèrent plus l’avidité des 1 % restants. »
Gérard Mauger ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
16.11.2025 à 15:38
Tanzanie : la fermeture de l’espace numérique, élément clé de la répression
Texte intégral (1904 mots)
Face au puissant mouvement de contestation qui s’est emparé de la Tanzanie à la suite des élections générales, l’une des réponses du pouvoir a consisté à couper les réseaux sociaux. Dans ce grand pays d’Afrique de l’Est, comme dans bien d’autres pays aujourd’hui, la maîtrise de l’espace numérique est devenue un aspect central de la répression.
Le 29 octobre 2025, la Tanzanie a tenu des élections générales censées prolonger la trajectoire démocratique d’un pays souvent vu comme un îlot de stabilité politique en Afrique de l’Est.
Mais dans un climat déjà tendu – manifestations sporadiques à Zanzibar et Arusha, arrestations d’opposants, présence accrue de force de sécurité et fermeture partielle des médias critiques –, le scrutin s’est transformé en crise politique majeure. La présidente sortante Samia Suluhu Hassan, devenue présidente de Tanzanie en mars 2021 à la suite du décès du président John Magufuli, dont elle était la vice-présidente, a été élue avec près de 98 % des voix dans un contexte où le principal parti d’opposition, Chadema, avait été marginalisé et plusieurs de ses dirigeants arrêtés.
Dès l’annonce des résultats, des manifestations de protestation ont éclaté à Dar es Salaam (la plus grande ville du pays, où vivent environ 10 % des quelque 70 millions d’habitants du pays), à Mwanza et à Arusha. Les affrontements auraient fait, selon les sources, entre 40 et 700 morts, et plus d’un millier de blessés.
Face à la propagation des manifestations, le pouvoir a réagi par un couvre-feu national, un déploiement militaire dans les grandes villes et une coupure d’accès à Internet pendant environ 5 jours, invoquant la prévention de la désinformation comme mesure de sécurité. L’accès à Internet a été partiellement rétabli, mais les restrictions sur les réseaux sociaux et les plates-formes de messagerie persistent.
Ce triptyque autoritaire – fermeture politique, verrouillage territorial et blackout numérique – a transformé une contestation électorale en véritable crise systémique de confiance entre État et citoyens, entre institutions et information, et entre stabilité et légitimité.
Gouverner par le silence : quand le contrôle de l’information devient une stratégie de stabilité
Le contrôle de l’information comme pratique de gouvernement
Dans la perspective des sciences de l’information et de la communication (SIC), la séquence tanzanienne illustre une tendance plus large qui est celle de la transformation de la gestion de l’information en technologie de pouvoir (voir notamment, Michel Foucault, Surveiller et punir. Naissance de la prison, 1975 ; Gilles Deleuze, Post-scriptum sur les sociétés de contrôle, 1990).
Le blackout numérique ne vise pas seulement à contenir la désinformation ; il reconfigure les conditions mêmes de la visibilité. Comme le souligne Pierre Musso dès 2003 dans Télécommunications et philosophie des réseaux, l’espace numérique n’est plus un simple médium mais un espace politique. En contrôler l’accès, c’est aussi gouverner la perception.
Privés de réseaux sociaux, les citoyens perdent sur-le-champ leurs canaux d’expression. Les médias indépendants se retrouvent aveugles et les ONG ne peuvent plus documenter les violences.
C’est ainsi que l’État redevient le seul producteur de discours légitime : une régie symbolique de l’ordre public, pour reprendre la notion de Patrick Charaudeau (2005) sur la mise en scène du pouvoir.
Cette stratégie s’inscrit dans un continuum déjà observé lors d’autres scrutins africains (Ouganda 2021, Tchad 2021, Sénégal 2024). Elle marque une mutation du contrôle politique où il ne s’agit plus de réprimer la parole mais de désactiver les infrastructures mêmes de la parole.
La fabrique de la stabilité par la censure
Le discours officiel invoque la lutte contre les fausses informations pour justifier les coupures. Mais l’analyse sémiotique révèle un glissement de sens. L’ordre public devient synonyme de silence collectif et la stabilité politique se construit sur la neutralisation des espaces numériques de débat.
Les travaux en communication politique (Dominique Wolton, 1997) montrent que la démocratie suppose du bruit, du conflit, du débat et que le silence n’est pas l’ordre mais plutôt la suspension de la communication sociale.
Cette logique de stabilité performative donne l’illusion qu’il suffit que l’État contrôle la perception du désordre pour produire l’image d’un ordre.
Dans l’analyse du cas tanzanien, cette mise en scène du calme repose sur une invisibilisation dans la mesure où le calme apparent des réseaux remplace la réalité conflictuelle du terrain. Ce phénomène de stabilité performative, c’est-à-dire ici le calme apparent des réseaux traduisant une stabilité imposée, a déjà été observé au Cameroun et en Ouganda. Dans ces cas, la coupure d’Internet fut utilisée pour maintenir une image d’ordre pendant les scrutins contestés.
Or, la Tanzanie est un pays jeune. Près de 65 % de sa population a moins de 30 ans. Cette génération connectée via TikTok, WhatsApp ou X a intégré les réseaux sociaux non seulement comme espace de loisir mais aussi comme lieu d’existence politique. La priver soudainement d’accès dans ce moment précis porte à l’interprétation inévitable d’un effacement d’une part de la citoyenneté numérique.
Cette fracture illustre une asymétrie de compétences médiatiques qui se caractérise par le fait que le pouvoir maîtrise les outils pour surveiller tandis que les citoyens les mobilisent pour exister. Le conflit devient ainsi info-communicationnel dans la mesure où il se joue sur les dispositifs de médiation plutôt que dans la confrontation physique.
Aussi les répercussions sont-elles économiquement et symboliquement élevées.
Les interdictions de déplacement paralysent le commerce intérieur et les ports, les coupures d’Internet entraînent une perte économique estimée à 238 millions de dollars (un peu plus de 204 millions d’euros) et les ONG et entreprises internationales suspendent leurs activités face au manque de visibilité opérationnelle.
Mais au-delà du coût économique, la coupure d’Internet produit un effet délétère où la relation de confiance entre État et citoyens est rompue. L’information, en tant que bien commun, devient ici un instrument de domination.
Crise de la médiation et dérive sécuritaire en Afrique numérique
En Tanzanie, la circulation de l’information repose désormais sur des dispositifs de contrôle, non de transparence. L’État agit comme gatekeeper unique en filtrant les récits selon une logique de sécurité nationale. On assiste ainsi à une crise de la médiation où le lien symbolique entre institutions, médias et citoyens se défait.
Cette rupture crée une désintermédiation forcée où des circuits parallèles (VPN, radios communautaires, messageries clandestines) émergent, mais au prix d’une fragmentation du débat public. La sphère publique devient une mosaïque de micro-espaces informels, sans régulation et favorisant l’amplification des rumeurs et de discours extrêmes.
La situation tanzanienne dépasse le cadre du pays, en mettant en évidence les tensions d’un continent engagé dans une modernisation technologique sans démocratisation parallèle. L’Afrique de l’Est, longtemps vitrine du développement numérique avec le Kenya et le Rwanda, découvre que l’économie digitale ne garantit pas la liberté numérique.
À lire aussi : Rwanda, Maroc, Nigeria, Afrique du Sud : les quatre pionniers des nouvelles technologies en Afrique
Là où les infrastructures se développent plus vite que les institutions, les réseaux deviennent des zones grises de gouvernance. Ni pleinement ouverts ni totalement fermés, ils sont constamment surveillés. Le cas tanzanien incarne ainsi un moment charnière où la technologie cesse d’être vecteur de progrès pour devenir vecteur de pouvoir.
Dans une approche SIC, la question centrale reste celle de la sécurité communicationnelle.
Peut-on parler de sécurité nationale lorsque la sécurité informationnelle des citoyens est compromise ? La coupure d’Internet ne prévient pas la crise mais la diffère, la rendant plus imprévisible et violente. Cette distinction entre sécurité perçue et sécurité vécue est la preuve que la stabilité ne se mesure pas à l’absence de bruit mais à la qualité du lien informationnel entre les acteurs.
Une démocratie sous silence
La Tanzanie illustre une mutation du pouvoir à l’ère numérique : gouverner, c’est aussi, désormais, gérer la visibilité. Mais la maîtrise de cette visibilité ne suffit pas à produire la légitimité. En restreignant l’accès à l’information, le régime tanzanien a peut-être gagné du temps mais il a sûrement perdu de la confiance. Pour les observateurs africains et internationaux, cette crise n’est pas un accident mais le symptôme d’une Afrique connectée, mais débranchée de sa propre parole.
Fabrice Lollia ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.