LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

ACCÈS LIBRE Une Politique International Environnement Technologies Culture

▸ les 50 dernières parutions

02.12.2025 à 13:12

Quand l’IA fait n’importe quoi, le cas du gratte-ciel et du trombone à coulisse

Frédéric Prost, Maître de conférences en informatique, INSA Lyon – Université de Lyon

Une expérience relativement simple consistant à demander à une IA générative de comparer deux objets de tailles très différentes permet de réfléchir aux limites de ces technologies.
Texte intégral (2488 mots)
Images générées par IA en réponse à la requête « Dessine-moi un gratte-ciel et un trombone à coulisse côte à côte pour qu’on puisse apprécier leur taille respective » (par ChatGPT à gauche, par Gemini à droite). CC BY

Une expérience relativement simple consistant à demander à une intelligence artificielle générative de comparer deux objets de tailles très différentes permet de réfléchir aux limites de ces technologies.


Les intelligence artificielle (IA) génératives font désormais partie de notre quotidien. Elles sont perçues comme des « intelligences », mais reposent en fait fondamentalement sur des statistiques. Les résultats de ces IA dépendent des exemples sur lesquels elles ont été entraînées. Dès qu’on s’éloigne du domaine d’apprentissage, on peut constater qu’elles n’ont pas grand-chose d’intelligent. Une question simple comme « Dessine-moi un gratte-ciel et un trombone à coulisse côte à côte pour qu’on puisse apprécier leurs tailles respectives » vous donnera quelque chose comme ça (cette image a été générée par Gemini) :

Sur l’image générée par IA on voit que le gratte ciel et le trombone à coulisse ont presque la même taille
Image générée par l’IA Gemini en réponse au prompt (la requête) : Dessine-moi un gratte-ciel et un trombone à coulisse côte à côte pour qu’on puisse apprécier leur taille respective. Fourni par l'auteur

L’exemple provient du modèle de Google, Gemini, mais le début de l’ère des IA génératives remonte au lancement de ChatGPT en novembre 2022 et ne date que d’il y a trois ans. C’est une technologie qui a changé le monde et qui n’a pas de précédent dans son taux d’adoption. Actuellement ce sont 800 millions d’utilisateurs, selon OpenAI, qui chaque semaine, utilisent cette IA pour diverses tâches. On notera que le nombre de requêtes diminue fortement pendant les vacances scolaires. Même s’il est difficile d’avoir des chiffres précis, cela montre à quel point l’utilisation des IA est devenue courante. À peu près un étudiant sur deux utilise régulièrement des IA.

Les IA : des technologies indispensables ou des gadgets ?

Trois ans, c’est à la fois long et court. C’est long dans un domaine où les technologies évoluent en permanence, et court en termes sociétaux. Même si on commence à mieux comprendre comment utiliser ces IA, leur place dans la société n’est pas encore quelque chose d’assuré. De même la représentation mentale qu’ont ces IA dans la culture populaire n’est pas établie. Nous en sommes encore à une alternance entre des positions extrêmes : les IA vont devenir plus intelligentes que les humains ou, inversement, ce ne sont que des technologies tape-à-l’œil qui ne servent à rien.

En effet, un nouvel appel à faire une pause dans les recherches liées aux IA a été publié sur fond de peur liée à une superintelligence artificielle. De l’autre côté sont promis monts et merveilles, par exemple un essai récent propose de ne plus faire d’études, car l’enseignement supérieur serait devenu inutile à cause de ces IA.

Difficile de sortir de leurs domaines d’apprentissage

Depuis que les IA génératives sont disponibles, je mène cette expérience récurrente de demander de produire un dessin représentant deux objets très différents et de voir le résultat. Mon but par ce genre de prompt (requête) est de voir comment le modèle se comporte quand il doit gérer des questions qui sortent de son domaine d’apprentissage. Typiquement cela ressemble à un prompt du type « Dessine-moi une banane et un porte-avions côte à côte pour qu’on se rende compte de la différence de taille entre les deux objets ». Ce prompt en utilisant Mistral donne le résultat suivant :

L’IA génère une image d’une banane qui a la même taille qu’un porte-avions
Capture d’écran d’un prompt et de l’image générée par l’IA Mistral. Fourni par l'auteur

À ce jour je n’ai jamais trouvé un modèle qui donne un résultat censé. L’image donnée en illustration ci-dessus (ou en tête de l’article) est parfaite pour comprendre comment fonctionnent ce type d’IA et quelles sont ses limites. Le fait qu’il s’agisse d’une image est intéressant, car cela rend palpables des limites qui seraient moins facilement discernables dans un long texte.

Ce qui frappe est le manque de crédibilité dans le résultat. Même un enfant de 5 ans voit que c’est n’importe quoi. C’est d’autant plus choquant qu’avec la même IA il est tout à fait possible d’avoir de longues conversations complexes sans pour autant qu’on ait l’impression d’avoir affaire à une machine stupide. D’ailleurs ce même type d’IA peut tout à fait réussir l’examen du barreau ou répondre avec une meilleure précision que des professionnels sur l’interprétation de résultats médicaux (typiquement, repérer des tumeurs sur des radiographies).

D’où vient l’erreur ?

La première chose à remarquer est qu’il est difficile de savoir à quoi on est confronté exactement. Si les composants théoriques de ces IA sont connus dans la réalité, un projet comme celui de Gemini (mais cela s’applique aussi aux autres modèles que sont ChatGPT, Grok, Mistral, Claude, etc.) est bien plus compliqué qu’un simple LLM couplé à un modèle de diffusion.

Un LLM est une IA qui a été entraînée sur des masses énormes de textes et qui produit une représentation statistique de ces derniers. En gros, la machine est entraînée à deviner le mot qui fera le plus de sens, en termes statistiques, à la suite d’autres mots (votre prompt).

Les modèles de diffusion qui sont utilisés pour engendrer des images fonctionnent sur un principe différent. Le processus de diffusion est basé sur des notions provenant de la thermodynamique : on prend une image (ou un son) et on ajoute du bruit aléatoire (la neige sur un écran) jusqu’à ce que l’image disparaisse, puis ensuite on fait apprendre à un réseau de neurones à inverser ce processus en lui présentant ces images dans le sens inverse du rajout de bruit. Cet aspect aléatoire explique pourquoi avec le même prompt le modèle va générer des images différentes.

Un autre point à considérer est que ces modèles sont en constante évolution, ce qui explique que le même prompt ne donnera pas le même résultat d’un jour à l’autre. De nombreuses modifications sont introduites à la main pour gérer des cas particuliers en fonction du retour des utilisateurs, par exemple.

À l’image des physiciens, je vais donc simplifier le problème et considérer que nous avons affaire à un modèle de diffusion. Ces modèles sont entraînés sur des paires images-textes. Donc on peut penser que les modèles de Gemini et de Mistral ont été entraînés sur des dizaines (des centaines ?) de milliers de photos et d’images de gratte-ciel (ou de porte-avions) d’un côté, et sur une grande masse d’exemples de trombone à coulisse (ou de bananes) de l’autre. Typiquement des photos où le trombone à coulisse est en gros plan. Il est très peu probable que, dans le matériel d’apprentissage, ces deux objets soient représentés ensemble. Donc le modèle n’a en fait aucune idée des dimensions relatives de ces deux objets.

Pas de « compréhension » dans les modèles

Les exemples illustrent à quel point les modèles n’ont pas de représentation interne du monde. Le « pour bien comparer leurs tailles » montre qu’il n’y a aucune compréhension de ce qui est écrit par les machines. En fait les modèles n’ont pas de représentation interne de ce que « comparer » signifie qui vienne d’ailleurs que des textes dans lesquels ce terme a été employé. Ainsi toute comparaison entre des concepts qui ne sont pas dans le matériel d’apprentissage sera du même genre que les illustrations données en exemple. Ce sera moins visible mais tout aussi ridicule. Par exemple, cette interaction avec Gemini « Considérez cette question simple : “Le jour où les États-Unis ont été établis est-il dans une année bissextile ou une année normale ?”. »

Lorsqu’il a été invoqué avec le préfixe CoT (Chain of Thought, une évolution récente des LLMs dont le but est de décomposer une question complexe en une suite de sous-questions plus simples), le modèle de langage moderne Gemini a répondu : « Les États-Unis ont été établis en 1776. 1776 est divisible par 4, mais ce n’est pas une année séculaire (de cent ans), c’est donc une année bissextile. Par conséquent, le jour où les États-Unis ont été établis était dans une année normale. »

On voit bien que le modèle déroule la règle des années bissextiles correctement, donnant par là même une bonne illustration de la technique CoT, mais il conclut de manière erronée à la dernière étape ! Ces modèles n’ont en effet pas de représentation logique du monde, mais seulement une approche statistique qui crée en permanence ce type de glitchs qui peuvent paraître surprenants.

Cette prise de conscience est d’autant plus salutaire qu’aujourd’hui, les IA écrivent à peu près autant d’articles publiés sur Internet que les humains. Ne vous étonnez donc pas d’être étonné par la lecture de certains articles.

The Conversation

Frédéric Prost ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

02.12.2025 à 13:06

Pourquoi l’IA oblige les entreprises à repenser la valeur du travail

Caroline Gans Combe, Associate professor Data, econometrics, ethics, OMNES Education

Les exemples d’erreurs de l’IA sont légion. Alors comment une entreprise et un manager peuvent-ils l’appréhender ? L’enjeu : identifier avec précision où l’IA peut créer une valeur ajoutée.
Texte intégral (2404 mots)
Une étude souligne que sur 178 références citées par une IA, 69 renvoyaient à des références incorrectes ou inexistantes. GoldenDayz/Shutterstock

Le rapport entre intelligence artificielle et emploi nécessite de repenser en profondeur l’analyse des tâches dans une entreprise. Il se joue à deux niveaux : dans la compréhension des chaînes de valeur de l’entreprise et dans la capacité des dirigeants à l’appréhender. L’enjeu ? Identifier avec précision où et comment injecter l’IA. Car celle-ci peut mentir, inventer des références et se tromper.


Les sombres prédictions sur la disparition des emplois intellectuels d’entrée de carrière alimentent un débat déjà ancien sur la fongibilité du travail face aux avancées de l’intelligence artificielle (IA) – soit le remplacement d’un emploi par un autre.

Et si la véritable question n’est pas ce qui peut être substitué, mais par où et comment cette substitution crée ou détruit de la valeur pour l’entreprise ? C’est que nous soulignons dans notre étude réalisée par le Global Partnership on AI (GPAI) et le Centre d’expertise international de Montréal en intelligence artificielle (Ceimia).

L’enjeu pour l’intelligence artificielle est de dépasser l’identification par catégorie des emplois, et plus finement des tâches automatisables, pour comprendre leur position stratégique dans la chaîne de création de valeur.

Encore aujourd’hui, l’essentiel des études sur l’impact de l’IA dans le domaine procède par décomposition : identifier des tâches, évaluer la capacité de celles-ci à être automatisées, agréger les résultats. Cette méthodologie, héritée de Carl Benedikt Frey et Michael Osborne, qui estimaient que l’automatisation présentait un risque pour 47 % des emplois, comprend des limites.

Elle ignore la fonction économique spécifique de chaque tâche prise individuellement dans la définition d’un emploi, mais aussi le processus de création de valeur.

Alors où et comment l’IA peut-elle avoir une valeur ajoutée dans l’entreprise ? Comment les dirigeants peuvent-ils s’en emparer pour être le meilleur architecte des interactions homme-machine ? Comment accompagner cette transition ?

Scandale Deloitte Australie

Le scandale Deloitte d’octobre 2025 illustre cette problématique. Deloitte Australie a dû rembourser partiellement une facture de 440 000 dollars australiens (environ 248 000 euros). Pourquoi ? Un rapport commandé par le gouvernement s’est révélé avoir été produit avec Azure OpenAI GPT-4o… sans divulgation initiale.

Le travail contenait des références académiques inexistantes, des citations inventées, et des experts fictifs. Qui plus est, une fois ces problèmes détectés, le cabinet a substitué aux fausses références d’autres bien réelles, qui ne soutenaient pas les conclusions initiales du document.


À lire aussi : Et si votre prochain collègue était un agent IA ?


Deloitte avait été choisi, non pas pour ses capacités rédactionnelles, mais parce qu’il apportait une assurance d’expertise indépendante, une garantie de fiabilité des sources, un engagement de responsabilité professionnelle. En automatisant sans contrôle, le cabinet a détruit précisément ce pour quoi il était payé.

Références inexistantes

Ce phénomène n’est pas isolé. Une étude du Cureus Journal of Medical Science montre que sur 178 références citées par une IA, 69 renvoyaient à des références incorrectes ou inexistantes. Plus troublant encore : des termes fictifs se propagent désormais dans la littérature scientifique réelle après avoir été générés par l’IA.

Cette asymétrie révèle que la « valeur » d’une tâche dépend autant de sa place dans la chaîne de production que de son « rôle » à l’égard des autres tâches, de la manière dont elle les influence.

L’impact délétère de l’usage de l’IA dans ce type de contexte a été illustré par le cas de l’assistant médical Nabla. Fin 2024, l’outil proposé par cette société permettant une prise de note automatisée dans le domaine médical avait été utilisé par plus de 230 000 médecins et 40 organisations de santé. Il avait permis la transcription de 7 millions de consultations.

À cette date, une étude a révélé que le logiciel avait inventé des phrases entières, faisant référence à des médicaments inexistants, comme « hyperactivated antibiotics », des commentaires non prononcés… le tout dans un contexte où tous les enregistrements audio des patients concernés avaient été effacés, rendant impossible une quelconque vérification a posteriori.

Cerner la tâche automatisable avec l’IA

À l’ère de l’IA, il faut dépasser les seuls critères de destruction d’emplois ou de potentiel d’automatisation pour évaluer chaque tâche selon trois dimensions complémentaires.

Dépendance opérationnelle

La première dimension concerne la dépendance opérationnelle, c’est-à-dire la façon dont la qualité d’une tâche impacte les tâches suivantes. Une forte dépendance, comme l’extraction de données servant à définir une stratégie, exige la prudence car les erreurs se propagent dans toute la chaîne. À l’inverse, une faible dépendance, comme la simple mise en forme d’un document, tolère mieux l’automatisation.

Connaissance non codifiable

La deuxième dimension évalue la part de connaissance non codifiable nécessaire à la tâche. Il s’agit de tout ce qui relève de l’expérience, de l’intuition et du jugement contextuel, impossible à traduire en règles explicites. Plus cette part est élevée, plus il faut maintenir un couplage étroit humain-machine pour interpréter les signaux faibles et mobiliser le discernement humain.

Réversibilité

La troisième dimension concerne la réversibilité, soit la capacité à corriger rapidement une erreur. Les tâches à faible réversibilité, comme un diagnostic médical préopératoire ou la gestion d’infrastructures critiques, exigent une supervision humaine forte, car une erreur peut avoir des conséquences graves. Les tâches réversibles, comme les brouillons ou l’exploration de pistes, acceptent davantage d’autonomie.

Quatre interactions avec une IA

Ces trois dimensions dessinent quatre modalités d’interaction avec l’IA, recommandées en fonction des tâches à effectuer.

L’automatisation est recommandée pour les tâches peu interdépendantes, réversibles et codifiables, comme la mise en forme, l’extraction de données ou les premiers jets.

La collaboration humain-machine convient aux situations de dépendance modérée, mais de haute réversibilité, où les erreurs peuvent être gérées, comme l’analyse exploratoire ou la recherche documentaire.

Certaines tâches demeurent du ressort exclusif de l’humain, du moins pour l’heure. Il s’agit notamment des décisions stratégiques qui cumulent une forte interdépendance des tâches, une part importante de connaissance non codifiable issue de l’expérience et une faible réversibilité des choix effectués.

Le chatbot de relation client d’Air Canada a commis des erreurs de tarification. Miguel Lagoa/Shutterstock

La supervision inversée s’impose lorsque l’IA produit, mais que l’humain doit valider systématiquement, notamment en cas de forte dépendance ou de faible réversibilité. Le cas Air Canada montre que lâcher la bride à une IA dans un tel contexte est hautement dommageable. Ici, le chatbot de la compagnie aérienne avait affirmé qu’on pouvait demander rétroactivement un tarif spécifique lié à des évènements familiaux, ce qui s’est révélé totalement faux.

Attaquée en justice par le passager qui s’estimait trompé, la compagnie a été condamnée au motif qu’elle était l’entité responsable de l’IA et de son usage. Or, elle ne la supervisait pas. L’impact financier de cette condamnation peut sembler faible (le remboursement du passager), mais le coût tant en termes de réputation que pour l’actionnaire est loin d’avoir été négligeable.

Quatre compétences clés pour un manager

Chaque chaîne de valeur rassemble une grande variété de tâches qui ne se distribuent pas selon une logique uniforme : les quatre modalités d’automatisation se retrouvent entremêlées de manière hétérogène.

Le manager devient alors l’architecte de ces chaînes de valeur hybrides, et doit développer quatre compétences clés pour les piloter efficacement.

  • Il lui faut maîtriser l’ingénierie de workflows cognitifs, c’est-à-dire identifier avec précision où et comment injecter l’IA de manière optimale dans les processus.

  • Il doit être capable de diagnostiquer les interdépendances opérationnelles propres à chaque contexte, plutôt que d’appliquer mécaniquement des grilles d’analyse externes focalisées uniquement sur le coût du travail.

  • « Désintermédiation cognitive » : il s’agit d’orchestrer les nouveaux rapports au savoir créés par l’IA tout en préservant la transmission des compétences tacites qui font la richesse d’une organisation.

  • Le manager doit porter une éthique de la substitution, en arbitrant constamment entre l’efficience immédiate qu’offre l’automatisation et la préservation du capital humain sur le long terme.

Un paradoxe technique éclaire ces enjeux. Les modèles de raisonnement les plus avancés hallucinent paradoxalement plus que leurs prédécesseurs, révélant un arbitrage inhérent entre capacité de raisonnement et fiabilité factuelle. Cette réalité confirme que l’impact de l’IA sur le monde du travail ne peut se réduire à une simple liste de métiers condamnés à disparaître.

Les dimensions analytiques présentées ici offrent précisément un cadre pour dépasser les approches simplistes. Elles permettent de positionner le management dans un rôle nouveau : celui d’arbitre et d’urbaniste cognitif, capable de concevoir l’architecture des interactions humain-machine au sein de l’organisation.

Bien conduite, cette transformation peut enrichir l’expérience humaine du travail, au lieu de l’appauvrir.

The Conversation

Caroline Gans Combe a reçu des financements de l'Union Européenne dans le cadre de ses projets de recherche.

PDF

02.12.2025 à 11:25

Pour promouvoir l’alimentation végétale, l’argument santé serait plus efficace que l’argument écologique

Ricardo Azambuja, Professeur associé en management, EDHEC Business School

Anahid Roux-Rosier, Professeure associée, Fundação Dom Cabral

Sophie Raynaud, Assistant Professor, Excelia

Et si prôner d’abord les bénéfices pour la santé – plutôt que l’argument écologique – se révélait un angle d’attaque plus efficace pour convertir les populations à une alimentation végétale ?
Texte intégral (1711 mots)

Et si prôner d’abord les bienfaits pour la santé – plutôt que l’argument écologique – se révélait un angle d’attaque plus efficace pour convertir les populations à une alimentation végétale ? C’est ce que recommande une équipe de recherche dont les travaux pointent le fait que la population a connaissance de l’impact environnemental des régimes alimentaires carnés, mais que cela ne suffit pas à faire reculer la consommation de viande.


Longtemps considérés comme un choix marginal, les régimes alimentaires à base de plantes sont désormais reconnus pour leurs avantages environnementaux et éthiques, mais leur adoption se heurte à des obstacles persistants : manque de sensibilisation à leurs bienfaits pourtant établis pour la santé, dissonance cognitive (« savoir sans agir ») et messages publics qui induisent souvent un sentiment de culpabilité autour de la destruction de l’environnement.

Dans notre dernière étude, nous révélons un paradoxe majeur : l’argument santé – sans doute le plus personnel et le moins clivant – est étrangement absent des campagnes de promotion de l’alimentation à base de plantes, alors qu’il pourrait permettre de surmonter les résistances individuelles et sociales qui freinent l’adoption de régimes plus végétaux.

En effet, si la population française est consciente de l’impact climatique associé à la consommation de viande, elle sous-estime massivement les risques que cette dernière fait peser sur sa santé (maladies cardiovasculaires, cancers, etc.) et surestime, dans le cadre d’une alimentation « équilibrée », son importance nutritive – alors même qu’elle accorde une attention particulière aux questions de santé individuelle.

Une différence marquée de niveau de connaissances des multiples impacts

Une transition mondiale vers des régimes alimentaires à base de végétaux pourrait atténuer considérablement l’impact négatif du système alimentaire sur l’environnement, la santé et le bien-être animal.

Si, parmi les responsables politiques et les spécialistes en sciences sociales, la diffusion d’informations sur les impacts sanitaires et environnementaux de régimes alimentaires individuels est devenue un outil populaire pour inciter les consommateurs à adopter des régimes alimentaires plus durables, on sait peu de choses sur les connaissances de la population française concernant les avantages pour la santé d’un régime alimentaire végétal.

À partir d’un échantillon représentatif de cette population française (N = 715), nous avons évalué les connaissances moyennes sur les avantages relatifs des régimes alimentaires végétaux pour différentes dimensions. Nous montrons que les gens ont en moyenne une bonne connaissance de l’impact environnemental assez faible des régimes alimentaires à base de végétaux (gaz à effet de serre, utilisation des terres), mais qu’ils sous-estiment considérablement leurs bienfaits pour la santé.

Nous constatons également que les gens sous-estiment considérablement la prévalence de l’agriculture intensive et, par conséquent, les avantages pour le bien-être animal à adopter un régime alimentaire végétal.

Nos résultats semblent ainsi indiquer que la société est principalement divisée en deux groupes : ceux qui ont une opinion positive des régimes alimentaires à base de plantes dans tous les domaines, et ceux qui voient moins d’avantages dans les régimes alimentaires à base de plantes dans tous les domaines.

Ce travail ouvre une piste de réflexion prometteuse sur le rôle des campagnes d’information dans le changement des habitudes alimentaires individuelles.

Des connaissances qui ne semblent pas enclencher de changements de comportements

Le dérèglement climatique et les enjeux écologiques globaux comptent désormais parmi les principales préoccupations de la population française. Notre étude confirme que le public est bien informé quant à l’impact délétère de la consommation de viande, tant sur l’environnement que sur le bien-être animal.

Nos résultats montrent notamment que les personnes interrogées ont une idée assez précise des ordres de grandeur en jeu, et savent, par exemple, que produire la même quantité de protéines avec du bœuf peut générer 100 fois plus de carbone qu’avec des pois. Pourtant ces connaissances, loin de déclencher un changement massif des comportements, provoquent surtout un malaise individuel. Informées, oui ; concernées, certes… mais peu ou pas prêtes à modifier le contenu de leur assiette.

Peut-être plus troublant, notre étude révèle qu’évoquer l’impact de l’élevage bovin sur le climat ou dénoncer la maltraitance animale dans les élevages industriels peut aller jusqu’à susciter une forme de rejet : face à ces sujets sensibles, certains choisissent par exemple d’éviter de s’informer davantage.

Dans ce contexte, il paraît peu réaliste d’espérer que des changements à grande échelle reposent sur des évolutions comportementales individuelles, alors que les problèmes (éthiques ou écologiques) liés à nos comportements alimentaires relèvent avant tout de choix de société – et donc d’une responsabilité collective, dont les individus peuvent se sentir dépossédés.

Nos travaux dessinent des stratégies de communication efficaces, orientées notamment sur les bénéfices individuels, pour encourager des changements concrets à l’échelle individuelle en commençant par la question de l’alimentation.

La prise de conscience de l’impact sur la santé peut-elle changer la donne ?

Face à la réussite mitigée des arguments d’ordre écologique et éthique – la consommation de viande bovine a diminué de 6 % en vingt ans, mais la consommation globale de viande connaît une sorte de plateau ces dernières années à hauteur de 85 kg par an et par personne –, nos recherches mettent en lumière la faible représentation des informations évoquant les bénéfices pour la santé individuelle d’une alimentation plus végétale, alors même que ce sujet semble particulièrement important aux yeux des Français.

Les recommandations scientifiques sont pourtant claires. En 2019, une étude portée par 37 chercheurs et publiée dans la prestigieuse revue médicale The Lancet avait déjà avancé des propositions pour pouvoir nourrir plus sainement l’ensemble de la population mondiale grandissante. Ces scientifiques recommandaient ainsi au maximum une portion de viande rouge par semaine et deux portions hebdomadaires pour la volaille et le poisson, avec à la clé une baisse de 20 % de la mortalité adulte.

Sur son site grand public Manger Bouger, l’agence officielle Santé publique France rappelle également le rôle protecteur des fruits et légumes pour prévenir des pathologies comme les cancers, les maladies cardiovasculaires et le diabète, ou encore contre l’obésité. Enfin, des travaux de recherche récents insistent par ailleurs sur le fait que la consommation d’aliments d’origine végétale est associée à une meilleure santé cardiovasculaire, s’ils sont de bonne qualité nutritionnelle et peu ou pas transformés industriellement.

Coordonner l’action publique en santé, en écologie et dans l’agriculture pour promouvoir l’alimentation végétale

Finalement, nos résultats suggèrent que l’absence de diminution de la consommation de viande à l’échelle nationale repose en majeure partie sur l’idée, médicalement fausse mais très répandue, qu’un régime comportant une faible quantité de viande reste toujours plus sain qu’un régime entièrement végétal. Ces travaux ouvrent donc un nouvel angle d’attaque plus efficace pour convertir les populations à l’alimentation végétale, en prônant d’abord l’argument de santé plutôt que l’argument écologique.

Transformer les habitudes de consommation de viande passe par une action coordonnée des ministères de la santé, de l’agriculture et de l’écologie. Mais, pour convaincre vraiment, il s’agit aussi de communiquer vers la population en adoptant une stratégie efficace. Mettre en avant les bénéfices pour la santé des individus est à cet égard un aspect de communication essentiel à prendre en compte. D’autres acteurs sont également intéressants à mobiliser dans ce cadre, comme le corps médical et tout autre prescripteur possible en termes d’alimentation.

La transition vers une alimentation végétale dépendra non seulement de l’information, mais aussi de la manière dont elle sera reformulée : moins de moralisme, plus de preuves tangibles, une meilleure cible des enjeux individuels, et surtout une action publique coordonnée (santé, écologie, agriculture).

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF
21 / 50
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
 
  ARTS
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
Fiabilité 3/5
Slate
 
Fiabilité 1/5
Contre-Attaque
Issues
Korii
Positivr
🌓