LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

▸ les 50 dernières parutions

02.04.2025 à 16:52

Comment les jeux vidéo en ligne transforment la vie sociale des adolescents

Marina Ferreira Da Silva, Enseignant-chercheur en Sciences de Gestion, Université de Rouen Normandie

Si les jeux vidéo en ligne dessinent de nouveaux espaces d’échanges entre adolescents, ils peuvent être source de pression sociale quand l’obsession de la victoire devient trop forte.
Texte intégral (1462 mots)

Si les jeux vidéo en ligne dessinent de nouveaux espaces d’échanges entre adolescents, ils peuvent être sources de pression sociale quand l’obsession de la victoire devient trop forte.


52 % des 12-17 ans passent plus de trois heures par jour devant les écrans. Si les réseaux sociaux occupent une place de choix dans leurs pratiques numériques, les jeux vidéo sont également largement plébiscités : 93 % des 10-17 ans y joueraient, parmi lesquels 62 % quotidiennement.

Si les consoles et PC restent des supports importants, la généralisation des smartphones dès l’entrée au collège a permis une plus grande accessibilité, offrant aux adolescents la possibilité de plonger partout et à tout moment dans leurs univers ludiques favoris.

De Fortnite à Roblox, de Minecraft à Brawl Stars… les jeux en ligne sont devenus de véritables lieux de rassemblement et d’interaction pour les jeunes. S’ils peuvent susciter des inquiétudes et des conflits au sein des familles, il faut voir aussi qu’ils constituent des outils de socialisation privilégiés pour les jeunes générations.

Retrouver des amis en ligne

L’adolescence est une période intense de questionnement et d’exploration, pendant laquelle les jeunes construisent leur identité sociale. Les groupes de pairs prennent une place centrale, devenant une référence essentielle pour ces individus en quête d’interactions, d’approbation et de reconnaissance.

Dans ce contexte, les jeux vidéo participent de la culture adolescente. Ils ouvrent un espace dans lequel ils vont pouvoir créer, maintenir ou renforcer les liens avec leurs pairs, mais aussi développer leur confiance en eux. Ainsi, dans leurs pratiques vidéoludiques, les jeunes privilégient largement les modes de jeux qui leur permettent de vivre une expérience collective : 81 % des 10-17 ans préfèrent jouer à plusieurs (en ligne ou en local), et 48 % ont le sentiment, grâce aux jeux, de faire partie d’une communauté.

Pendant les sessions, les adolescents prennent plaisir à retrouver leurs amis pour partager un moment ludique, riche en interactions. Les systèmes de chats (vocaux ou textuels) proposés par les jeux renforcent l’hédonisme de l’expérience : « je joue avec des amis, qui sont drôles, qui pendant le jeu vont faire des petites blagues, enfin c’est ça, c’est toujours chercher la petite vanne qui va faire rigoler l’équipe », note le participant d’une enquête en cours.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


En fonction du jeu, ils sont amenés à collaborer pour résoudre des énigmes, coconstruire des structures, ou encore battre des équipes adverses. Ils doivent alors communiquer, élaborer des stratégies et se coordonner, ce qui renforce les liens et offre un terrain d’apprentissage de nombreuses compétences psychosociales (solidarité, gestion des conflits, leadership, empathie…). La coopération dans les jeux vidéo favoriserait les comportements prosociaux des enfants, même dans le cas de contenus violents comme Fortnite, comparativement au mode solo.

Les systèmes de teams, clans, clubs ou guildes, offrent des occasions de créer de nouvelles amitiés fondées sur une passion commune. Les adolescents peuvent également décider d’entrer en compétition contre leurs amis, le jeu leur permet alors d’obtenir la reconnaissance des pairs en cas de victoire et de renforcer l’estime de soi.

Au-delà de l’expérience, le fait de jouer aux jeux plébiscités par le groupe de pairs permet à l’adolescent de prendre part aux conversations, de donner son opinion, de partager des anecdotes et un langage commun (par exemple, les joueurs Fortnite utiliseront à tout va des termes comme « spawn », « crack », ou « bambi »). Celui qui ne joue pas se retrouvera en position de spectateur et pourra se sentir exclu du groupe.

La pression sociale des communautés de joueurs

Si les jeux vidéo en ligne sont des espaces de rencontre, d’amusement et d’échanges, ils peuvent également générer une pression sociale sur les jeunes joueurs.

Les mécaniques de compétition mobilisées dans certains jeux peuvent en effet amener les adolescents, qui se comparent aux autres, à être toujours plus exigeants envers eux-mêmes : les performances individuelles doivent constamment être améliorées, car les enjeux sont importants. Il s’agit à la fois d’être reconnu et valorisé par les pairs, mais aussi de ne pas être responsable de la défaite de son équipe, au risque d’en être exclu.

Si au départ les équipes se font par affinités (il s’agit de passer un bon moment avec les amis), elles peuvent très vite se restructurer en fonction de la montée en compétences des joueurs (l’idée est alors de constituer l’équipe la plus performante possible) : « on recrute des personnes, on doit être la faction la plus puissante pour gouverner toutes les autres », raconte un joueur.

Cette pression sociale engendre une implication émotionnelle forte et peut aboutir à l’adoption de pratiques « tryhard ». Elles se manifestent par une obsession de la victoire et de la performance, qui pousse un joueur à consacrer un temps et des efforts considérables dans le jeu et qui peut, in fine, mener à des phénomènes de dépendance et à un isolement social.

Apprendre à gérer les risques et les excès

L’obsession du ranking devenant plus importante que le plaisir de jouer, la dynamique sociale au sein des communautés peut rapidement devenir anxiogène et oppressante envers les moins bons joueurs, et les expose à des risques de cyberintimidation voire de harcèlement.

En effet, bien que les différentes plateformes proposent des restrictions d’interactions pour protéger les jeunes joueurs (par exemple, un chat limité aux amis ou membres du club, un filtrage des mots grossiers…), les adolescents peuvent facilement les contourner, en utilisant notamment d’autres outils de communication en ligne (tels que Discord), ou encore en saisissant un âge supérieur lors de la création de leur compte.

Enfin, la volonté d’être reconnu et valorisé par le groupe pousse les adolescents à vouloir réaliser toujours plus d’achats « in-app » : il s’agit, par exemple, d’obtenir des avantages stratégiques pour gagner davantage de trophées, ou encore des « skins » ou objets rares et précieux, signes de statut et de prestige dans certaines communautés de joueurs.

Face à ces dérives, la tentation est grande pour les parents de limiter drastiquement les temps de jeu, voire d’en bloquer complètement l’accès. Or, le jeu vidéo en ligne, lorsque son usage n’est pas excessif, répond aux besoins de sociabilité et d’appartenance des adolescents. Il s’agit donc davantage de favoriser le dialogue et de responsabiliser les jeunes.

Des règles peuvent être imaginées ensemble, concernant notamment les temps de jeu (une limite temporelle raisonnable et souple, permettant de ne pas couper le jeu en pleine session), les interactions (un chat limité aux amis proches), ou encore les moments de jeux (conditionnés à la réalisation d’autres activités sans écran). L’important est d’ouvrir un espace de discussion permettant à l’adolescent de profiter des bénéfices du jeu vidéo, en le préservant de ses dangers.

The Conversation

Marina Ferreira Da Silva a reçu des financements de : Agence Nationale de la Recherche (ANR) - Projet ALIMNUM - ALIMentation et NUMérique.

02.04.2025 à 15:08

From IBM to OpenAI: 50 years of winning (and failed) strategies at Microsoft

Frédéric Fréry, Professeur de stratégie, CentraleSupélec, ESCP Business School

Fifty years after its creation – an eternity in the tech world – Bill Gates and Paul Allen’s company is still here. This is a look back at Microsoft’s success story.
Texte intégral (2037 mots)
Paul Allen (L) and Bill Gates in 1970 at Lakeside School in Seattle, Washington state, US. Microsoft was created five years later. Author unknown/Wikimedia

Microsoft celebrates its 50th anniversary. This article was written using Microsoft Word on a computer running Microsoft Windows. It is likely to be published on platforms hosted by Microsoft Azure, including LinkedIn, a Microsoft subsidiary with over one billion users. In 2024, the company generated a net profit of $88 billion from sales worth $245 billion. Its stock market value is close to $3,000 billion, making it the world’s second-most valuable company behind Apple and almost on a par with NVidia. Cumulative profits since 2002 are approaching $640 billion.

And yet, 50 years ago, Microsoft was just a tiny computer company founded in Albuquerque, New Mexico by two former Harvard students, Bill Gates and Paul Allen, aged 19 and 22. The twists and turns that enabled it to become one of the most powerful companies in the world are manifold, and can be divided into four distinct eras.

First era: Bill Gates rides on IBM’s shoulders

At the end of the 1970s, IBM was the computer industry’s undisputed leader. It soon realized that microcomputers developed by young Silicon Valley entrepreneurs, such as the Apple II, would eventually eclipse IBM’s mainframes, and so the IBM PC project was launched. However, it soon became clear that the company’s hefty internal processes would prevent it from delivering a microcomputer on schedule. It was therefore decided that various components of the machine could be outsourced using external suppliers.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


Several specialized companies were approached to provide the operating system. They all refused, seeing IBM as the enemy to be destroyed, a symbol of centralized, bureaucratic computing. Mary Maxwell Gates, who sat on the board of an NGO next to the IBM chairman, suggested the name of her son William, nicknamed Bill, who had just founded Microsoft, and the first contact was established in 1980.

The problem was that Microsoft was focused on a programming language called BASIC and certainly not specialized in operating systems. Not that this was ever going to be a problem for Bill Gates, who, with considerable nerve, agreed to sign a deal with IBM to deliver an operating system he didn’t have. Gates then purchased the QDOS system from Seattle Computer Products, from which he developed MS-DOS (where MS stands for Microsoft).

Gates, whose father was a founding partner of a major Seattle law firm, then made his next move. He offered IBM a non-exclusive contract for the use of MS-DOS, which gave him the right to sell it to other computer companies. IBM, which was not used to subcontracting, was not suspicious enough: the contract brought fortunes to Microsoft and misery to IBM when Compaq, Olivetti and Hewlett-Packard rushed to develop IBM PC clones, giving birth to a whole new industry.

Success followed for Microsoft. It not only benefited from IBM’s serious image, which appealed to businesses, but also received royalties on every PC sold on the market. In 1986, the company was introduced on the stock market. Bill Gates, Paul Allen and two of their early employees became billionaires, while 12,000 additional Microsoft employees went on to become millionaires.

Second era: Windows, the golden goose (courtesy of Xerox)

In the mid-1980s, microcomputers were not very functional: their operating systems, including Microsoft’s MS-DOS, ran with forbidding command lines, like the infamous C:/. This all changed in 1984 with the Apple Macintosh, which was equipped with a graphic interface (icons, drop-down menus, fonts, a mouse, etc.). This revolutionary technology was developed in Xerox’s research laboratory, even though the photocopy giant failed to understand its potential. On the other hand, Steve Jobs, Apple’s CEO, was largely inspired by it: to ensure the success of the Macintosh computer, Jobs asked Microsoft to develop a customized version of its office suite, in particular its Excel spreadsheet. Microsoft embraced the graphic interface principle and launched Windows 1 in 1985, which was soon followed by the Office suite (Word, Excel and PowerPoint).

Over the following years, Windows was further improved, culminating in Windows 95, launched in 1995, with an advertising campaign costing over $200 million, for which Bill Gates bought the rights of The Rolling Stones’ “Start Me Up”. At the time, Microsoft’s world market share in operating systems exceeded 70%. This has hardly changed since.

In 1997, Microsoft even went so far as to save Apple from bankruptcy by investing $150 million in its capital in the form of non-voting shares, which were sold back three years later. During one of his famous keynote speeches, Steve Jobs thanked Bill Gates by saying: “Bill, thank you. The world’s a better place.” This bailout also put an end to the lawsuit Apple had filed against Microsoft, accusing it of copying its graphic interface when designing the Windows operating system.

Third era: bureaucratization, internal conflicts and a failed diversification strategy

In the mid-1990s, computing underwent a new transformation with the explosion of the World Wide Web. Microsoft was a specialist in stand-alone PCs, with a business model based on selling boxed software, and it was ill-prepared for the new global networks. Its first response was to develop Internet Explorer, a browser developed from the takeover of the Mosaic browser designed by the Spyglass company, a bit like MS-DOS in its day. Internet Explorer was eventually integrated into Windows, prompting a lawsuit against Microsoft for abuse of its dominant position, which could have led to the company’s break-up. New competitors, such as Google with its Chrome browser, took advantage of these developments to attract users.

In 2000, Bill Gates handed over his position as Microsoft CEO to Steve Ballmer, one of his former Harvard classmates, whose aim was to turn the company into an electronics and services company. Over the next fifteen years, Ballmer embarked on a series of initiatives to diversify the company by including video games (Flight Simulator), CD encyclopedias (Encarta), hardware (mice, keyboards), MP3 players (Zune), online web hosting (Azure), game consoles (Xbox), phones (Windows Phone), tablets and computers (Surface).

While some of these products were successful (notably Azure and Xbox), others were bitter failures. Encarta was quickly swamped by Wikipedia and Zune was no match for Apple’s iPod. Windows Phone remains one of the greatest strategic blunders in the company’s history. In order to secure the company’s success in mobile telephony and compete with the iPhone, Microsoft bought the cell phone division of Finland’s Nokia for $5.4 billion in September 2013. The resulting integration was a disaster: Steve Ballmer wanted Microsoft’s phones to use a version of Windows 10, making them slow and impractical. Less than two years later, Microsoft put an end to its mobile phone operations, with losses amounting to $7.6 billion. Nokia was sold for just $350 million.

One of the outcomes of Microsoft’s multiple business initiatives has been an explosion in the number of its employees, from 61,000 in 2005 to 228,000 in 2024. Numerous internal disputes broke out between different business units, which sometimes refused to work together.

These turf wars, coupled with pervasive bureaucratization and effortless profitability (for each Windows installation, PC manufacturers pay around $50, while the marginal cost of the license is virtually zero), have hindered Microsoft’s capacity for innovation. Its software, including Internet Explorer 6 and Windows Vista, was soon mocked by users for its imperfections, which were continually plugged by frequent updates. As some people noted, Windows is equipped with a “safe” mode, suggesting that its normal mode is “failure”.

Fourth era: is Microsoft the new cool (thanks to the Cloud and OpenAI)?

In 2014, Satya Nadella replaced Steve Ballmer as head of Microsoft. Coming from the online services division, Nadella’s objective was to redirect Microsoft’s strategy online, notably by developing the Azure online web hosting business. In 2024, Azure became the world’s second-largest cloud service behind Amazon Web Services, and more than 56% of Microsoft’s turnover came from its online services. Nadella changed the company’s business model: software is no longer sold but available on a subscription basis, in the shape of products such as Office 365 and Xbox Live.

Along the way, Microsoft acquired the online game Minecraft, followed by the professional social network LinkedIn, in 2016, for $26.2 billion (its largest acquisition to date), and the online development platform GitHub in 2018 for $7.5 billion.

Between 2023 and 2025, Microsoft invested more than $14 billion in OpenAI, the company behind ChatGPT, giving it a particularly enviable position in the artificial intelligence revolution. ChatGPT’s models also contribute to Microsoft’s in-house AI, Copilot.

Over the past 50 years, thanks to a series of bold moves, timely acquisitions and failed strategies to diversify, Microsoft has evolved significantly in its scope, competitive advantage and business model. Once stifled by opulence and internal conflicts, the company seems to have become attractive again, most notably to young graduates. Who can predict whether Microsoft will still exist in 50 years? Bill Gates himself says the opposite, but he may be bluffing.

The Conversation

Frédéric Fréry ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

02.04.2025 à 12:23

La destruction des données scientifiques aux États-Unis : un non-sens intellectuel, éthique mais aussi économique

Caroline Gans Combe, Associate professor Data, econometrics, ethics, OMNES Education

La destruction délibérée de bases de données scientifiques évoque de sombres souvenirs historiques. Elle représente une menace sérieuse pour l’avenir de la connaissance et la richesse des nations.
Texte intégral (2068 mots)

Dans un monde où l’information est devenue à la fois omniprésente et suspecte, la destruction délibérée de bases de données scientifiques évoque de sombres souvenirs historiques. Elle représente une menace sérieuse pour l’avenir de la connaissance partagée, le progrès scientifique global et, plus fondamentalement, la richesse des nations.


Depuis le 20 janvier 2025, l’administration aux commandes de la première puissance mondiale mène une campagne méthodique contre les données, particulièrement celles à caractère scientifique. Plus de 3 400 jeux de données, dont 2 000 à vocation scientifique, ont été supprimés des sites gouvernementaux américains. Cette offensive cible prioritairement les informations relatives au changement climatique, à la santé publique et à l’équité sociale. L’armée américaine a ainsi reçu l’ordre de supprimer tout contenu mettant en valeur ses efforts de diversité, y compris les images historiques des premières femmes ayant réussi l’entraînement pour intégrer l’infanterie du corps des Marines !

Des données cruciales de santé publique concernant l’obésité, les taux de suicide, le tabagisme chez les adolescents et les comportements sexuels ont également disparu des sites web du Center for Disease Control (CDC), l’équivalent états-unien de notre direction de maladies infectueuses (DMI) dont le rôle est de surveiller notamment les pandémies. Malgré une injonction judiciaire ordonnant la restauration de ces informations, des questions persistent quant à l’intégrité des données reconstituées.

Par ailleurs, des préoccupations émergent concernant la manipulation potentielle des statistiques économiques. Cette purge numérique s’accompagne d’interruptions de projets de recherche, de réductions drastiques des moyens et de licenciements de scientifiques de premier plan, notamment Kate Calvin, scientifique en chef de la Nasa.

L’administration a également ordonné la fin des échanges scientifiques internationaux, notamment entre la National Oceanic and Atmospheric Administration (NOAA) et l’Institut français de recherche pour l’exploitation de la mer (Ifremer). Cela fait craindre pour la précision des alertes sur les évènements majeurs, comme on avait pu le voir lors du Sharpiegate, où l’actuel président et les équipes le soutenant (dont l’actuel administrateur du NOAA déjà en poste à l’époque) avaient falsifié des cartes météo pour donner raison au président quant à la direction du cyclone « Dorian », et ce, contre l’évidence scientifique. Or, la précision de ces alertes est fondamentale pour sauver des vies.

Face à cette situation alarmante, certes, une résistance s’organise : des chercheurs tentent désespérément de préserver les données avant leur destruction. Malheureusement, la vitesse des coups portés à la preuve scientifique rend ces réponses bien dérisoires.


Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Une menace croissante pour le patrimoine scientifique mondial

Ce phénomène où des ensembles de données scientifiques, fruits de décennies de recherche minutieuse, sont anéantis sans considération pour leur valeur intrinsèque, ou verrouillés par des entités privées échappant largement au contrôle démocratique, interroge d’autant plus que ces mêmes acteurs ont souvent tiré profit des avancées permises par le libre partage des connaissances, par exemple les recherches introduisant l’architecture dite Transformer, publiées dans l’article « Attention Is All You Need » ont directement permis le développement du modèle commercial de Meta : LLaMA.

Dans ce contexte, la destruction de ces données représente non seulement une perte intellectuelle massive, mais aussi un non-sens économique flagrant. Comment justifier l’anéantissement d’actifs dont la valeur, bien que difficile à quantifier avec précision, est manifestement considérable ?

Évaluer l’inestimable : la valeur économique des données scientifiques

La valeur des données en tant qu’actif économique pour les nations et les entreprises est désormais un fait établi, documenté et largement accepté dans la littérature académique. Plusieurs méthodologies permettent d’évaluer cette valeur : le coût historique, les bénéfices futurs actualisés et la valeur de remplacement. Les coûts pour l’économie états-unienne sont donc aujourd’hui immédiatement quantifiables et dantesques.

L’approche par le coût historique consiste à calculer l’investissement total nécessaire à la production des données, incluant le financement de recherche, le temps de travail des chercheurs et l’infrastructure mobilisée. Mais certains soulignent que cette méthode comptable traditionnelle enregistre la valeur d’un actif à son coût d’acquisition initial, sans tenir compte des variations ultérieures de sa valeur. Aussi, la méthode des bénéfices futurs actualisés estime les avancées scientifiques et innovations potentielles découlant de l’exploitation des données sur plusieurs décennies. Elle permet de ramener les coûts et bénéfices futurs à leur valeur présente, ce qui est particulièrement pertinent pour les données scientifiques dont la valeur se déploie souvent sur le long terme.

Quant à la méthode de la valeur de remplacement, elle évalue le coût qu’impliquerait la reconstitution complète des bases de données si elles venaient à disparaître. L’OCDE recommande cette approche pour estimer la valeur des actifs de données, particulièrement lorsque les données sont uniques ou difficilement reproductibles, ce qui est clairement le cas des données de recherche. Aussi, la reconnaissance des données comme actif économique majeur est désormais bien établie, au même titre que tous autres actifs immatériels, désormais centraux dans l’économie moderne. Les données sont de la sorte devenues un facteur de production distinct, au même titre que le capital et le travail.

Une estimation conservatrice basée sur ces approches révèle que chaque jeu de données scientifiques majeur représente potentiellement des milliards d’euros de valeur. À titre d’exemple, le génome humain, dont le séquençage initial a coûté environ 2,7 milliards de dollars en quinze ans, a généré une valeur économique estimée à plus de 1 000 milliards de dollars US à travers diverses applications médicales et biotechnologiques, sans compter les recettes fiscales associées.

L’absurdité économique de la destruction et de la pollution informationnelle

Dans le contexte actuel, où l’intelligence artificielle (IA) se développe à un rythme fulgurant, le volume et la qualité des données deviennent des enjeux cruciaux. Le principe bien connu en informatique de « garbage in, garbage out » (ou GIGO, des données de mauvaise qualité produiront des résultats médiocres) s’applique plus que jamais aux systèmes d’IA qui sont dépendants de données de qualité pour assurer un entraînement des algorithmes efficients.

Ainsi, la destruction et la reconstruction erratique de sets de données à laquelle nous assistons aujourd’hui (on ne peut établir à ce stade que les données détruites ont été ou seront reconstituées avec sérieux et un niveau suffisant de qualité) génèrent une contamination délibérée ou négligente de l’écosystème informationnel par des données incorrectes, peut-être falsifiées ou biaisées.

Il y a là une double destruction de valeur : d’une part, par la compromission de l’intégrité des bases de données existantes, fruit d’investissements considérables ; d’autre part, en affectant la qualité des modèles d’IA entraînés sur ces données, perpétuant ainsi les biais et les erreurs dans des technologies appelées à jouer un rôle croissant dans nos sociétés. Sans données fiables et représentatives, comment espérer développer des systèmes d’IA sans biais et dignes de confiance ?

L’Europe comme sanctuaire de la donnée scientifique et terre d’accueil d’une IA éthique ?

Face à ces défis, l’Union européenne dispose d’atouts considérables pour s’imposer comme le gardien d’une science ouverte mais rigoureuse et le berceau d’une IA responsable. Son cadre réglementaire pionnier, illustré par le RGPD et l’AI Act, démontre sa capacité à établir des normes qualitatives élevées. Le cadre du RGPD permet de « concilier la protection des droits fondamentaux et la conduite des activités de recherche ». L’AI Act, entré en vigueur le 1er août 2024, entend « favoriser le développement et le déploiement responsables de l’intelligence artificielle dans l’UE », notamment dans des domaines sensibles comme la santé. L’Europe régule non pas pour porter atteinte à la liberté d’expression, mais, au contraire, pour proposer un environnement d’affaires sûr, de confiance et pacifié.

L’Union européenne pourrait donc créer un véritable « sanctuaire numérique » pour les données scientifiques mondiales, garantissant leur préservation, leur accessibilité et leur utilisation éthique. Ce sanctuaire reposerait sur trois piliers complémentaires dont l’essentiel est déjà en place du fait de la stratégie digitale :

  • un système d’archivage pérenne et sécurisé des données de recherche assurant leur préservation ;

  • des protocoles de partage ouverts mais encadrés, favorisant la collaboration internationale tout en protégeant l’intégrité des données ;

  • et un cadre d’utilisation garantissant que l’exploitation des données, notamment pour l’entraînement d’IA, respecte des principes éthiques clairs.

The Conversation

Caroline Gans Combe a reçu des financements de l'Union Européenne dans le cadre de sa participation aux projets de recherche DEFORM et ProRes.

02.04.2025 à 12:23

S’inspirer des insectes pour rendre les véhicules autonomes plus intelligents

Julien Serres, Professeur des Universités en biorobotique, Aix-Marseille Université (AMU)

Pour retrouver leur chemin, les abeilles et les fourmis s’appuient sur une perception de l’environnement bien différente de la nôtre… et dont s’inspirent certains roboticiens.
Texte intégral (2391 mots)
Abeille mellifère, _Apis mellifera_, à la recherche de nectar floral. Christian Guiraud (2021), Fourni par l'auteur

Nul besoin de connexion satellite pour que les abeilles et les fourmis retrouvent le chemin de leurs foyers. Leurs stratégies reposent sur des perceptions de l’environnement bien différentes de la nôtre, que décortiquent certains roboticiens… pour mieux les imiter.


Les insectes navigateurs possèdent de minuscules cervelles, de seulement un millimètre cube et pourtant… n’y aurait-il pas plus d’intelligence chez eux que ce que l’on imagine ?

Dans une certaine mesure, ces petits animaux sont plus performants en matière d’orientation spatiale que votre application mobile de navigation favorite et que les robots taxis américains… Ils n’ont pas besoin de se connecter à Internet pour retrouver leur foyer et consomment une quantité d’énergie absolument minuscule par rapport au supercalculateur dédié à la conduite autonome de Tesla.

Le biomimétisme consiste à puiser dans les multiples sources d’inspiration que nous offre la nature, qu’il s’agisse des formes — comme le design du nez du train Shinkansen 500, inspiré du bec du martin-pêcheur ; des matériaux — comme les écrans solaires anti-UV basés sur les algues rouges ; ou bien encore des synergies et des écosystèmes durables — comme la myrmécochorie qui utilise les fourmis pour accélérer la dispersion des graines et réparer plus vite les écosystèmes.

En effet, les solutions sélectionnées dans la nature se sont perfectionnées au long de l’évolution. Les yeux des insectes et leur traitement des images en sont un exemple frappant. Leur étude a donné naissance à de nouvelles caméras bio-inspirées dites « événementielles » ultrarapides. Les pixels de ses caméras sont lus et traités uniquement lorsqu’un changement de luminosité est détecté par un pixel et l’information est codée par des impulsions de très courte durée réduisant de facto la consommation énergétique et les temps de calcul. Ces petits animaux représentent alors une véritable banque de solutions pour les roboticiens, pour résoudre certains problèmes auxquels nous sommes confrontés.


Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


La biorobotique a ainsi pour finalité de comprendre le comportement animal au moyen de robots mobiles imitant soit leur système perceptif, soit leur mode de locomotion, ou bien encore le couplage entre ces deux systèmes.

Les résultats obtenus sont parfois contre-intuitifs pour les roboticiens et les roboticiennes. La biorobotique propose d’explorer la navigation autonome « déconnectée » ou « en mode avion », exploitant uniquement la lumière réfléchie par l’environnent ou diffusée par le ciel comme le font les insectes navigateurs pour trouver leur cap de manière optique ou bien les oiseaux pour se géolocaliser visuellement. Nous espérons que ces recherches permettront aux véhicules intelligents d’atteindre le même niveau d’agilité et de résilience que les insectes ou oiseaux navigateurs, abeilles mellifères et fourmis du désert en tête.

Voir son environnement comme un insecte : moins précis peut-être, mais parfois plus efficace

De façon surprenante, les insectes navigateurs possèdent une acuité visuelle plutôt mauvaise. Ainsi, les fourmis navigatrices possèdent une vision 300 fois moins précise que celle des humains en termes d’« acuité fovéale », qui est la capacité à discerner un petit objet à grande distance. De leur côté, les abeilles mellifères possèdent une vision 100 fois moins précise que les humains, mais elles réalisent pourtant quotidiennement des trajets de plusieurs kilomètres par jour, jusqu’à 13 kilomètres de la ruche… alors qu’elles ne mesurent que treize millimètres.

Cette distance représente un million de fois leur longueur de corps. C’est comme si un humain voyageait 1 000 kilomètres et était capable de retrouver son foyer sans demander d’aide à son téléphone. Il est tout à fait stupéfiant qu’un aussi petit animal soit capable de localiser sa ruche et de retrouver sa colonie à chaque sortie — avec seulement un million de neurones et 48 000 photorécepteurs par œil (contre 127 millions pour l’œil humain).

Le secret de ces insectes est l’« odométrie visuelle », c’est-à-dire l’aptitude à mesurer les distances en voyant le sol défiler entre les différents points de sa route aérienne, entre autres, mais aussi la reconnaissance de route par familiarité visuelle à très basse résolution et la vision de la polarisation du ciel pour trouver le cap à suivre.

Pour imiter l’œil des insectes, nous avons développé en 2013 le premier capteur visuel miniature (1,75 gramme) de type œil composé de 630 petits yeux élémentaires, appelé CurvACE.

Ce capteur, aux performances toujours inégalées à ce jour, est capable de mesurer des vitesses de défilement de contrastes visuels, que ce soit par un clair de lune ou une journée très ensoleillée. L’avantage majeur de cet œil composé est son large champ visuel panoramique horizontal de 180° et vertical de 60° pour une taille de seulement 15 millimètres de diamètre et une consommation de quelques milliwatts. Même si les récepteurs GPS consomment autant que le capteur CurvACE, les calculs effectués pour déterminer votre position à partir des signaux satellitaires sont extrêmement coûteux. C’est pour cela que la navigation sur smartphone est très consommatrice d’énergie. À cela, il faut ajouter le coût énergétique et écologique de l’entretien des constellations de satellites.

œil courbe électronique
Premier œil composé et courbe, réalisé dans le cadre du projet européen CurvACE. Ce capteur intègre une matrice de pixels autoadaptatifs (630 pixels) et leurs microoptiques de manière à former une juxtaposition de petits yeux élémentaires selon une courbe cylindrique. Dario Floreano, École Polytechnique Fédérale de Lausanne (EPFL), Laboratory of Intelligent Systems (LIS), Fourni par l'auteur

Puis, nous avons équipé un drone miniature de 80 grammes d’une paire de capteurs CurvACE, grâce auxquels il peut suivre un relief accidenté. Ce type de capteur pesant seulement quelques milligrammes pourrait équiper les drones de demain.

Naviguer sans dispositif de géolocalisation, ou comment déterminer la direction à prendre comme une fourmi du désert

Les fourmis du désert Cataglyphis, que l’on retrouve principalement en milieux désertiques et sur le pourtour méditerranéen, sont capables de parcourir jusqu’à un kilomètre pour trouver leur nourriture, puis de rentrer au nid en moins de trente minutes, sur un sol pouvant atteindre plus de 50 °C. Pour cela, la fourmi compte ses pas, exploite l’« odométrie visuelle », et trouve son cap en observant la lumière diffusée par le ciel.

Notre robot fourmi AntBot est équipé de capteurs visuels inspirés des fourmis. Le premier est une boussole optique constituée de deux photorécepteurs sensibles au rayonnement ultraviolet et surmontés de filtres polarisants. En faisant tourner ces filtres, il est possible de scanner le ciel pour trouver l’axe de symétrie de motif de polarisation du ciel représentant une direction à suivre, puis de déterminer le cap du robot avec une précision inférieure à 0,5° représentant la taille optique de la lune ou du soleil dans le ciel.

Photo du robot hexapode AntBot dont la boussole optique est inspirée de la fourmi du désert. Julien Dupeyroux, Institut des Sciences du Mouvement — Étienne-Jules Marey (CNRS/Aix-Marseille Université, ISM UMR7287) (2019), Fourni par l'auteur

Le second capteur est une rétine artificielle composée de 12 photorécepteurs, dénommé M2APix, qui s’adaptent aux changements de luminosité comme l’œil composé artificiel CurvACE. La distance est alors calculée en combinant le comptage de pas et le défilement optique, comme le font les fourmis du désert.

Testé sous diverses couvertures nuageuses, le robot AntBot s’est repositionné de façon autonome avec une erreur de sept centimètres, soit une valeur presque 100 fois plus faible que celle d’un dispositif de géolocalisation après un trajet de quinze mètres. Ce mode de navigation pourrait être intégré aux véhicules autonomes et intelligents afin de fiabiliser les systèmes de navigation autonomes par la combinaison de différentes façons de mesurer sa position.

En effet, les signaux de géolocalisation sont actuellement émis par des satellites au moyen d’ondes électromagnétiques de fréquences allant de 1,1 GHz à 2,5 GHz, très voisine de celles de la téléphonie mobile et peuvent être brouillés ou usurpés par un émetteur terrestre émettant un signal identique à celui d’un satellite. Bénéficier d’un dispositif capable de se localiser de façon autonome, sans se connecter à une entité extérieure, permettra de fiabiliser les véhicules autonomes sans pour autant consommer plus d’énergie et de ressources pour les faire fonctionner.

AntBot retourne à la maison comme une fourmi du désert. Source : Julien Serres — His personal YouTube channel.
The Conversation

Julien Serres a reçu des financements de la part de l'Agence de l'Innovation Défense (AID), du Centre National de la Recherche Scientifique (CNRS), d'Aix Marseille Université (amU), de la Fondation Amidex, de la Région Sud (Provence-Alpes-Côte d'Azur), et de la Société d'Accélération du Transfert de Technologies Sud-Est (SATT Sud-Est).

02.04.2025 à 12:22

Le « shifting » : comment la science décrypte ce phénomène de voyage mental prisé des ados

Laurent Vercueil, Neurologue hospitalier - CHU Grenoble Alpes (CHUGA) ; Laboratoire de Psychologie & Neurocognition. Equipe VISEMO. Université Grenoble Alpes, Université Grenoble Alpes (UGA)

Le « shifting » consiste à basculer de la réalité vers une expérience imaginaire de façon volontaire et d’y ressentir des sensations visuelles ou sonores.
Texte intégral (1988 mots)
Vous rêvez de passer un moment dans le monde de _Harry Potter_ ? Ce serait possible avec la technique du « _shifting_ ». Khashayar Kouchpeydeh/Unsplash, CC BY

Connaissez-vous le « shifting » ? Cette pratique consiste à basculer de la réalité vers une expérience imaginaire de façon volontaire. Certains « shifteurs » racontent qu’ils sont capables de se projeter dans le monde de Harry Potter et de ressentir des sensations visuelles ou sonores.


Le confinement lors de la pandémie de Covid-19 a eu des effets significatifs sur l’activité humaine, à l’échelle de la société, bien sûr, mais également sur le plan individuel. Par exemple, une étude canadienne récente a montré que la consommation d’alcool avait augmenté pendant cette période, ce qui peut être le témoignage d’une tendance à fuir une réalité morose, privée des activités mobilisant habituellement l’intérêt. La difficulté à faire face à une réalité non souhaitée peut aussi venir expliquer l’observation d’une augmentation d’une pratique appelée « shifting » qui s’est propagée par les réseaux sociaux particulièrement au sein de la population adolescente.

Sous ce terme, on trouve une pratique qui peut se définir comme un désengagement de la réalité présente pour investir une réalité fantasmatique, souvent inspirée de la culture populaire, dans laquelle le sujet vit une expérience immersive gratifiante. Ainsi, une jeune fille se décrit basculant dans un monde inspiré de celui de Harry Potter, au sein duquel elle évolue en interagissant avec ses héros préférés. Il s’agit d’un voyage imaginaire, plus ou moins sous contrôle, interrompu par le retour à la réalité.

L’aspect « technique », qui donne son nom à cette pratique (« shifting » signifie « déplacement », « changement »), consiste dans l’aptitude à basculer de la réalité vers cette expérience imaginaire de façon volontaire. Un autre aspect souligné par les pratiquants est l’adhésion puissante à cette réalité « désirée », qui nécessite de suspendre l’incrédulité usuelle, pour apprécier pleinement le contenu de l’imagerie visuelle et sonore constituant l’expérience. C’est précisément cette adhésion et la suspension de l’incrédulité qui semblent susciter l’inquiétude de l’entourage ou des professionnels de santé, en ce qu’elles pourraient menacer l’adaptation du sujet à la réalité « vraie ».


Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Un voyage mental sous contrôle

Ce que les pratiquants du shifting décrivent s’apparente à une forme de voyage mental sous contrôle.

Le voyage mental repose sur le désengagement de la situation présente pour générer une représentation mentale spécifique : par exemple, l’évocation d’un souvenir personnel repose sur l’activation d’une scène tirée du passé, qui est « rejouée » mentalement. Le voyage mental peut aussi être involontaire, avec l’irruption de souvenirs autobiographiques, ou de scènes fantaisistes, sans lien avec la réalité. Néanmoins, il demande toujours au sujet de se désengager de l’activité en cours, qui doit être suspendue, sauf s’il s’agit d’une activité routinière, de faible exigence, comme la marche, le tricot ou toute activité répétitive monotone, qui pourrait même favoriser le voyage.

Nous avons récemment publié un article de synthèse sur le voyage mental. Des travaux expérimentaux récents ont permis de mieux comprendre, chez l’animal, comment fonctionnait cette aptitude, qui n’est donc aucunement l’apanage de l’être humain, qui permet de se désengager du présent pour voyager mentalement dans l’espace et dans le temps.

Dans cet article, nous ne traiterons pas la question du « pourquoi » les adeptes du shifting font ce qu’ils font. Les neurosciences portent davantage sur le « comment », à la recherche des corrélats neuronaux des expériences subjectives.

Ainsi, nos activités mentales (et les comportements efférents) peuvent être classées en trois grands modes, entre lesquels nous naviguons en fonction des contextes :

  • d’abord, le mode « exploitation », qui consiste à remplir les tâches dictées par l’environnement, sous la forme d’un certain asservissement du cerveau à ses routines,

  • ensuite, le mode « exploration », lorsque nous sommes confrontés à un contexte nouveau qui nous contraint à développer des stratégies originales au résultat incertain,

  • enfin, le mode « désengagé », où l’absence de contrainte environnementale nous rend susceptibles de nous livrer à une activité autonome, de « vagabondage mental » (le fameux voyage) qui consiste à tripoter des idées, ressasser le passé, envisager l’avenir, etc.

Depuis les travaux pionniers du neurologue Marcus Raichle, nous savons que ce troisième mode, considéré comme un mode « par défaut », dans lequel le sujet bascule lorsqu’il n’a rien à faire (ni exploiter ni explorer), repose sur un réseau cérébral impliquant les territoires frontaux et pariétaux.

Or, le shifting repose sur un désengagement du réel, et la réalisation d’un voyage mental « contrôlé », où le sujet maîtrise, en partie au moins, le cours de son imagerie mentale.

Les animaux sont capables de voyager mentalement

Une étude expérimentale menée chez le rat, publiée en 2023 dans la revue Science, montre que le voyage mental peut être suivi littéralement à la trace chez l’animal.

Dans cette expérience, le rat est placé sur une sphère mobile sur laquelle il se déplace dans toutes les directions. Ces déplacements sont reportés dans un environnement virtuel qui lui est présenté sur un écran placé devant lui, de sorte qu’il peut se promener à son gré dans un labyrinthe numérique, à la recherche d’une récompense délivrée lorsqu’il atteint son but.

Ce faisant, les activités des neurones de l’hippocampe, appelés « place cells » (« cellules de lieu ») parce qu’ils codent la situation de l’animal dans l’espace, sont enregistrées afin de constituer une cartographie neuronale de ses déplacements. À l’aide de ces enregistrements, et à force de répétitions des essais, les chercheurs peuvent identifier l’endroit où se trouve l’animal dans le labyrinthe.

Et c’est là que la prouesse expérimentale réside : les chercheurs débranchent la connexion de la molette de déplacement à l’environnement virtuel et connectent, à la place, l’activité des neurones hippocampiques. Ainsi, le labyrinthe dans lequel le rat se déplace n’est plus liée à ses déplacements effectifs mais au plan cérébral qu’il est en train de suivre ! Et ça marche : le rat parvient à sa destination (virtuelle) et reçoit sa récompense (réelle). En somme, il ne se déplace que « dans sa tête », et non pas dans un environnement. Il réalise parfaitement un voyage mental.

Une autre expérimentation, plus récente encore, menée chez l’animal, a permis de cibler le commutateur qui permet de basculer d’une tâche vers un désengagement de l’environnement. Des souris dont les différentes populations de neurones du noyau du raphé médian, dans le tronc cérébral, sont influencées par le dispositif expérimental peuvent basculer d’un mode à l’autre sous l’effet de l’une des trois populations (neurones à GABA, glutamate et sérotonine), correspondant aux trois catégories décrites plus haut : exploitation, exploration et désengagement.

Ainsi, la suppression de l’activité des neurones sérotoninergiques du noyau du raphé médian permet le désengagement. L’activation ou l’inhibition de l’une des trois populations de neurones permet de basculer d’un mode à l’autre. Le shifting exploite probablement ces propriétés spécifiques, tout en développant une certaine expertise du désengagement, lorsque, tout au moins, le contexte le permet.

Suspendre son incrédulité pour « shifter »

Mais pratiquer le voyage mental et désengager facilement ne doit pas suffire à faire l’expérience d’un shifting satisfaisant, il faut aussi, et c’est sans doute le point le plus critique, parvenir à suspendre son incrédulité. Celle-ci agit comme une sorte de « filtre de réalité », consistant à détecter les irrégularités de notre expérience mentale pour distinguer ce qui relève de la perception de ce qui appartient à notre propre fantaisie.

Nous pouvons tous imaginer des éléphants roses et les classer correctement dans les produits de cette imagination. Durant le sommeil, les structures qui assurent ce discernement entre fantaisie et réalité (le cortex orbitofrontal et le gyrus cingulaire antérieur) ont une activité qui est suffisamment inactivée pour que nous puissions adhérer au contenu de nos rêves, en dépit de leur caractère fantastique.

Au cours de l’hypnose, ces processus de critique de la réalité sont également mis au repos, de sorte que nous pouvons adhérer à des représentations erronées (par exemple, mon bras est paralysé). Il est vraisemblable qu’un tel processus, comme le suggèrent les méthodes proposées pour faciliter le shifting, et qui sont évocatrices d’une forme d’autohypnose, soit à l’œuvre pour que le sujet adhère au contenu de son voyage.

La pratique du « shifting » consiste donc à exploiter une propriété générale, propre à l’humain et à de nombreux animaux probablement, qui est de pouvoir s’abstraire du réel pour se projeter dans un monde imaginaire, réalisant un voyage mental. Nous commençons à connaître les opérateurs cérébraux de cette expérience, mais son contenu subjectif reste hors de portée : c’est bien ce qui fait toute sa magie.

The Conversation

Laurent Vercueil ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

02.04.2025 à 12:22

Pourquoi avons-nous besoin de sucre ? Existe-t-il un risque d’addiction ?

Bernard Sablonnière, Neurobiologiste, professeur des universités − praticien hospitalier, faculté de médecine, Inserm U1172, Université de Lille

Le sucre est un carburant énergétique indispensable. Son goût nous procure du plaisir, mais peut-on le comparer à une drogue ?
Texte intégral (1629 mots)
Le sucre est indispensable au bon fonctionnement de notre organisme, mais attention au surdosage ! Thomas Kelley/Unsplash, CC BY

Le sucre est un carburant énergétique indispensable. Il est préférable de le consommer sous la forme d’un apport en sucres lents, limitant ainsi le risque de diabète. Son goût nous procure du plaisir, mais peut-on le comparer à une drogue ?


Le sucre, chimiquement le glucose, est un carburant utilisé par toutes nos cellules pour produire rapidement de l’énergie. Il est brûlé en présence d’oxygène dans de minuscules chaudières cellulaires : les mitochondries, libérant de l’eau, du gaz carbonique et de l’énergie. Bien entendu, les cellules peuvent également consommer des acides gras issus des graisses alimentaires, deuxième source d’énergie. À l’échelle du corps humain, c’est environ de 300 à 500 grammes de glucose qui sont ainsi consommés chaque jour, une quantité variable selon nos dépenses énergétiques. Le foie et les muscles stockent suffisamment de sucre sous forme de glycogène, un polymère unissant des milliers de molécules de glucose, pour servir de réserve.

Le glucose est le carburant préféré du cerveau qui en consomme à lui seul 20 % de tous les besoins corporels, soit environ 4 grammes par heure. D’ailleurs, toute hypoglycémie caractérisée par une baisse du taux de glucose sanguin en dessous de 0,50 g/l pourra entraîner un coma, c’est-à-dire un arrêt du fonctionnement des neurones, alors que le taux normal est de 1 g/l.

Le foie, le cerveau et les muscles, consommateurs et gestionnaires du sucre

Le foie est le banquier du glucose. Il contient une réserve d’environ 80 grammes, qu’il distribue aux organes pour leur besoin permanent en énergie comme le cerveau, les reins et le cœur. Les muscles, eux, sont égoïstes et possèdent leur propre réserve, qu’ils utilisent en cas de besoin d’énergie immédiat. Cette réserve musculaire de 150 à 250 grammes, environ, de glucose disponible est utile lors d’un exercice physique. En cas d’absence d’exercice physique, le surplus de glucose apporté par l’alimentation associé à des réserves pleines de glycogène est transformé en graisse stockée dans le tissu adipeux !

Cette symphonie associant l’absorption du sucre, le maintien de sa concentration dans le sang et la gestion des réserves est régulée par deux hormones pancréatiques essentielles : l’insuline et le glucagon.


Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


L’apport de sucre dans l’alimentation

Au plan nutritionnel, 50 % de l’apport d’énergie journalier moyen, soit 1 250 kilocalories chez un adulte moyennement actif, doit être apporté par le sucre. Mais attention, il est préférable que cet apport soit assuré par des sucres lents, l’amidon contenu dans le pain, les pâtes ou le riz. Par exemple une assiette de pâtes apporte environ 80 grammes de glucose sous forme d’amidon.

Ainsi la digestion assez lente de l’amidon évite des à-coups de la glycémie qui fatiguent le pancréas. Pour une consommation moyenne journalière d’énergie de 2 500 kilocalories, un apport en sucres d’environ 350 grammes sera nécessaire, dont 90 % sous forme de sucres lents et 10 % (ou 35 grammes) par jour sous forme de sucres rapides – c’est-à-dire de glucose libre présent dans les jus de fruits, sodas ou desserts variés (l’OMS recommande de ne pas dépasser 50 grammes par jour).

Le risque de surpoids lié à une consommation trop élevée de sucres rapides est souvent lié à un excès d’apport alimentaire. Ainsi une canette de soda contient jusqu’à 35 grammes, un verre de jus d’orange 15 grammes, un yaourt sucré 10 grammes, et beaucoup de plats préparés du commerce affichent plus de 5 grammes de glucose par portion de 100 grammes.

Pourquoi certaines personnes n’aiment pas le sucre ?

Une attirance vers les aliments sucrés, bonbons, gâteaux ou desserts variés dépend surtout de l’éducation et des habitudes prises pendant l’enfance. Chacun possède dans ses papilles gustatives des récepteurs du goût, ces minuscules détecteurs du goût sucré. Certaines personnes possèdent un variant génétique du récepteur TAS2R38, leur conférant un nombre de récepteurs plus élevé. Ces personnes auront tendance à moins aimer le sucre et seront plus vite écœurées en cas d’excès.

La plupart des édulcorants ou faux sucres comme l’aspartame et l’acésulfame sont également perçus par les récepteurs du goût amer, et ceci de façon variable selon les individus, d’où parfois la tentation de revenir au goût sucré naturel du glucose ou du fructose contenu dans les fruits.

Peut-on parler d’addiction au sucre ?

L’attirance pour le goût sucré est innée chez l’homme, sans doute parce que le glucose est un carburant essentiel pour nos cellules.

La perception du goût se traduit par une information apportée au cerveau. Ces informations sont perçues par le circuit du plaisir et apportent un ressenti agréable. D’autres sont envoyées à l’hypothalamus qui en profite pour réguler l’appétit en réduisant à certains moments de la journée la capacité de réponse des récepteurs au goût sucré.

Curieusement, il existe des récepteurs du goût sucré dans l’intestin, le pancréas et même le cerveau. Mais comment le sucre nous procure-t-il du plaisir ? Il active deux régions du cerveau, l’insula puis l’amygdale qui nous font ressentir du plaisir. Pour y parvenir, le cerveau stimule la libération d’une hormone clé de l’envie, la dopamine. Cette clé stimule le circuit du plaisir et l’insula s’active.

Pourquoi les sucres rapides comme le glucose ou le saccharose contenus en excès dans certaines boissons ou pâtisseries peuvent-ils être addictifs ? Tout simplement parce que le plaisir déclenché par le sucre dans le cerveau est identique à l’effet procuré par une drogue et provoque une addiction.

Au cours de l’évolution, l’espèce humaine n’a pas eu beaucoup d’occasions de se prémunir d’un excès de sucres rapides, puisqu’Homo sapiens frugivore et omnivore, du paléolithique, consommait moins de 30 grammes de sucres rapides par jour. À cette dose aucun effet addictif.

Le cerveau trompé par les édulcorants

Le rôle des édulcorants est de remplacer le glucose des aliments par du faux sucre qui active les récepteurs du goût sucré. En effet, ça marche : le cerveau perçoit bien un goût sucré et cela calme l’appétit pendant plusieurs minutes sans apporter de calories. Oui, mais les récepteurs présents dans l’intestin préviennent le cerveau qu’une livraison de glucose est prévue en informant les organes. Très vite, les cellules constatent que le glucose n’arrive pas, ce qui déclenche alors un regain d’une envie de sucre.

Heureusement, cet effet ne se produit que lors de la prise fréquente et répétée d’édulcorants au cours de la journée, souvent observée avec la consommation abusive de sodas contenant du faux sucre. La solution pour éviter ces phénomènes d’addiction est de déconditionner le cerveau à l’excès de sucre et de se réhabituer à consommer moins de boissons et d’aliments sucrés, pas trop souvent dans la journée, et de limiter l’apport de sucres rapides à moins de 50 grammes par jour.

Le sucre est un carburant énergétique indispensable. Il est préférable de le consommer sous la forme d’un apport convenable en sucres lents, limitant ainsi le risque de diabète. L’alimentation doit être équilibrée et associée à une activité physique suffisante pour assurer une dépense énergétique adaptée, limitant le risque d’obésité par transformation de l’excès de glucose alimentaire sous forme de graisse.

The Conversation

Bernard Sablonnière ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

22 / 50
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Monde Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
  CULTURE / IDÉES 1/2
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  IDÉES 2/2
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
  Pas des sites de confiance
Contre-Attaque
Issues
Korii
Positivr
Regain
Slate
Ulyces
🌓