14.04.2025 à 17:35
Carolina Cerda-Guzman, Maîtresse de conférences en droit public, Université de Bordeaux
En France, depuis 1789, tous les changements de Constitution eurent lieu après des crises majeures : guerres, révolutions ou coups d’État. Mais sommes-nous condamnés à réécrire le texte constitutionnel dans le tumulte ? L’exemple du Chili, qui a mené un processus constituant entre 2019 et 2023, permet de dépasser certaines idées reçues.
Depuis la dissolution de l’Assemblée nationale, le 9 juin 2024, la Ve République française traverse une période de forte instabilité. En 2024, quatre premiers ministres différents se sont succédé : Élisabeth Borne, Gabriel Attal, Michel Barnier, puis François Bayrou. Une première depuis 1958. Pourtant, cette République est fondée sur une Constitution que l’on présente souvent comme le cadre idéal pour garantir la stabilité du pouvoir exécutif. Si le texte qui fonde les institutions n’est plus à même d’assurer cette stabilité, se pose alors une question redoutable : faut-il envisager un changement de Constitution, et ce, dès maintenant ? Plusieurs éléments rationnels plaident pour ce changement et des modalités concrètes pour y procéder ont été formulées.
Face à cette hypothèse un argument revient pourtant de manière récurrente : le moment du changement n’est pas encore là, car les Constitutions sont des textes que l’on ne change qu’en cas de crise grave, lorsqu’il n’y a pas d’autre issue, lorsque les institutions sont paralysées. Ainsi, le « bon moment » pour changer de Constitution serait nécessairement une période troublée. Sommes-nous vraiment condamnés à écrire des Constitutions dans le tumulte ?
Cette tendance à associer chaos et rédaction d’une nouvelle Constitution résulte en grande partie de l’histoire constitutionnelle de la France. Il faut reconnaître que sur ce point la France dispose d’une expérience particulièrement riche. Depuis la Révolution, il y a eu au moins 15 textes constitutionnels différents (16 si l’on ajoute les actes constitutionnels adoptés sous Vichy entre le 11 juillet 1940 et le 26 novembre 1942). En comparaison, les États-Unis d’Amérique n’en ont connu qu’une : celle rédigée par la Convention de Philadelphie en 1787. Certes, ce texte a été enrichi de 27 amendements, mais la Constitution française, née en 1958, en est déjà à sa 25ᵉ révision (la dernière en date étant celle du 8 mars 2024, relative à la liberté de recourir à l’interruption volontaire de grossesse).
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Or, que nous apprend cette foisonnante histoire constitutionnelle française ? Que les changements de Constitution arrivent généralement dans trois hypothèses majeures : soit en cas de révolution (les Constitutions de 1791, 1793, 1795, 1830 ou 1848 en sont des exemples), soit en cas de coups d’État (les Constitutions de 1799 ou de 1852 en attestent), soit après une défaite militaire et après la Libération (les Constitutions de 1814, 1875, de Vichy, puis celle du gouvernement provisoire de 1945 sont nées de ces contextes). L’actuelle Constitution est, quant à elle, née après un putsch militaire à Alger en mai 1958.
Ainsi, on tend à considérer que toute bascule constitutionnelle ne peut s’opérer que dans le cadre d’une crise majeure et existentielle, qui conduit à réassigner la source du pouvoir. C’est lorsque le pouvoir passe du monarque au peuple ou du peuple à un nouvel homme (plus ou moins providentiel) que l’on rédige une nouvelle Constitution. Le passé constitutionnel français empêche d’imaginer un changement constitutionnel apaisé, respectueux du cadre démocratique et du droit, où régneraient le dialogue et la concorde.
Si l’on prend l’Histoire comme une loi implacable, vouée à se répéter éternellement, cela impliquerait que, si un jour, l’on devait changer de Constitution, ceci ne pourrait se faire qu’au prix d’une rupture avec le droit en place. Dit autrement, la naissance d’une VIe République supposerait une violation du cadre établi par la Ve République. Or, il y a quelque chose de perturbant à se dire que, pour aboutir à un meilleur régime démocratique, l’on soit obligé de passer par un non-respect du droit existant. Non seulement, c’est problématique lorsque l’on est attaché au respect du droit et à la démocratie, mais c’est aussi fâcheux sur un plan plus utilitariste. L’illégalité de la naissance peut entacher durablement le texte, et donc constituer un handicap pour sa légitimité. Mais, en réalité, le plus gênant est qu’il n’existe nullement une telle fatalité en droit constitutionnel.
Toute constitution ne naît pas nécessairement du viol de la constitution qui l’a précédée et il est tout à fait possible de penser un changement constitutionnel respectueux du droit existant. De fait, il existe des pays où le texte constitutionnel anticipe déjà le processus à suivre. En effet, il arrive que des textes constitutionnels mentionnent les étapes à respecter pour un changement complet de Constitution et distinguent ainsi une révision partielle (changement de certains articles) d’une révision totale (changement complet du texte) de la Constitution. C’est le cas, par exemple, de la Suisse (articles 193 et 194), de l’Espagne (article 168) ou de l’Autriche (article 44). Ainsi, selon ces textes, il n’est pas nécessaire d’attendre que les institutions s’effondrent pour les rebâtir.
Le raffinement des techniques d’élaboration des Constitutions tout au long du XXe siècle permet d’envisager un dépassement de l’histoire constitutionnelle française et de rejeter l’idée que les changements constitutionnels ne peuvent naître que dans des moments de crise existentielle.
Toutefois, il est certain que, pour que la bascule s’opère, une force favorable au changement constitutionnel est nécessaire. Il faut que cette force prenne corps et s’exprime à l’occasion d’un événement social, politique ou économique. Ainsi, si le changement de Constitution n’exige pas un effondrement du système, un événement nécessairement perturbateur doit le déclencher. Celui-ci peut être grave et destructeur, mais il peut être aussi plus minime.
Pour ne prendre qu’un exemple, le Chili, celui-ci a connu un processus constituant entre 2019 et 2023. Ce processus débute par l’annonce d’une nouvelle hausse du prix du ticket dans la capitale. Très rapidement, les rues de Santiago se sont noircies de manifestants. Au moment où la demande d’un changement de Constitution est exprimée par la rue, les institutions chiliennes n’étaient ni bloquées ni paralysées. Il n’y avait même pas de crise politique majeure à cet instant. La hausse du prix du ticket de métro a été en réalité une étincelle, qui a constitué un point de focalisation d’un mécontentement plus profond, et a mis en mouvement une force favorable au changement constitutionnel.
Les manifestants se sont alors spontanément assemblés en « cabildos », qui est le nom donné au Chili à toute réunion de citoyennes et de citoyens traitant de questions d’intérêt commun. La reprise en main par la citoyenneté de la discussion constitutionnelle a contraint les partis politiques, puis l’exécutif, à enclencher un processus de changement de constitution participatif. Pour ce faire, une procédure en forme de sablier a été mise en place. L’idée étant que la participation populaire soit la plus large possible en début et en fin de processus mais qu’au milieu, donc lors de la rédaction du texte à proprement parler, la tâche soit confiée à un groupe plus restreint d’individus.
Ainsi, le processus a officiellement débuté par un référendum invitant le corps électoral à confirmer son souhait de changer de Constitution. Puis, une Assemblée constituante a été élue, composée à égalité de femmes et d’hommes (une première dans l’histoire mondiale), chargée de rédiger le projet de Constitution.
Enfin, ce texte fut soumis à un référendum pour approbation. Dans la mesure où le processus chilien s’est soldé, le 4 septembre 2022, par un rejet du texte, il ne peut être un exemple à suivre à la lettre. Pour autant, il prouve que la discussion constitutionnelle peut surgir à tout moment.
En France, nul ne sait quel sera cet élément déclencheur ni quand il adviendra. Il peut avoir lieu demain, dans quelques mois voire des années. Pour autant, plusieurs événements (la crise des gilets jaunes en 2018, les mouvements sociaux contre la réforme des retraites en 2019‑2020 puis en 2023, les émeutes et violences urbaines de juin 2023, le mouvement des agriculteurs en janvier 2024, ou même, avant eux, Nuit debout en 2016 ou le mouvement des bonnets rouges en 2013) laissent à penser qu’il peut survenir à tout moment. Si chercher à l’anticiper est vain, il est tout aussi faux de penser qu’il existe un « bon moment » pour changer de Constitution.
Le « moment constituant » n’est jamais bon ou mauvais en soi, il advient ou n’advient pas. Surtout, il ne naît pas nécessairement de la volonté d’un homme providentiel ou à la suite de l’effondrement d’un système, il peut naître de la demande, certes contestataire, mais raisonnée de citoyennes et de citoyens.
CERDA-GUZMAN Carolina est membre du conseil d'administration de l'Association française de droit constitutionnel.
14.04.2025 à 17:35
Christian Neri, Directeur de Recherches INSERM, Inserm
Divers mécanismes protègent nos cellules des stress variés qu’elles subissent, nous prémunissant des maladies. Toutefois, divers indices semblent indiquer que ces capacités de résistance pourraient être menacées.
Toutes les cellules des êtres vivants sont dotées de mécanismes de compensation qui leur permettent de s’adapter au stress. Ce dernier peut être soit inhérent au fonctionnement normal des organismes vivants (en fonctionnant, les cellules peuvent produire des substances délétères pour elles-mêmes), soit induit par l’exposition à des facteurs environnementaux (stress aigus résultant de traumas ou d’infections, stress chroniques dus à la pollution, aux températures extrêmes, à des relations sociales délétères…).
Cette compensation cellulaire, en garantissant la résilience des tissus, constitue l’assurance de notre capacité à nous prémunir des maladies. Le vieillissement se traduit par une érosion des capacités de compensation et de résilience de nos cellules.
Or, notre environnement, lorsqu’il est dégradé par les pratiques industrielles, atteint l’intégrité de ce mécanisme au même titre que le vieillissement, ce qui peut nous fragiliser avant l’heure. Cet amoindrissement est un danger de vie en mauvaise santé. Se saisir du problème passe par la conscientisation du mécanisme qui est à la racine de cet amoindrissement.
Le concept de résilience recouvre les capacités à surmonter les altérations provoquées par des éléments perturbateurs dans des situations variées.
Une forme bien connue de résilience concerne la récupération après un stress particulièrement agressif, comme la résilience psychologique mise en lumière par le neuropsychiatre Boris Cyrulnik. Issu de la physique, le concept de résilience traverse désormais de nombreuses disciplines, de l’économie à la psychologie en passant par l’écologie ou l’informatique. On parle aujourd’hui de la résilience des systèmes logistiques (eau, énergie, transport) ou des systèmes de santé.
Mais la résilience ne concerne pas que « l’après-crise », c’est aussi les capacités à surmonter le stress qui affecte un système ou un individu de manière discrète, voire silencieuse, avant la survenue du pire.
Le vivant est en permanence confronté au stress cellulaire. La réponse au stress cellulaire (notamment lors du développement et de la reproduction) est un garant d’adaptation et d’expansion d’une population donnée.
Un stress faible peut stimuler la longévité des cellules. Cependant, un stress excessif, par exemple sous l’effet de facteurs environnementaux, peut éroder les capacités de résilience cellulaire. Or, l’érosion de ces capacités est au centre du vieillissement des tissus. C’est un risque « corps entier », car les organes communiquent entre eux. Par exemple, le microbiote intestinal communique avec le cerveau et son altération peut être préjudiciable au cerveau. C’est un risque « vie entière », car la réussite de la réponse au stress cellulaire traite des phases critiques de l’existence comme la reproduction (taux de natalité), la grossesse (santé du fœtus) ou le développement de l’enfant.
Penser la résilience du corps sous l’angle de la récupération, une fois le pire survenu, c’est sous-estimer le préjudice que les pratiques industrielles et les pollutions air-sol-eau-aliments font encourir à notre santé. C’est enfermer toujours plus d’individus dans la perspective d’une mauvaise santé dont l’échéance est incertaine, mais qui surviendra trop tôt et trop fort.
En revanche, penser la résilience du corps comme un mécanisme toujours à l’œuvre, c’est pouvoir lutter contre ce qui empêche nos tissus d’être résilients, c’est pouvoir améliorer la précaution et la prévention.
Ces mécanismes ne sont pas seulement ceux qui nous protègent contre les infections (comme l’immunité, par exemple).
Il s’agit aussi des mécanismes d’intégrité cellulaire, par exemple la réparation de l’ADN – dont l’altération présente un risque de division anarchique des cellules et de cancer, d’élimination des protéines présentant des défauts de fabrication ou abîmées par l’oxydation naturelle des tissus –, ou bien il peut s’agir de la production d’énergie nécessaire au fonctionnement des cellules, par exemple dans les mitochondries.
Ces mécanismes sont cruciaux dans les cellules qui ne se renouvellent pas, ou peu, comme les neurones du cerveau et du système nerveux central. Leur échec va sans doute de pair avec la transition des stades légers à sévères des maladies. Par exemple, la progression de la maladie de Huntington est marquée par la transition d’une phase de « compensation fonctionnelle » vers une phase de « décompensation », avec des mécanismes de résilience cellulaire qui ne parviennent plus à compenser les dommages neuronaux, un modèle qui vaudrait aussi pour la maladie d’Alzheimer.
Mais ce n’est pas tout : les mécanismes de résilience cellulaire sont au centre du vieillissement des tissus.
Au cours des trente dernières années, au moins douze caractéristiques du vieillissement ont été identifiées, dont certaines traitent directement des mécanismes de résilience cellulaire, comme la réduction de la fonction des mitochondries ou de l’autophagie (élimination des déchets intracellulaires), l’altération de l’intégrité de l’ADN et des protéines, et l’augmentation de la sénescence cellulaire, dans un modèle où le vieillissement serait principalement dû à une accumulation de mutations génétiques, accompagnée par une érosion épigénétique.
Il existe donc un solide faisceau de présomptions pour penser que ces mécanismes s’opposent aux effets du vieillissement et à la survenue des maladies chroniques.
L’affaiblissement avant l’heure de la compensation cellulaire s’oppose aux bénéfices que l’on s’attend à voir découler de l’adoption d’une « bonne » hygiène de vie visant à réduire la charge de morbidité en agissant sur des facteurs de risques dits « modifiables », tels que l’alimentation, la sédentarité, les addictions, les lieux de vie, l’hygiène au travail, ou encore l’isolement social.
À ce titre, toute perturbation des mécanismes de résilience cellulaire par les polluants, directement (par exemple en altérant la réparation de l’ADN, l’autophagie), ou indirectement (par exemple en favorisant des mutations dans l’ADN est un risque de vie en mauvaise santé à plus ou moins brève échéance.
Au vu de l’étendue et de la gravité du problème (comme, par exemple, dans le cas des PFAS en Europe et aux États-Unis), il s’agit aussi d’un risque de « manque à gagner » systémique pour la société.
Dans un tel contexte, éviter que les pratiques industrielles érodent toujours plus nos capacités de résilience cellulaire est une responsabilité qui oblige tous les acteurs concernés, et cette responsabilité est proportionnelle à la puissance des acteurs. Mais comment prendre en compte ce risque majeur ?
À l’heure actuelle, on estime la résilience individuelle contre la survenue ou la progression d’une maladie à partir du poids, plus ou moins important selon les personnes, des facteurs de susceptibilité. Ceux-ci ne sont pas biologiques stricto sensu, mais souvent comportementaux (tabagisme, alcoolisme), conjoncturels (proximité d’une usine, solitude) ou socioprofessionnels (revenus, mobilité). Cependant, l’absence d’un facteur de susceptibilité ne signifie pas forcément que l’on soit résilient.
Intégrer les facteurs de résilience cellulaire en plus des facteurs de susceptibilité lorsqu’il s’agit d’évaluer le risque de vie en mauvaise santé pourrait fournir des modèles de prédiction plus robustes. Mais il faut pour cela disposer de marqueurs fiables de la résistance cellulaire, ce qui n’est pas chose aisée.
Les marqueurs les plus précis sont souvent des marqueurs biologiques (biomarqueurs). Idéalement, ils sont simples à mesurer (par exemple dans le sang ou les urines). Un biomarqueur de résilience doit rendre compte de l’état d’un mécanisme de compensation ou de l’intégrité d’un élément essentiel des cellules.
Il en existe relativement peu à ce jour, et la mise au point d’un nouveau biomarqueur est coûteuse. Elle repose notamment sur des données collectées sur le temps long, grâce à des cohortes de grande taille, comme par exemple Inchianti, Constances ou le UK Brains Bank Network.
Actuellement, l’oxydation de l’ADN, un marqueur indirect de l’intégrité de cette molécule essentielle,est l’un des biomarqueurs potentiels à l’étude. Dans ce contexte, de nouveaux outils sont explorés, par exemple les horloges épigénétiques, dont un pionnier est le chercheur Steve Horvath aux États-Unis.
Cet outil détecte certaines modifications chimiques de l’ADN (les méthylations, autrement dit l’ajout d’un groupement méthyle sur certaines parties de la molécule d’ADN) pour mesurer un « âge épigénétique ». Celui-ci, qui témoigne du vieillissement des tissus, est en quelque sorte un âge « biologique », et peut différer de l’âge chronologique.
Il est important de souligner que cet outil ne permet pas encore de mesurer l’âge biologique de tout le monde : il n’est pas validé pour cela, étant encore au stade des recherches.
L’enjeu, aujourd’hui, est de réduire les maladies chroniques de façon globale, et de sortir des réponses ponctuelles. Or, le modèle actuel, focalisé sur les « maladies avérées », limite la portée de la prévention et l’anticipation des coûts sociétaux. En effet, les coûts cachés sont sous-évalués, voire ignorés.
Mettre au centre des réflexions sur la prévention la mise en péril d’un mécanisme fondamental de vie en bonne santé (nos capacités cellulaires à nous prémunir des maladies) pourrait constituer un vecteur de transformation des politiques de santé publique.
Les données scientifiques qui justifient cette mutation s’accumulent, y compris des données épidémiologiques à forte granularité géographique (celles-ci ont notamment été mises en lumière ces dernières années par diverses enquêtes menées par certains journalistes d’investigation).
Cette nécessaire transformation est cependant entravée de diverses manières (monopoles, lobbying industriel, accords bilatéraux, désinformation, manipulations des études, relégation au second plan des questions de santé, priorités budgétaires, ou encore sous-dimensionnement des acteurs de la vigilance…). Ces obstacles limitent notre capacité à adopter une politique santé-responsable, alors même que le dépassement des capacités de résilience cellulaire pourrait s’inscrire dans un modèle de risques « en chaîne », les pollutions chimiques s’accompagnant d’une santé figée à un niveau médiocre, résultant en des coûts systémiques accrus.
Christian Neri a reçu des financements de l'ANR, de CNRS Innovation, et de fondations (FRM, Association Huntington France, Hereditary Disease Foundation, Fondation CHDI). Christian Neri est membre du bureau de sociétés savantes en France (Président de la FSEV) et à l'étranger (ISEV).
14.04.2025 à 17:34
Jonathan Rouzaud-Cornabas, Maître de conférences au Laboratoire d'informatique en image et systèmes d'information, INSA Lyon – Université de Lyon
Les GPU ont permis l’explosion des jeux vidéos dans les années 1990 puis de l’IA depuis vingt ans. Ils permettent de faire certains calculs plus rapidement que les processeurs classiques.
Les progrès massifs dans le domaine de l’intelligence artificielle doivent beaucoup à un type de composant informatique, les GPU, pour graphical processing unit – à tel point que l’on considère aujourd’hui Nvidia, le plus grand concepteur de GPU au monde, comme un acteur clef du marché de l’IA avec l’une des capitalisation boursière la plus élevée de tous les temps. Revers de la médaille, ses actions en bourse ont dévissé quand une entreprise chinoise, DeepSeek, a annoncé pouvoir faire des calculs avec moins de GPU que ses concurrents.
Les GPU ont émergé dans les années 80, avant d’exploser avec le marché des jeux vidéo. Si on trouve aujourd’hui un GPU dans de nombreux ordinateurs personnels et surtout dans les consoles de jeux, il faut des dizaines de milliers de GPU pour faire tourner les plus gros systèmes d’IA dans des fermes de calculs dédiées.
Le marché des GPU est très concentré, tant au niveau de la conception, de la fabrication et de la fourniture (le nombre de GPU produits étant très largement inférieur à la demande), qu’au niveau de l’hébergement (ces fermes nécessitant une expertise rare). Ils sont donc devenu un enjeu géostratégique – avec des investissements en centaines de milliards aussi bien aux USA qu’en France, mais aussi un conflit commercial majeur entre les États-Unis et la Chine.
Les GPU existent depuis le début des années 80 ; mais leurs principes fondamentaux datent des années 60, quand les « processeurs vectoriels » ont émergé. Ceux-ci ont été conçus pour traiter de grands tableaux de données (un tableau à une dimension s’appelle un vecteur, d’où le nom de « processeurs vectoriels ») et appliquer sur chaque élément du tableau la même opération, par exemple additionner les éléments d’un tableau deux à deux.
La puissance des processeurs vectoriels réside dans le fait qu’ils sont capables d’appliquer en même temps une opération sur plusieurs éléments, alors que les processeurs classiques de votre ordinateur, également appelés « processeurs scalaires », n’appliquent les opérations que sur un seul élément à la fois. Pour additionner deux tableaux de 32 cases, un processeur vectoriel traitera les 32 éléments en une seule fois, alors qu’un processeur scalaire classique un seul élément à la fois. Le nombre d’éléments qu’un processeur vectoriel peut traiter en parallèle est variable d’une génération de processeurs à l’autre.
Ceci étant, les problèmes que doivent résoudre les ordinateurs consistent rarement à effectuer la même opération sur tous les éléments d’un grand tableau, en dehors de cas bien particuliers… dont les jeux vidéos, et une grande partie des systèmes d’IA justement !
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Pour faire tourner un jeu vidéo moderne haut de gamme sur un ordinateur ou sur une console, il faut être capable d’afficher 60 images par seconde en haute résolution 4K. Une image 4K est un rectangle (une matrice) de 3840 pixels de haut par 2160 pixels de large. Pour chaque pixel, il faut 3 valeurs (rouge, vert et bleu) pour pouvoir représenter la palette de couleurs. Par conséquent, il faut calculer et mettre à jour 1 492 992 000 pixels par seconde. Pour faire tourner des jeux vidéo, les GPU ont donc repris les principes des processeurs vectoriels.
Dans le courant des années 1980 et 1990, la démocratisation de l’informatique et des jeux vidéos a fait exploser le marché des GPU. Avec leur démocratisation, leur coût a énormément baissé, à une époque où les gros ordinateurs (supercalculateurs) étaient très chers et complexes.
Par conséquent, les chercheurs ont cherché à détourner ces GPU conçu pour le jeu vidéo pour faire d’autres types d’opérations qui leur étaient utiles pour leur recherche. En effet, à performance égale, les GPU avaient (et ont toujours) un coût largement inférieur aux CPU.
À lire aussi : Prix Nobel de chimie 2024 : design des protéines et prédiction de leurs structures, deux facettes d’une même médaille
Un des premiers cas d’utilisation de ces GPU, en 2004, venait de la communauté d’algèbre linéaire, qui utilisait déjà du calcul vectoriel et a pu adapter ses méthodes à ce nouveau matériel. Il faut savoir que l’algèbre linéaire, qui est utilisée pour simplifier la résolution d’équations, est à la base de beaucoup de programmes simulant différents processus réels, depuis le Big Bang jusqu’à la météo ou aux infections de cellules par des virus.
Nvidia a rapidement répondu aux besoins de la communauté académique en 2006. Puis, à partir de 2014, elle a aussi fourni des GPU, pour le développement de systèmes d’IA, notamment par les GAFAM.
Ainsi, après une longue période de réduction de budget pour l’intelligence artificielle, le potentiel de calcul des GPU a permis de rendre exploitables les approches de type apprentissage profond qui étaient bloquées depuis des années, qui se base sur des réseaux de neurones pour répondre à des tâches complexes. Pour implémenter ces approches, il faut pouvoir faire d’énormes quantités de calcul vectoriel sur de grands volumes de données.
Un réseau de neurones tel qu’utilisé par l’IA est une simplification extrême du fonctionnement d’un vrai réseau neuronal, mais il en reprend les grands principes. La représentation mathématique d’un réseau de neurones est faite sous la forme d’opérations sur des matrices et des vecteurs à grandes échelles. Plus le modèle est complexe, plus la taille des données stockées dans de grands tableaux est grande et plus le nombre d’opérations mathématiques est nombreux. C’est grâce à la collaboration entre communautés de l’IA et de l’algèbre linéaire que les capacités de calcul de l’IA ont explosé ces dernières années.
Devant l’explosion de l’utilisation dans le domaine de l’intelligence artificielle, les GPU évoluent de plus en plus vers des fonctionnalités spécialisées pour l’IA et moins pour le jeu vidéo. Par exemple, des opérations spéciales ont été introduites pour traiter des matrices et proposer des fonctions de plus haut niveau, comme les « transformers » utilisés dans les grands modèles de langage.
Mais le principal gain de calcul dans l’IA vient de la réduction de la précision des opérations mathématiques. Un ordinateur ne fait jamais un calcul exact sur des nombres à virgule : comme il stocke et calcule sur un nombre de bits prédéfini, avec une précision déterminée, il y a constamment des erreurs d’arrondi plus ou moins visibles et souvent suffisamment faibles pour être négligeables. Devant la quantité de calcul nécessaire au fonctionnement des systèmes d’IA, la précision a été grandement diminuée (par quatre ou plus) pour accélérer les calculs (par quatre ou plus). Les grands réseaux de neurones sont donc peu précis, mais, grâce à leur taille, ils peuvent répondre à des problèmes complexes.
Derrière l’essor des systèmes d’IA et les GPU, il y a une guerre commerciale entre la Chine et les USA, les USA interdisant l’utilisation de leurs GPU haut de gamme par la Chine. En dehors de Nvidia, seuls AMD et Intel peuvent à la marge concevoir des GPU.
Mais Nvidia ne les produit pas elle-même : une entreprise taïwanaise, TSMC, est la seule à avoir la technologie et les usines pour graver les GPU sur du silicium, au niveau mondial. Pour pouvoir continuer à produire et à vendre des produits venant de sociétés américaines, TSMC s’est engagée à ne pas travailler avec la Chine. Comme Taïwan est par ailleurs menacée d’annexion par la Chine, on peut envisager un risque très important sur l’approvisionnement en GPU dans les années à venir.
Cela met aussi en avant le besoin de développer en Europe une souveraineté sur la conception et la production de processeurs classiques ou de GPU.
L’Union européenne travaille sur cette thématique depuis des années avec un investissement dans le hardware ou matériel ouvert, mais ne peut pas aujourd’hui rivaliser avec les USA ou la Chine. Si des usines de moyenne gamme existent en Allemagne et en France, la présence d’usine de production de processeurs haut de gamme n’est pas prévue.
Au-delà, des problématiques de souveraineté, il est nécessaire de se poser de la question de l’intérêt de consacrer une part de plus en plus importante de la production d’électricité aux technologies numériques. En effet, l’IA consomme énormément d’énergie et son utilisation provoque déjà des problèmes d’approvisionnement en électricité, mais aussi en eau (pour le refroidissement), voire de redémarrage d’usines à charbon, pour répondre aux besoins.
Jonathan Rouzaud-Cornabas a reçu des financements de l'ANR et Inria.
14.04.2025 à 12:27
Stoyan V. Sgourev, Professor of Management, EM Normandie
Condamné et vilipendé dans son pays, le black metal norvégien a connu un grand succès en dehors de ses frontières. À l’origine de cette réussite se trouvent des intermédiaires qui ont transformé la source du problème en raison du succès.
Au milieu des années 1990, la scène musicale norvégienne du black metal a été de plus en plus ostracisée après que des musiciens du genre ont été [associés à des meurtres] et à des incendies d’églises.
La plupart des maisons de disques norvégiennes ont refusé de travailler avec des groupes de black metal, les représentations publiques ont été limitées. Ce genre a même été régulièrement critiqué, voire vilipendé, dans la presse.
Mais, par un remarquable revirement de situation, quelques années plus tard seulement, le black metal norvégien est devenu un phénomène global, avec des millions d’albums vendus dans le monde entier. Ce phénomène culturel a pris une telle ampleur qu’il est aujourd’hui célébré en Norvège et la principale exportation culturelle du pays et au point que l’on s’intéresse à l’image ou aux recettes produites par ce genre.
Dans notre article publié dans Academy of Management Discoveries, écrit avec Erik Aadland de la BI Norwegian Business School, nous attribuons, pour une grande part, ce revirement au travail fourni par les maisons de disques et par les entrepreneurs qui ont su capitaliser sur la stigmatisation du genre. Ces professionnels ont trouvé des moyens de réinterpréter et d’exporter ce type de musique en associant les aspects les plus noirs à des concepts moins scandaleux et donc plus attrayants, comme l’authenticité ou l’esprit de rébellion.
À lire aussi : Musique : du streaming à l’Auto-Tune, comment le numérique a tout changé
Nous voulions savoir ce qui pouvait permettre à des produits culturels réputés toxiques ou perçus de manière très négative de devenir culturellement importants. Le mécanisme social que nous appelons « arbitrage de valorisation » est un élément crucial de ce puzzle. Il consiste à exploiter les différences de préférence des publics, en vendant un produit, stigmatisé sur le marché A, sur un marché B, où il le sera moins.
Un « arbitre de valorisation » ne se contente pas d’acheter à bas prix et de vendre à prix plus élevé, en encaissant la différence. Il joue un rôle actif en cherchant à créer ce surplus de valeur sur un autre marché. Son profit est ainsi réalisé après avoir réussi à réinterpréter une caractéristique indésirable devenue attrayante. C’est la condition sine qua non pour pouvoir augmenter le prix de vente.
Le black metal norvégien comporte souvent des paroles contestataires, antichrétiennes et misanthropes. Pour réussir à les vendre hors de Norvège, les maisons de disques ont capitalisé sur les liens criminels des membres de certains groupes. Ils ont été utilisés pour convaincre les acheteurs que la musique de ces groupes reflétait authentiquement les véritables croyances de ses créateurs et qu’elle n’avait pas été conçue comme un produit commercial, ayant pour seule finalité de faire vendre.
Dans cette perspective, les actes de violence sont considérés comme cohérents avec la brutalité des paroles : la musique est réellement maléfique. L’idée que ceux qui se livrent à des activités criminelles « vivent » authentiquement les sentiments de la musique était cruciale pour convaincre un public international.
Nos recherches nous ont permis de constater que, au milieu des années 1990, la grande majorité des maisons de disques ont pris leurs distances avec le black metal norvégien en raison des risques liés à l’investissement dans un produit stigmatisé. Ils craignaient non seulement que ces œuvres ne se vendent pas, mais aussi que le fait de s’associer au genre nuise à leur réputation et, par conséquent, au reste de leurs activités.
Cette situation a ouvert des possibilités pour les entrepreneurs et les propriétaires de petits labels qui avaient moins à perdre. Les « arbitres de valorisation » étaient conscients que s’ils parvenaient à commercialiser les groupes de manière appropriée et à surmonter les obstacles liés à la distribution, les bénéfices pourraient être considérables. L’espoir d’un très important retour sur investissement à haut risque aura été une motivation puissante pour oser afficher sa solidarité avec des artistes stigmatisés et vilipendés.
La motivation pour soutenir un produit stigmatisé est financière plutôt qu’idéologique. Cela explique pourquoi le processus de stigmatisation, fondé sur des motifs idéologiques, peut commencer à s’atténuer, offrant des possibilités de gagner de l’argent en contournant la stigmatisation.
Abonnez-vous dès aujourd’hui !
Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
Si un produit est stigmatisé sur un marché, vous pouvez littéralement aller sur un autre marché éloigné du marché central et essayer de développer le produit. On peut trouver des parallèles dans la diffusion d’autres formes d’art un temps stigmatisées, comme, par exemple, l’art impressionniste en France dans les années 1880, les débuts du jazz aux États-Unis, l’art moderne en Europe après la Seconde Guerre mondiale et le hip hop dans les années 1990…
Nous pouvons identifier trois stratégies pour les managers lorsqu’ils envisagent des produits ou des pratiques stigmatisés :
La première est la passivité : ne rien faire, attendre que la tempête passe, observer ce que font les autres et agir quand la situation est sûre.
Atténuer les contraintes, en conservant une partie de l’originalité du produit, mais en l’enveloppant dans des éléments et des pratiques largement acceptés.
La stigmatisation invite à évaluer la valeur dépréciée et à s’efforcer d’en tirer parti. Ceux qui agissent rapidement, qui identifient correctement les produits ayant un potentiel commercial et qui sont ensuite prêts à parier sur ce potentiel peuvent être largement récompensés lorsque les ventes finissent par reprendre.
Stoyan V. Sgourev ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
14.04.2025 à 12:27
Fanny Reniou, Maître de conférences HDR, Université de Rennes 1 - Université de Rennes
Elisa Robert-Monnot, Maître de conférences HDR, CY Cergy Paris Université
Sarah Lasri, Maître de Conférences, Responsable du Master 2 Distribution et Relation Client, Université Paris Dauphine – PSL
De façon contre-intuitive, la vente de produits sans emballage peut devenir antiécologique et générer du gaspillage. Sans étiquette, les dates de péremption des produits prennent le risque d’être oubliées. Sans éducation culinaire, les consommateurs sont livrés à eux-mêmes pour cuisiner. Sans compter qu’avec la mode de l’emballage sur mesure, jamais autant de contenants n’ont été achetés. Une priorité : accompagner les consommateurs.
Le modèle de distribution en vrac fait parler de lui ces derniers temps avec l’entrée dans les supermarchés de marques très connues, comme la Vache qui rit. Cet exemple est l’illustration des multiples nouveautés que les acteurs du vrac cherchent à insérer dans cet univers pour lui donner de l’ampleur et le démocratiser. Le modèle du vrac, un moyen simple pour consommer durablement ?
Il est décrit comme une pratique de consommation avec un moindre impact sur l’environnement, car il s’agit d’une vente de produits sans emballage, sans plastique, sans déchets superflus, mais dans des contenants réutilisables. Dans ce mode de distribution, on assiste à la disparition de l’emballage prédéterminé par l’industriel.
Distributeurs et consommateurs doivent donc assumer eux-mêmes la tâche d’emballer le produit et assurer la continuité des multiples fonctions, logistiques et marketing, que l’emballage remplit habituellement. N’étant pas habitués à ce nouveau rôle, les acteurs du vrac peuvent faire des erreurs ou bien agir à l’opposé des bénéfices écologiques a priori attendus pour ce type de pratique.
Contrairement aux discours habituellement plutôt positifs sur le vrac, notre recherche met également en avant les effets pervers et néfastes du vrac. Quand les acteurs du vrac doivent se « débrouiller » pour assurer cette tâche nouvelle de l’emballage des produits, le vrac rime-t-il toujours avec l’écologie ?
L’emballage joue un rôle clé. Il assure en effet de multiples fonctions, essentielles pour rendre possibles la distribution et la consommation des produits :
Des fonctions logistiques de préservation, de protection et de stockage du produit. L’emballage peut permettre de limiter les chocs et les pertes, notamment lors du transport.
Des fonctions marketing de reconnaissance de la catégorie de produit ou de la marque. Elles s’illustrent par un choix de couleur spécifique ou une forme particulière, pour créer de l’attractivité en rayon. L’emballage assure également, du point de vue marketing, une fonction de positionnement en véhiculant visuellement un niveau de gamme particulier, mais aussi d’information, l’emballage servant de support pour communiquer un certain nombre d’éléments : composition, date limite de consommation, etc.
Des fonctions environnementales, liées au fait de limiter la taille de l’emballage et privilégiant certains types de matériaux, en particulier, recyclés et recyclables.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Dans la vente en vrac, ce sont les consommateurs et les distributeurs qui doivent remplir, à leur manière, ces différentes fonctions. Ils peuvent donc y accorder plus ou moins d’importance, en en privilégiant certaines par rapport à d’autres. Dans la mesure où l’industriel ne propose plus d’emballage prédéterminé pour ses produits, consommateurs et distributeurs doivent s’approprier cette tâche de manière conjointe.
Pour étudier la manière dont les consommateurs et les distributeurs s’approprient les fonctions de l’emballage, alors même que celui-ci n’est plus fourni par les industriels, nous avons utilisé une diversité de données : 54 entretiens avec des responsables de magasin et de rayon vrac, et des consommateurs, 190 posts sur le réseau social Instagram et 428 photos prises au domicile des individus et en magasin.
Notre étude montre qu’il existe deux modes d’appropriation des fonctions de l’emballage :
par assimilation : quand les individus trouvent des moyens pour imiter les emballages typiques et leurs attributs ;
ou par accommodation : quand ils imaginent de nouveaux emballages et nouvelles manières de faire.
Certains consommateurs réutilisent les emballages industriels, tels que les boîtes d’œufs et les bidons de lessive, car ils ont fait leurs preuves en matière de praticité. D’un autre côté, les emballages deviennent le reflet de l’identité de leurs propriétaires. Certains sont bricolés, d’autres sont choisis avec soin, en privilégiant certains matériaux, comme le wax, par exemple, un tissu populaire en Afrique de l’Ouest, utilisé pour les sachets réutilisables.
L’appropriation des fonctions de l’emballage n’est pas toujours chose facile. Il existe une « face cachée » du vrac, avec des effets néfastes sur la santé, l’environnement ou l’exclusion sociale. Le vrac peut conduire par exemple à des problèmes d’hygiène ou de mésinformation, si les consommateurs n’étiquettent pas correctement leurs bocaux ou réutilisent un emballage pour un autre usage. Par exemple, utiliser une bouteille de jus de fruits en verre pour stocker de la lessive liquide peut être dangereux si tous les membres du foyer ne sont pas au courant de ce qu’elle contient.
Le vrac peut également être excluant pour des personnes moins éduquées sur le plan culinaire (les consommateurs de vrac de plus de 50 ans et CSP + constituent 70 % de la clientèle de ce mode d’achat). Quand l’emballage disparaît, les informations utiles disparaissent. Certains consommateurs en ont réellement besoin pour reconnaître, stocker et savoir comment cuisiner le produit. Dans ce cas le produit peut finalement finir à la poubelle !
Nous montrons également toute l’ambivalence de la fonction environnementale du vrac – l’idée initiale de cette pratique étant de réduire la quantité de déchets d’emballage – puisqu’elle n’est pas toujours satisfaite. Les consommateurs sont nombreux à acheter beaucoup de contenants et tout ce qui va avec pour les customiser – étiquettes et stylos pour faire du lettering, etc.
La priorité de certains consommateurs n’est pas tant de réutiliser d’anciens emballages, mais plutôt d’en acheter de nouveaux… fabriqués à l’autre bout du monde ! Il en résulte donc un gaspillage massif, au total opposé des finalités initiales du vrac.
Après une période de forte croissance, le vrac a connu une période difficile lors de la pandémie de Covid-19, conduisant à la fermeture de nombreux magasins spécialisés, selon le premier baromètre du vrac et du réemploi. En grande distribution, certaines enseignes ont investi pour rendre le rayon vrac attractif. Mais faute d’accompagnement, les consommateurs ne sont pas parvenus à se l’approprier. Le rayon du vrac est devenu un rayon parmi d’autres.
Il semble que les choses s’améliorent et les innovations se multiplient. 58 % des adhérents du réseau Vrac et réemploi notent une hausse de la fréquentation journalière sur janvier-mai 2023 par rapport à 2022. Les distributeurs doivent s’adapter à l’évolution de la réglementation.
Cette dernière stipule qu’à l’horizon 2030, les magasins de plus de 400 m2 devront consacrer 20 % de leur surface de vente de produits de grande consommation à la vente en vrac. La vente en vrac a d’ailleurs fait son entrée officielle dans la réglementation française avec la Loi relative à la lutte contre le gaspillage et à l’économie circulaire, parue au JORF no 0035, le 11 février 2020.
Dans ce contexte, il est plus que nécessaire et urgent d’accompagner les acteurs du vrac pour qu’ils s’approprient correctement la pratique.
Fanny Reniou et Elisa Robert-Monnot ont reçu des financements de Biocoop, dans le cadre d'un partenariat recherche.
Elisa Robert-Monnot a reçu des financements de Biocoop dans le cadre d'une collaboration de recherche
Sarah Lasri ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
14.04.2025 à 12:27
Jean-François Amadieu, Professeur d'université, Université Paris 1 Panthéon-Sorbonne
L’origine sociale est considérée comme une source de discrimination. Pourtant, la France tarde à le reconnaître en dépit de preuves patentes. Jusqu’à quand ?
L’origine sociale figure dans la liste des critères de discrimination dans plusieurs textes internationaux qui s’imposent à la France, notamment la Déclaration universelle des droits de l’homme du 10 décembre 1948, la Convention européenne de sauvegarde des droits de l’homme et des libertés fondamentales du 4 novembre 1950 et la Convention C111 de l’Organisation internationale du travail (OIT) de 1958. Ces textes prennent soin de mentionner l’origine nationale ou sociale.
Mais, dans la liste des critères de discrimination du Code du travail, du Code pénal et dans le statut de la fonction publique, on ne trouve que le terme « origine » sans plus de précision. Cet oubli rend invisibles les discriminations en raison de l’origine sociale et empêche les individus de faire valoir leurs droits.
Derrière ce qui peut sembler une simple imprécision dans la rédaction de nos lois se cache, en réalité, une volonté d’ignorer la dimension sociale des phénomènes de discrimination.
L’OIT demande régulièrement à la France de respecter la convention C111 en incluant le terme « origine sociale » dans le Code du travail, sans succès à ce jour.
L’Assemblée parlementaire du Conseil de l’Europe a voté à l’unanimité en 2022 une résolution qui appelle les États membres « à clairement interdire cette forme de discrimination dans la législation ». Elle souligne que,
« dans toute l’Europe, l’origine sociale des personnes, les conditions de leur naissance ont une forte influence sur leur avenir, leur accès à l’éducation et à l’apprentissage tout au long de la vie, leurs perspectives d’emploi et leurs possibilités de mobilité sociale ».
Elle invite aussi à « recueillir des données relatives à l’origine sociale ».
À lire aussi : Devenir manager ne fait plus rêver… sauf les enfants issus d’un milieu populaire
Or, en France, l’Insee vient d’introduire une question dans le recensement concernant les origines « nationales » des parents, mais a refusé de le faire s’agissant de l’origine sociale (« la profession des parents ») en dépit des protestations. Le Conseil de l’Europe invite aussi à « obliger les entreprises publiques et privées à publier des données relatives à l’écart salarial entre les classes ».
Rien de tel n’existe en France en dehors d’expérimentations isolées. En Grande-Bretagne des dizaines de grandes entreprises y procèdent depuis plusieurs années grâce à un index de la mobilité sociale.
L’origine sociale n’a jamais été mentionnée dans les présentations que le défenseur des droits donne des différentes discriminations pour informer les victimes sur leurs droits. En 2025, le mot « origine » est illustré par cet exemple : « Je n’ai pas été embauché à cause de mes origines maghrébines ». Il suffit de saisir l’expression « origine sociale » dans le moteur de recherche du défenseur des droits pour ne rien trouver en dehors de documents qui concernent les origines nationales.
Abonnez-vous dès aujourd’hui !
Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
Pour savoir si les délégués du défenseur des droits dans les départements savent que l’origine peut aussi être « sociale », je leur ai envoyé en 2024 des courriers sous le nom de Kevin Marchand en posant par exemple cette question :
« En regardant le site du défenseur des droits, j’ai vu que l’origine est un critère de discrimination. Vous donnez l’exemple d’une personne qui serait d’origine maghrébine. Ce n’est pas mon cas, mais je suis mis de côté dans mon entreprise pour les promotions et suis souvent moqué en raison de mon origine sociale très modeste ou de mon prénom populaire. Sur votre site, vous dites que le nom est un critère de discrimination, mais qu’en est-il du prénom ? Est-ce que “l’origine sociale” ou bien le prénom sont des critères de discrimination ? »
La réponse explicite la plus fréquente est que ni le prénom en lui-même ni l’origine sociale en elle-même ne sont dans la liste des critères de discrimination. L’idée que les Kevin puissent être harcelés et discriminés au motif que leur prénom est un marqueur social ne saute pas aux yeux de délégués qui suivent ce qui est écrit dans notre droit et la doctrine du défenseur des droits.
Chaque année, un baromètre des discriminations est publié par le défenseur des droits dans lequel on propose aux interviewés une liste de critères de discrimination pour savoir s’ils sont témoins ou victimes de discriminations et sur quels critères. Or, dans cette liste, ne figure jamais l’origine sociale. De plus, chaque année, un focus spécifique est choisi et bien entendu l’origine sociale a été oubliée (nous en sommes au 17e baromètre).
L’Ined et l’Insee dans l’enquête « Trajectoire et origines » ne proposent pas non plus aux répondants l’origine sociale parmi les 12 motifs de traitement inégalitaire et de discrimination (genre, âge, orientation sexuelle…) et un des items regroupe « origine ou nationalité ». Il en résulte une vision réductrice des réalités vécues par les répondants.
Proposer ou ne pas proposer un critère de discrimination aux salariés change beaucoup la vision des discriminations réellement vécues. Dans le baromètre égalité du Medef, quand on demande aux salariés s’ils craignent d’être discriminés et pour quel motif, « l’origine sociale modeste » est le quatrième critère de discrimination le plus cité derrière l’âge, l’apparence physique et le genre. Et, chez les hommes, c’est même la troisième crainte de discrimination au travail. On apprend que 80 % des salariés estiment avoir une caractéristique potentiellement stigmatisante. La séniorité arrive en tête (19 %), suivie de l’origine sociale modeste (17 %).
En 2020, dans ce même baromètre, la question suivante était posée : « Parmi les caractéristiques suivantes, lesquelles vous qualifient le mieux ? », et l’origine sociale modeste était citée en premier.
Et il ne s’agit pas seulement d’un ressenti. L’origine sociale pèse sur les chances d’obtenir des diplômes, mais aussi sur celles d’être recruté et de faire carrière par l’effet notamment du réseau familial.
France Stratégie a analysé précisément l’effet du milieu social sur les salaires :
« L’écart de salaire moyen entre deux personnes, dont la seule différence est l’origine migratoire, est de 150 euros. Somme qui est multipliée par dix entre un enfant de cadre et un enfant d’ouvrier non qualifié. Des caractéristiques étudiées, l’origine sociale s’avère la plus déterminante en termes de revenu d’activité. En moyenne, 1 100 euros nets par mois séparent le quart des personnes d’origine favorisée du quart des personnes d’origine modeste, à origines migratoire et territoriale comparables. C’est presque deux fois plus que l’écart entre hommes et femmes (600 euros). Si on tient compte du diplôme de l’individu et de son conjoint, un écart demeure entre les classes. »
Combien de temps faudra-t-il pour que le classisme soit reconnu au même titre que le racisme dans le droit de la discrimination ? La France a simplement intégré ce que l’on nomme le « racisme anti-pauvre » avec la « particulière vulnérabilité résultant de la situation économique », mais ce critère traite de la situation actuelle, pas du milieu social d’origine.
La France bat de loin le record mondial du nombre de critères de discrimination figurant dans notre droit (plusieurs dizaines dans le Code du travail), parfois sans que le défenseur du droit puisse même expliquer en quoi consiste un critère (« Capacité à s’exprimer dans une langue autre que le français »). Dans ces conditions, il est frappant que la situation socioéconomique des parents reste ignorée dans l’indifférence générale.
Jean-François Amadieu ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.