LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

▸ Les 50 dernières parutions

17.02.2026 à 17:08

Quand la Coupe d’Afrique des nations réactive les tensions au sein de l’Afrique

Jean-Loup Amselle, Anthropologue et ethnologue, directeur d'études émérite à l'EHESS, chercheur à l'Institut des mondes africains (IRD-CNRS-Panthéon Sorbonne-Aix-Marseille-EHESS-EPHE), Institut de recherche pour le développement (IRD)

La finale Maroc‑Sénégal a mis en évidence le caractère largement artificiel de l’image d’une Afrique unie, où clichés méprisants et racisme appartiendraient au passé.
Texte intégral (2214 mots)

La finale Maroc‑Sénégal a tourné au chaos. La suite des événements a vu une large mobilisation des imaginaires opposant Afrique du Nord « blanche » et Afrique subsaharienne « noire ».


Dans un article rédigé à l’époque des faits, j’avais tenté de montrer que le refus du footballeur du PSG et de l’équipe du Sénégal Idrissa Gana Gueye de porter le maillot LGBTQIA+ lors de la Journée mondiale de lutte contre l’homophobie en mai 2022 avait cristallisé les tensions entre les milieux footballistiques français et sénégalais, et au-delà, entre une partie des opinions publiques de ces deux pays, au point de faire apparaître cette affaire comme l’expression d’un antagonisme foncier entre la culture sénégalaise et la culture française.

Le scénario de la crise survenue lors de la finale de la Coupe d’Afrique des nations (CAN) qui s’est déroulée au stade Moulay-Abdellah de Rabat au Maroc le 18 janvier 2026 est en principe différent puisqu’elle met aux prises deux pays africains – même si, on le verra, le fantôme de l’ancienne puissance coloniale conserve un certain rôle en arrière-plan.

Rappelons tout d’abord le cadre général de cette finale dont la victoire était en quelque sorte programmée pour revenir au pays hôte, le Maroc. En effet, Rabat a dépensé des sommes considérables pour accueillir cet événement, ce qui a provoqué une éruption populaire de jeunes qui auraient préféré voir les crédits affectés à l’organisation de la compétition aller à des équipements scolaires ou à des hôpitaux.

Le tournoi a vu s’affronter de multiples équipes africaines, mais ce qui retient l’attention sur le plan symbolique, perspective choisie ici, ce sont les matchs qui ont opposé des équipes du nord et du sud de l’Afrique, autrement dit du Maghreb et de l’Afrique subsaharienne.

« La Société archaïque », un ouvrage de référence et une grille de lecture pour la finale

Des tensions avaient déjà été observées dès avant la finale : les Algériens étaient sortis furieux contre l’arbitre sénégalais après leur quart de finale perdu contre le Nigeria, l’accusant de partialité et ajoutant que l’un de ses assistants aurait tenu des propos racistes à leur égard ; durant la demi-finale entre le Maroc et le Nigeria, le gardien nigérian avait vu des ramasseurs de balles locaux voler sa serviette – un épisode qui annonçait l’épisode de la serviette du gardien sénégalais durant la finale que des remplaçants marocains allaient chercher à subtiliser.

C’est bien cette finale entre le Maroc et le Sénégal qui a cristallisé le plus de sanctions, et l’on voudrait ici replacer ce match dans un cadre anthropologique emprunté à Lewis H. Morgan, l’un des pères fondateurs de cette discipline.

Dans la Société archaïque (1877), Morgan retrace l’évolution de l’histoire de l’humanité en définissant trois stades successifs : d’abord la sauvagerie, puis la barbarie (entendue comme une phase intermédiaire, où commencent à naître des structures relativement complexes) et enfin la civilisation. Ce paradigme temporel peut être transformé en un syntagme géographique s’appliquant au climat dans lequel s’est déroulée la finale de cette compétition.

Mais commençons par un bref rappel des faits. Dans le temps additionnel de la rencontre, à la 92ᵉ minute, alors que le score est toujours de 0-0, un but est refusé – à tort ou à raison – au Sénégal par l’arbitre Jean-Jacques Ndala (République démocratique du Congo), suscitant l’incompréhension des Lions de la Teranga. Quelques instants plus tard, deuxième moment de tension, bien plus intense, celui-là : à la toute dernière minute du temps additionnel, toujours à 0-0, l’arbitre accorde un pénalty au Maroc. Cette décision – tout aussi discutable que le but sénégalais annulé quelques instants plus tôt – provoque, cette fois, une véritable fureur de l’équipe sénégalaise. Suivant son entraîneur Pape Thiaw, elle quitte alors le terrain et ouvre véritablement la crise, puisque ce départ contrevient à la réglementation du football et fait donc peser le risque de lourdes sanctions à l’encontre de la sélection.

Un seul joueur sénégalais, le capitaine Sadio Mané, reste sur le terrain et, après avoir pris conseil auprès de l’entraîneur français Claude Le Roy, 78 ans, qui a exercé en Afrique pendant des décennies, obtient le retour de ses coéquipiers sur la pelouse. Le match reprend après un gros quart d’heure d’interruption.

L’attaquant marocain Brahim Diaz peut enfin tirer le pénalty qui a entraîné l’incident… et le manque. Le match se poursuit donc avec des prolongations, et le Sénégal finit par remporter la rencontre et donc la compétition.

Résumé de la finale (Bein Sports). La séquence polémique décrite ci-dessus commence à 11’47.

Dans la présentation des choses souvent faite au Maroc à la suite de cette soirée traumatisante pour le pays hôte, l’équipe du Sénégal, par son comportement sans précédent consistant à quitter massivement le terrain, ainsi que par l’explosion de colère de ses supporters, a représenté le premier des stades défini par Morgan, celui de la « sauvagerie » ; le capitaine sénégalais Sadio Mané, par sa volonté constructive de ramener « ses » joueurs vers le terrain, a représenté le second, celui de la « barbarie », étape intermédiaire vers la « civilisation » qui, elle, incombe au Maroc, aussi bien en sa qualité d’équipe nationale stoïque durant les turbulences de la fin de match et, au-delà, de pays organisateur d’une CAN vouée à devenir un modèle pour l’ensemble du continent.

Derrière cette vision est réactivée la division coloniale entre une Afrique du Nord « blanche », perception relevant plutôt de l’orientalisme, et une Afrique subsaharienne « noire », davantage interprétable dans le cadre de l’ethnographie.

Mais à cette triangulation, il faut ajouter un quatrième élément : celui de l’ombre de l’ancienne puissance coloniale représentée par celui qui a entraîné de nombreuses équipes de football africaines, Claude Le Roy, véritable parrain de la résolution partielle de la crise intervenue sur le terrain.

Accusations réciproques

Le résultat de la finale provoque une sorte de déflagration non seulement entre le Maroc et le Sénégal, mais également au sein de l’Afrique tout entière. « Chaos », « fiasco », entre autres, sont les qualificatifs donnés à ce match par les journalistes tandis que les commentaires vont bon train dans toute l’Afrique et notamment au Maghreb. C’est que le football, dans ce cas comme dans d’autres, est le révélateur de tensions entre pays et entre portions du continent africain.

En dépit des sommes considérables dépensées par le Maroc, les Sénégalais se sont plaints d’avoir été mal hébergés, d’avoir été obligés de s’entraîner sur des terrains ne leur convenant pas, de ne pas avoir bénéficié d’un service de sécurité efficace, etc. Bref, d’avoir été traités avec condescendance.

Plus grave, le défenseur sénégalais Ismaël Jakobs a affirmé que le forfait quelques heures avant la finale de trois de ses coéquipiers avait été dû à un empoisonnement. En outre, les Sénégalais ont accusé l’arbitre de partialité puisqu’il leur a refusé un but et accordé un pénalty aux Marocains ; et ils se sont émus du vol de la serviette de leur gardien de but.

Parallèlement, certains spectateurs maghrébins se sont moqués de supposées tentatives sénégalaises de peser sur l’issue du match en ayant recours à des pratiques magiques issues de traditions animistes, tandis qu’eux-mêmes n’avaient d’autre repère religieux que le Coran. On retrouve ainsi une opposition tranchée entre magie africaine subsaharienne et religion maghrébine, et donc une nouvelle fois entre « sauvagerie » et « civilisation ».

La victoire des nationalismes

En définitive, à une certaine rancœur envers un hégémonisme attribué au Maroc a correspondu un certain mépris à l’égard du Sénégal, voire un racisme déclaré comme en témoignent, entre autres exemples, les propos d’une enseignante de l’Université internationale de Casablanca qui a qualifié les Sénégalais d’« esclaves ».

À l’issue de cette compétition, l’image de l’unité de l’Afrique a donc une nouvelle fois été profondément fragilisée — de même que, dans une certaine mesure, les ambitions dominatrices du Maroc sur le sud du continent. Mais cela n’a pas concerné seulement l’opposition entre un Nord « blanc » et un Sud « noir » puisqu’à cette occasion a aussi été révélé le fossé entre le Maroc et le reste du Maghreb : une partie des opinions tunisienne et algérienne ont « joué » de façon fantasmatique la défaite de l’équipe marocaine et, à travers cette défaite l’affaiblissement du royaume chérifien, accusé non seulement de refuser l’indépendance au Sahara occidental (projet soutenu par l’Algérie et la Tunisie), mais aussi d’entretenir des liens étroits avec Israël. À travers les fantasmes africains qui se sont déployés autour de la CAN, ce sont donc aussi la tragédie de Gaza et la double articulation du Maghreb tiraillé entre l’Afrique subsaharienne et le Moyen-Orient qui se sont invitées dans la compétition.

En définitive, si à l’occasion de la finale de cette compétition le Maroc a fait preuve d’un hégémonisme contrarié comme en témoigne le fait que le frère du roi Moulay Rachid ait refusé de remettre la coupe au capitaine de l’équipe du Sénégal Sadio Mané, ce dernier pays n’est pas en reste pour affirmer sa supériorité par rapport à ses voisins de l’intérieur du continent – on y observe souvent la manifestation d’un sentiment de supériorité intellectuelle par rapport au Mali, au Burkina Faso, ou encore au Niger, dont les habitants sont considérés comme des « ploucs » plus ou moins animistes ou moins islamisés que les Sénégalais. Les fantasmes de l’Afrique n’opposent pas seulement l’Afrique « blanche » à l’Afrique « noire », mais sont aussi internes à l’Afrique subsaharienne elle-même. Les véritables vainqueurs de cette finale de la CAN 2026 sont en réalité les nationalismes marocain et sénégalais.

The Conversation

Jean-Loup Amselle ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

17.02.2026 à 17:07

Les fusions de communes tiennent-elles leurs promesses  ?

Gabriel Bideau, Géographe, Université Paris Cité

Dix ans après les premiers regroupements, on peut faire un premier bilan de la politique des « communes nouvelles » , poussée par des acteurs étatiques et locaux.
Texte intégral (2401 mots)
L’entrée d’Épinay-le-Comte, membre de la commune nouvelle de Passais-Villages, formée en 2016 de la fusion de trois communes de l’Orne, en Normandie. Gabriel Bideau, Fourni par l'auteur

Les 15 et 22 mars prochains, les Français voteront pour élire leurs conseils municipaux. Certains d’entre eux voteront dans des « communes nouvelles », créées par fusion de plusieurs communes. Dix ans après les premières vagues importantes de regroupements, le recul est suffisant pour proposer un premier bilan de cette politique.


L’idée (discutable) selon laquelle il serait nécessaire de réduire le nombre de communes françaises est ancienne et répétée par plusieurs acteurs : le gouvernement vient d’ailleurs d’accélérer l’examen d’un projet de loi sur ce sujet.

Plusieurs mesures ont été prises ces dernières années pour encourager les communes à se regrouper. Ainsi, le statut de « commune nouvelle » a été créé en 2010, et amendé à plusieurs reprises : il permet le regroupement – certains acteurs répugnent à parler de « fusions » – de plusieurs communes au sein d’une nouvelle entité. Celle-ci détient alors toutes les compétences communales mais a la possibilité de maintenir en son sein une existence légale (bien que largement symbolique) pour les anciennes communes, devenant « communes déléguées ». Des incitations fiscales ont également été instituées depuis 2014.

Aujourd’hui, on compte 844 communes nouvelles, rassemblant 2 724 communes historiques et près de 3 millions d’habitants. Alors que les communes nouvelles créées en 2015 (année de la première vague importante de fusions) ont passé leur première décennie et à l’approche des élections municipales de mars 2026, il est opportun de faire un point d’étape sur ce phénomène, entre autres car il fait l’objet d’un certain nombre d’idées reçues.

Idée reçue n°1 : « Les communes qui fusionnent sont les toutes petites communes rurales »

Verdict : Plutôt faux

La politique de réduction du nombre de communes en France s’appuie sur l’idée qu’il y aurait trop de communes de toute petite taille. Il est vrai que les communes françaises sont moins peuplées que les entités comparables dans d’autres pays, et qu’elles sont plus nombreuses.

Cependant, le raisonnement selon lequel il faudrait réduire le nombre de communes pour que, en fusionnant, elles arrivent à rassembler chacune une « masse critique » en termes de population est pour le moins débattu. Les différentes études portant sur une éventuelle « taille optimale » ont bien du mal à l’identifier : il n’existe pas de seuil démographique au-delà duquel une commune serait plus efficace qu’en dessous.

En partant néanmoins du principe, débattu donc, que les toutes petites communes poseraient problème pour l’efficacité de l’action publique, les fusions permettent-elles de résoudre cette difficulté ? Globalement, non.

Les toutes petites communes (moins de 200 habitants) sont plutôt sous-représentées dans les communes fusionnantes par rapport à la proportion qu’elles représentent dans l’ensemble des communes françaises. Les communes qui fusionnent ont en effet une population médiane (404 habitants) proche de celle des autres communes (426 habitants).

Au final, la proportion de communes de moins de 200 habitants est passée, depuis 2012, de 25,9 % à 25,4 %. Si l’objectif premier de la politique des communes nouvelles était de réduire drastiquement le nombre de très petites communes, on peut dire selon l’adage que, faute d’être un échec, « ça n’a pas marché ».

Les très petites communes ne sont pas surreprésentées parmi les communes fusionnantes

Un graphique montrant la proportion de communes fusionnantes comparée à la proportion des communes inchangées, par tranches de population
Ce graphique illustre la proportion de communes fusionnantes (en rouge) comparée à la proportion de communes inchangées (en bleu), par tranche de population. On peut voir qu’il n’y a pas de surreprésentation des petites communes parmi les communes fusionnantes, puisqu’aucune différence significative entre leur proportion parmi les communes fusionnantes et parmi les communes inchangées n’existe. Seule exception : les communes entre 200 et 500 habitants, légèrement surreprésentées parmi les communes fusionnantes (32 %, contre 29 % des communes inchangées). Fourni par l'auteur

Les communes fusionnantes ne sont pas non plus systématiquement rurales. Ainsi, 6,7 % des communes fusionnantes sont dans une agglomération. Cela paraît peu, mais sur l’ensemble des communes françaises les communes situées en agglomération ne représentent que 12,7 %. Les communes nouvelles sont donc un peu plus fréquentes dans les espaces éloignés des pôles urbains, sans toutefois y être limitées.

Idée reçue n°2 : « Les fusions communales permettent de mettre en cohérence les territoires vécus et les territoires administratifs »

Verdict : C’est plus compliqué

François Baroin, qui clôturait en 2017 en tant que président de l’Association des maires de France (AMF) la 3ᵉ rencontre des communes nouvelles, considérait que « ce sont les bassins de vie qui ont créé les conditions de l’avancement de la coopération entre les communes », faisant sans doute référence à l’idée d’un espace au sein duquel les individus se déplacent pour leur travail, leurs loisirs et leurs achats.

Or, les communes nouvelles ne se créent que partiellement en cohérence avec les territoires vécus. Si on s’intéresse aux communes fusionnantes qui appartenaient à une aire urbaine en 2014 (avant la très grande majorité des fusions), 35 % d’entre elles ont fusionné avec d’autres communes n’appartenant pas à la même aire urbaine. Si on s’intéresse spécifiquement aux déplacements domicile-travail, dans 72 % des cas le principal flux sortant de la commune fusionnante ne va pas vers une commune avec laquelle elle fusionne, mais vers une commune tierce. Il y a donc bien persistance d’une différence entre le maillage administratif et les territoires pratiqués et vécus par les habitants.

Idée reçue n°3 : « Les fusions communales permettent de faire des économies d’échelle »

Verdict : Plutôt faux

Des acteurs comme l’AMF mettent en avant l’idée que les fusions permettraient presque automatiquement de réaliser des économies d’échelle, c’est-à-dire de mutualiser des coûts pour faire baisser les dépenses totales. Or, une étude des évolutions budgétaires entre 2011 et 2022 contredit ce présupposé. Ces résultats se retrouvent également dans une étude portant sur les communes créées en 2016, 2017 et 2019. On n’observe pas une diminution des dépenses : bien au contraire, en général celles-ci augmentent nettement dans les années suivant la fusion.

Par exemple, si on regarde spécifiquement l’évolution entre 2011 et 2022 des charges de fonctionnement des communes (c’est-à-dire leurs dépenses hors investissement), le groupe des communes fusionnantes a connu une augmentation plus importante (+31 %) que le groupe des autres communes françaises (+28 %).

Un processus mené par le haut, qui semble favoriser l’abstention

Deux derniers points peuvent être relevés.

Tout d’abord, le passage en commune nouvelle est décidé par les conseils municipaux des communes fusionnantes, qui n’ont pas l’obligation de consulter la population. Fréquemment, les élus ne lui laissent d’ailleurs qu’une place limitée dans la construction des décisions, soit par crainte d’ouvrir une « boîte de Pandore » démocratique poussant à la remise en question systématique des décisions prises, soit par méfiance envers les décisions des populations, perçues comme peu éclairées. Un maire interrogé dans le cadre de mes travaux affirmait ainsi en 2016 : « Les gens vont voter pour quelque chose, mais ils ne savent pas forcément tout à fait les tenants et les aboutissants. Donc […] à mon avis, ce n’est pas la bonne solution. »

Par exemple, concernant le nom de la nouvelle commune, il est fréquent que les administrés soient invités à en proposer, voire à voter pour celui qu’ils préfèrent. En revanche, ce sont les élus qui vont conserver la main sur la décision finale ou sur les modalités de choix (par exemple en décidant des noms qui seront soumis à la consultation), permettant, in fine, d’orienter le vote. Cela pose la question de la place réelle laissée aux populations dans ces formes de participation ou de consultation.

Enfin, on observe aussi une montée de l’abstention dans les communes nouvelles. Ainsi, entre 2014 et 2020, la participation aux élections municipales a diminué de manière bien plus importante dans les communes nouvelles que dans les communes inchangées : le pourcentage de votants par rapport au nombre d’inscrits a baissé de 21 % dans les communes nouvelles entre 2014 et 2020, contre une baisse de 15 % pour les communes inchangées. Certes, la diminution généralisée de la participation s’explique par le contexte pandémique. Mais celui-ci n’a, a priori, pas touché différemment les communes nouvelles, quelle que soit leur taille.

Chaque élément présenté ici ne peut, à lui seul, délégitimer les communes nouvelles. Il est évident que certains projets de fusion font sens et remplissent les objectifs qu’ils se sont fixés, comme la mutualisation de structures ou de personnels, la montée en compétence des équipes communales ou l’aboutissement de décennies de collaborations concernant des services aux populations ou des équipements. Mesurer ces effets bénéfiques est d’ailleurs complexe, et mériterait des analyses encore à conduire.

Il serait toutefois souhaitable que les réflexions sur les communes nouvelles prennent en compte toutes les données en jeu, sans idées préconçues, et que les décisions de regroupement soient prises sur des bases saines. Les fusions sont parfois comparées à des mariages, or ce n’est pas parce qu’on peut observer des couples heureux que tout le monde doit se marier, a fortiori avec n’importe qui !

Il faut en tout cas appeler à ce que les prochaines semaines de campagne à l’échelon municipal, outre les questions programmatiques et partisanes qui ne manqueront pas, soient aussi l’occasion de débattre de ces enjeux liés aux communes nouvelles pour que, dans les communes qui ont fusionné comme dans celles qui pourraient l’envisager, le débat démocratique soit nourri et éclairé.

The Conversation

Gabriel Bideau ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

17.02.2026 à 17:06

La loi de Moore ayant atteint ses limites, que nous réserve l’avenir de l’informatique ?

Domenico Vicinanza, Associate Professor of Intelligent Systems and Data Science, Anglia Ruskin University

Alors que la loi de Moore ne dicte plus le rythme des progrès, les chercheurs explorent des solutions variées : empilement de composants, coprocesseurs spécialisés et technologies quantiques ou photoniques.
Texte intégral (1345 mots)
Pendant près d’un demi-siècle, le nombre de transistors sur une puce a doublé approximativement tous les deux ans. Sax/Shutterstock

Après un demi-siècle de gains réguliers en puissance de calcul, l’informatique entre dans une nouvelle ère. La miniaturisation ne suffit plus : les progrès dépendent désormais de l’architecture, de l’énergie et de logiciels optimisés.


Pendant un demi-siècle, l’informatique a progressé de manière rassurante et prévisible. Les transistors – ces dispositifs qui servent à contrôler le passage des signaux électriques sur une puce informatique – sont devenus de plus en plus petits, ce qui permet d’en amasser davantage sur une seule puce. En conséquence, les puces ont gagné en rapidité, et la société a intégré ces avancées presque sans s’en rendre compte.

Ces puces plus rapides ont offert une puissance de calcul accrue en permettant aux appareils d’exécuter les tâches plus efficacement. On a ainsi vu les simulations scientifiques s’améliorer, les prévisions météorologiques gagner en précision, les images devenir plus réalistes, puis les systèmes d’apprentissage automatique émerger et se développer. Tout se passait comme si la puissance de calcul obéissait à une loi naturelle.

La fin des certitudes

Ce phénomène a pris le nom de loi de Moore, d’après l’homme d’affaires et scientifique Gordon Moore. Elle résumait l’observation empirique selon laquelle le nombre de transistors sur une puce doublait approximativement tous les deux ans. Cela permettait aussi de réduire la taille des appareils et alimentait en conséquence la miniaturisation.

Ce sentiment de certitude et de prévisibilité a désormais disparu, non pas parce que l’innovation se serait arrêtée, mais parce que les hypothèses physiques qui la soutenaient autrefois ne sont plus valables.

Qu’est-ce qui remplace alors l’ancien modèle d’augmentation automatique des performances ? La réponse ne tient pas à une seule avancée technologique, mais à plusieurs stratégies qui se superposent.

De nouvelles approches

L’une d’elles repose sur de nouveaux matériaux et de nouvelles architectures de transistors. Les ingénieurs améliorent encore leur conception afin de limiter les pertes d’énergie et les fuites électriques indésirables. Ces évolutions apportent des gains plus modestes et plus progressifs qu’autrefois, mais elles permettent de mieux maîtriser la consommation énergétique.

Une autre approche consiste à modifier l’organisation physique des puces. Au lieu de disposer tous les composants sur une surface plane unique, les puces modernes empilent de plus en plus les éléments les uns sur les autres ou les rapprochent davantage. Cela réduit la distance que doivent parcourir les données, ce qui permet de gagner à la fois en temps et en énergie.

Le changement le plus important est sans doute la spécialisation. Au lieu de confier toutes les tâches à un unique processeur polyvalent, les systèmes modernes combinent différents types de processeurs. Les unités de traitement traditionnelles, ou CPU, assurent le contrôle et la prise de décision. Les processeurs graphiques sont des unités de calcul très puissantes, conçues à l’origine pour répondre aux exigences du rendu graphique dans les jeux vidéo et d’autres usages. Les accélérateurs d’IA (du matériel spécialisé qui accélère les tâches liées à l’intelligence artificielle) se concentrent sur l’exécution en parallèle d’un très grand nombre de calculs simples. Les performances dépendent désormais de la manière dont ces composants fonctionnent ensemble, plutôt que de la vitesse de chacun pris isolément.

Des technologies expérimentales

Parallèlement à ces évolutions, les chercheurs explorent des technologies plus expérimentales, notamment les processeurs quantiques (qui exploitent les principes de la physique quantique) et les processeurs photoniques, qui utilisent la lumière plutôt que l’électricité.

Il ne s’agit pas d’ordinateurs polyvalents, et ils ont peu de chances de remplacer les machines classiques. Leur intérêt réside dans des domaines très spécifiques, comme certains problèmes d’optimisation ou de simulation, pour lesquels les ordinateurs traditionnels peinent à explorer efficacement un grand nombre de solutions possibles. En pratique, ces technologies doivent être envisagées comme des coprocesseurs spécialisés, utilisés de manière ciblée et en complément des systèmes traditionnels.

Pour la plupart des usages informatiques du quotidien, les progrès des processeurs conventionnels, des systèmes de mémoire et de la conception logicielle resteront bien plus déterminants que ces approches expérimentales.

Pour les utilisateurs, l’ère post-Moore ne signifie pas que les ordinateurs cesseront de s’améliorer. Cela veut juste dire que les progrès se manifesteront de manière plus inégale et plus dépendante des usages. Certaines applications — comme les outils fondés sur l’IA, le diagnostic, la navigation ou la modélisation complexe — pourraient connaître de vraies avancées, tandis que les performances généralistes progresseront plus lentement.

Nouvelles technologies

Lors de la conférence Supercomputing SC25 à Saint-Louis, plusieurs systèmes hybrides associant CPU (processeurs), GPU (processeurs graphiques) et technologies émergentes — comme les processeurs quantiques ou photoniques — ont été présentés comme des prolongements concrets de l’informatique classique. Pour l’immense majorité des usages quotidiens, ce sont toutefois les progrès des processeurs traditionnels, des mémoires et des logiciels qui continueront d’apporter les gains les plus significatifs.

On note un intérêt croissant pour les dispositifs quantiques et photoniques comme coprocesseurs, et non comme remplaçants. Ils sont particulièrement utiles pour des problèmes très spécifiques, comme l’optimisation ou le routage complexes, où les machines classiques seules peinent à trouver des solutions efficaces.

Dans ce rôle d’appoint, ils offrent un moyen crédible d’allier la fiabilité de l’informatique classique à de nouvelles techniques de calcul, élargissant ainsi les capacités des systèmes.

Un nouveau récit

La suite n’est pas une histoire de déclin, mais un processus de transformation et d’évolution permanentes. Les progrès en informatique reposent désormais sur la spécialisation des architectures, une gestion rigoureuse de l’énergie et des logiciels conçus en tenant pleinement compte des contraintes matérielles. Le risque est de confondre complexité et inéluctabilité, ou narratifs marketing et problèmes réellement résolus.

L’ère post-Moore impose une relation plus réaliste avec l’informatique : la performance n’est plus un acquis automatique lié à la miniaturisation des transistors, mais un résultat qu’il faut concevoir, justifier et payer – en énergie, en complexité et en compromis.

The Conversation

Domenico Vicinanza ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF
21 / 50
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Issues
Korii
Lava
La revue des médias
Time [Fr]
Mouais
Multitudes
Positivr
Regards
Slate
Smolny
Socialter
UPMagazine
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
À Contretemps
Alter-éditions
Contre-Attaque
Contretemps
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
 
  ARTS
L'Autre Quotidien
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
Gauche.Media
CETRI
ESSF
Inprecor
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
🌓