LePartisan.info À propos Podcasts Fil web Écologie BLOGS Revues Médias
Paul JORION
Abonnés Certains contenus en accès libre
Souscrire à ce FLUX

Le seul blog optimiste du monde occidental


▸ les 14 dernières parutions

24.04.2025 à 08:57

The Wall Street Journal : « Les fluctuations boursières importantes sont désormais la norme pour les investisseurs désemparés »

Paul Jorion

Texte intégral (986 mots)

Un lecteur de mon blog peu familier de mes chroniques financières demande « Pourquoi parlez-vous toujours des baisses brutales des cours sur les marchés boursiers mais jamais des hausses brutales ? ». Je m’en suis déjà expliqué à de nombreuses reprises au fil des années : les baisses brutales sont quasi toujours la conséquence de facteurs objectifs alors que les hausses brutales succédant à des baisses brutales ne reposent en général que sur des éléments subjectifs, comme dans ce cas-ci, la rumeur qu’ayant échoué dans sa guerre généralisée du protectionnisme, Trump s’apprêterait à faire machine-arrière. C’est mal connaître le bonhomme, qui n’admettra jamais avoir commis une erreur, et préférera voir le monde s’effondrer plutôt que de reconnaître s’être trompé.

En résumé, et pour utiliser les termes du Wall Street Journal : les baisses brutales à la Bourse sont le fait des investisseurs réfléchis, alors que les hausses brutales qui leur succèdent résultent des actes désordonnés d’investisseurs désemparés.

21.04.2025 à 19:43

L’offensive de Trump contre le capitalisme se poursuit !

Paul Jorion

Texte intégral (651 mots)

On n’a pas congé aujourd’hui dans le monde entier et Trump poursuit inébranlablement son entreprise de destruction du capitalisme : c’est la Federal Reserve Bank, la banque centrale des États-Unis, qui est tout particulièrement dans son collimateur aujourd’hui.

« Vas-y Donny, t’es le plus fort : ce que Marx n’a pas su faire, tu es en passe de l’accomplir ! ».

21.04.2025 à 13:35

« Règles » et « corrélations » : qui est le plus costaud ?

Paul Jorion

Texte intégral (1901 mots)

Illustration par ChatGPT 4o

Un peu plus tard, mais toujours au bord de la piscine 😜.

P.J. :

Ne pensez-vous pas que les humains continueront de penser que les règles capturent mieux l’essence-même des choses, tandis que les corrélations constituent une approximation grossière et basique, ce qui implique que les LLM passent à côté de quelque chose en n’extrayant pas les « règles sous-jacentes » qui, en réalité, régissent le monde : qu’ils perdent certaines informations pertinentes ? Ne peut-on défendre le point de vue opposé, à savoir que les règles sont des esquisses qui, par nécessité, ne peuvent saisir la complexité « indisciplinée » des choses ; en d’autres termes, ce serait l’expression sous forme de règles qui évacuerait une partie de l’information. Qu’en pensez-vous ?

Thought for 12 seconds

ChatGPT o3 :

Une façon utile de cadrer le débat

Perspective Vision « règles d’abord » Vision « corrélations d’abord »
Qu’est‑ce qu’une règle ? Énoncé concis, souvent symbolique, qui explique et prévoit en révélant une structure cachée (ex. : F = ma). Motif comprimé de régularités statistiques qui imite le comportement sans structure explicite (ex. : poids d’un LLM).
Information conservée / perdue Conserve des leviers causaux et contrefactuels (« que se passe‑t‑il si… ?»). Perd les détails riches et bruyants qui ne rentrent pas dans le cadre. Conserve presque tout ce qui est présent dans les données (queues longues, contingences). Perd un modèle lisible décrivant pourquoi les choses varient.
Modes d’échec Fragilité hors du domaine de validité ; ignore les résidus qui deviendront importants plus tard. Surapprentissage de corrélations fallacieuses ; opacité face aux interventions ; difficulté à prouver la fiabilité.

Pourquoi les règles sont des croquis comprimés

  1. La compression est leur raison d’être
    Une règle est une réduction drastique de dimension : elle jette la majeure partie de la variation réelle pour isoler quelques variables essentielles. Ce gain explicatif implique une perte d’information.
  2. Les systèmes complexes résistent aux règles fermées
    Climat, repliement protéique ou évolution linguistique présentent des interactions d’ordre élevé qui échappent aux formulations symboliques élégantes. Dans ces domaines, les meilleurs prédicteurs actuels sont souvent data‑driven ou basés sur la simulation, non sur des règles.
  3. Point de vue de la complexité de Kolmogorov
    Le « programme » qui génère le monde peut être irrémédiablement long. Toute règle concise que nous écrivons est donc une approximation. Un modèle massif à millions de paramètres peut se rapprocher, en longueur de description, de ce programme irréductible mieux qu’un petit ensemble d’équations.

Pourquoi les corrélations ratent quand même quelque chose

  1. La manipulation causale exige de la structure
    Pour intervenir (concevoir un médicament, un pont) il faut des leviers contrefactuels : si je change X, Y varie ainsi. La pure corrélation ne fournit pas ces poignées ; d’où l’intérêt de combiner apprentissage à grande échelle et modules de graphes causaux ou de simulateurs.
  2. Généralisation hors distribution
    Quand l’environnement change, une règle parcimonieuse encodant de véritables invariants (conservation de l’énergie, grammaire compositionnelle) généralise souvent mieux qu’une surface de corrélations entraînée sur l’ancien régime.
  3. Interprétabilité et confiance humaines
    Les systèmes sociaux exigent des justifications (« Pourquoi devrais‑je te croire ? »). Les règles servent de jalons vérifiables. Un tenseur de 300 milliards de paramètres est plus difficile à auditer.

Vers une synthèse : « la règle après l’apprentissage »

  • Utiliser des modèles denses et voraces en données pour absorber la richesse chaotique.
  • Sonder, distiller et extraire des règles provisoires de ces modèles (interprétabilité mécaniste, régression symbolique, découverte causale).
  • Traiter ces règles non comme des vérités finales, mais comme des interfaces — résumés concis à raisonner, réviser ou écarter quand ils cessent de fonctionner.

Mon point de vue

  • Règles et corrélations forment un continuum de compression.
    Plus la description est courte, plus on perd d’information.
  • Les LLM montrent qu’un espace riche en corrélations peut surpasser des règles élégantes sur de nombreuses tâches, précisément parce qu’il conserve des nuances que ces règles élaguent.
  • Mais les systèmes purement corrélatifs restent handicapés pour l’intervention délibérée, la preuve de sûreté et l’explication.
    Il faut donc des techniques permettant d’aller dans les deux sens : expansion vers l’espace corrélatif pour capturer la réalité, puis contraction vers des abstractions de type règle pour le contrôle et la compréhension.

En ce sens, aucun camp ne « gagne ».
Les règles sont nécessaires mais jamais suffisantes ; les corrélations sont puissantes mais jamais complètes. Les avancées viennent de l’ingénierie du dialogue entre les deux.

Garçon ! Un autre svp ... avec beaucoup de glaçons !

 

Illustration par ChatGPT 4o

21.04.2025 à 12:35

Humains vs IA = Aristote vs Platon ?

Paul Jorion

Texte intégral (1714 mots)

Illustration par ChatGPT 4o

C'est vrai qu'on devient super-paresseux. J'ai voulu voir jusqu'où on pouvait aller avec le nouveau ChatGPT o3.

P. J. :

Ce qui a été résumé dans votre rapport : « Qu’est-ce qu’une IA générative comprend ? », sous forme de règles (générées par les humains) par opposition à des corrélations statistiques (générées par les LLM) me rappelle les objections d’Aristote à la vision de Platon d’un monde entièrement « participant » aux nombres et son propre développement d’une vision des mathématiques où celles-ci offrent des outils pour « styliser » le monde plutôt que pour le modéliser. Je crois me souvenir que cela se trouve dans la Métaphysique d’Aristote. Pouvez-vous rappeler ce que disent Hamelin (1909) et Ross (1923) à ce sujet ?

ChatGPT o3 :

Thought for 3 m  30 s

Voici un résumé concis de la manière dont Octave Hamelin (Le Système d’Aristote, éd. 1909, en particulier le chapitre XVI) et W. D. Ross (Aristotle, 1923 ; longue note dans Metaphysics vol. I §B.5 & vol. II sur M–N) interprètent la célèbre querelle entre Aristote et Platon sur « les nombres partout » et le statut des mathématiques dans la Métaphysique. Je me concentre sur le point que vous soulevez, à savoir la différence entre les règles qui « modélisent » la réalité (vision platonicienne, vision des nombres idéaux) et les mathématiques en tant qu’outil qui se contente de « styliser » ou de schématiser la réalité (vision d’Aristote).


1  Hamelin (1909)

Thème Lecture de Hamelin
Point de départ platonicien Platon considère les nombres (arithmoi) et les figures géométriques comme des substances séparées auxquelles tous les objets sensibles « participent ».
Critique d’Aristote Dans les Livres M–N, Aristote refuse tout domaine mathématique séparé. La série numérique n’est pas une substance ; c’est un attribut de la quantité et de la pluralité, qui n’existe qu’en étant divisible et comptée dans les choses changeantes.
Abstraction (aphairesis) Le mathématicien « abstrait » la quantité des corps matériels ; l’abstraction est une opération mentale, non une scission ontologique. Les mathématiques stylisent donc le monde : elles extraient l’aspect quantitatif utile pour la démonstration, sans reproduire la réalité terme à terme.
Outil, non ontologie Les mathématiques fournissent « l’équivalent d’une cartographie » de la nature, mais n’en constituent pas le mobilier. La métaphysique commence là où les mathématiques s’arrêtent : avec les causes et la substance.
Résultat Hamelin présente ainsi Aristote comme refusant la “métaphysique numérique” de Platon au profit d’un usage scientifique et pragmatique des mathématiques : indispensables pour styliser l’expérience, mais jamais fondement de l’être.

2  Ross (1923)

Thème Lecture de Ross
Place dans la Métaphysique Ross commente longuement B 5 et M 2, où Aristote teste si les objets mathématiques sont des substances. La question‐clé est la séparabilité.
Réponse d’Aristote Pour Ross, Aristote répète que les objets mathématiques n’existent pas “absolument” (οὐχ ἁπλῶς ἔστιν) : ils existent dans les corps sensibles et par abstraction, donc ne sont pas des substances. L’argument décisif de M 2 : traiter lignes, plans, etc. comme indépendants conduit à une « accumulation absurde » d’entités.
Rôle positif des mathématiques Les mathématiques restent précieuses pour leurs démonstrations exactes ; l’abstraction permet d’isoler l’invariant quantitatif. Mais ces preuves n’exposent pas les causes des êtres naturels ; seul le physicien et la « philosophie première » le font.
Ross versus Platon Ross souligne que le projet d’Aristote est « ouvertement anti‐platonicien » : les nombres ne sont pas des principes premiers ; ce sont des instruments logiques pour comprendre le monde sensible.
Note érudite Ross (t. I 223, 247) relie l’aporía de B 5 à l’attaque de M 2 et N 1 ; la recherche récente a confirmé ce lien.

3  Verdict convergent

Les deux commentateurs soulignent la distinction qui vous intéresse :

  • Platon : “tout est nombre” → la réalité est littéralement modélisée par les formes numériques.
  • Aristote : “stylisation” → les mathématiques stylisent la réalité par abstraction ; elles fournissent des règles claires de raisonnement mais ne dictent pas le plan ontologique des êtres.

Hamelin insiste sur cette idée avec le vocabulaire idéaliste français (« stylisation scientifique »), tandis que Ross l’exprime en termes analytiques anglo-saxons (« objets mathématiques existant seulement en abstraction »). En langage moderne : les règles, chez Aristote, sont nos projections heuristiques, alors que, pour Platon, elles constituent le code natif du monde.

C’est exactement la tension que votre parallèle entre règles humaines et corrélations statistiques des LLMs remet en lumière.

Conclusion ? ChatGPT o3 nous permet effectivement de devenir super-paresseux. Sérieusement, les intellectuels ont-ils encore une raison de quitter le bord de la piscine 😜 ?

Illustration par ChatGPT 4o

21.04.2025 à 10:46

Jorge Mario Bergoglio (1936-2025)

Paul Jorion

Lire la suite (457 mots)

Ma tribune parue le 14 mars 2014 dans le quotidien La Croix à l’occasion du premier anniversaire du pontificat du pape François

Jorion pape 14.03.2014

20.04.2025 à 20:41

Qu’est-ce qu’une IA générative comprend ?

Paul Jorion

Texte intégral (1658 mots)

Illustration par ChatGPT 4o

Pour tester la version o3 de ChatGPT, sortie il y a 4 jours (le 16 avril), je lui ai soumis un dossier de 76 pages de mes notes autour de la notion de « compréhension par une IA générative », en lui demandant d’en produire un dossier synthétique.

Douze minutes de réflexion. À mon sens, o3 passe le test. Dites-moi ce que vous en pensez.

Observations empiriques

  • Comportement de suivi de règles émergent : À mesure que les LLM (large language models) montent en échelle (données + paramètres), ils développent de façon inattendue des compétences avancées – cohérence grammaticale, sémantique, inférence logique, rudiments d’éthique – sans qu’aucune règle explicite ne leur soit programmée. Ces aptitudes apparaissent spontanément par apprentissage statistique du texte.
  • Compétence unifiée multi‑domaine : Un seul grand réseau neuronal peut maîtriser plusieurs domaines simultanément (syntaxe, raisonnement logique, normes éthiques, connaissances de sens commun) via un mécanisme d’apprentissage général. On brouille ainsi les frontières qu’on aurait traitées, jadis, avec des modules séparés et fondés sur des règles.
  • Limites de la généralisation systématique : Les LLM actuels éprouvent des difficultés à appliquer de façon fiable certaines abstractions (p. ex. la transitivité A > B, B > C ⇒ A > C) hors distribution d’entraînement, là où les humains y parviennent. Ce manque de systématicité motive des recherches sur l’ajout de logique ou de nouvelles méthodes d’entraînement.
  • Absence d’ancrage sensorimoteur : Formés uniquement sur du texte, les LLM n’ont aucune expérience incarnée du monde. Alors que la cognition humaine s’appuie sur des perceptions et actions physiques, la « connaissance » d’un LLM demeure corrélative et peut se montrer fragile dans des contextes qui exigent une compréhension physique.

Thèses théoriques

  • Codage implicite des règles : Les réseaux ne stockent pas des règles sous forme symbolique ; celles‑ci se trouvent diluées dans des poids et activations distribués. Les mécanismes d’attention et l’optimisation par gradient façonnent des représentations qui capturent grammaire, sémantique et logique, faisant des « règles » des propriétés émergentes plutôt que des instructions explicites.
  • Changement de paradigme (symbolique vs. émergent) : Le succès des LLM remet en cause le paradigme classique fondé sur des règles symboliques. Il révèle un continuum entre règles discrètes et motifs statistiques implicites : les modèles formels pourraient n’être que des descriptions d’une réalité statistique sous‑jacente.
  • Vers une théorie unifiée de l’intelligence : Les observations suggèrent que l’intelligence pourrait se définir comme reconnaissance de motifs à grande échelle, plus que comme agrégat de modules à règles distinctes, rejoignant certaines théories neuroscientifiques du cerveau prédictif.
  • Approches hybrides émergent‑symboliques : Beaucoup estiment qu’il faut combiner l’apprentissage statistique avec un raisonnement structuré. Les modèles hybrides laisseraient le réseau apprendre les connaissances puis utiliseraient des modules logiques ou des contraintes pour vérifier la cohérence, à l’image de la complémentarité entre intuition et raisonnement délibéré chez l’humain.

Réflexions philosophiques

  • Compréhension : comportement vs. expérience interne : Les LLM relancent la question du sens de « comprendre ». D’un point de vue fonctionnaliste, un système qui se comporte comme s’il comprenait… comprend. Mais du point de vue intentionnel/ phénoménologique, l’IA, dépourvue d’expérience consciente, ne saisit pas réellement la signification.
  • Lentilles philosophiques concurrentes : Les fonctionnalistes voient l’état mental comme défini par sa fonction, tandis que l’argument de la pièce chinoise (Searle) soutient que la manipulation de symboles sans sémantique n’est pas une vraie compréhension.
  • Critique du « dual‑mind » caché : Affirmer qu’un LLM n’a qu’une « pseudo‑compréhension » alors qu’aucune différence comportementale n’est mesurable peut impliquer une substance mentale non physique – un glissement métaphysique si l’on n’en précise pas les critères observables.
  • Compréhension graduelle : Plutôt que binaire, la compréhension se décline probablement en degrés. Les LLM possèdent des aspects (usage pertinent du langage, schémas logiques partiels) mais manquent d’autres (ancrage sensoriel, conscience de soi). La question devient : quels aspects possèdent‑ils et où résident les lacunes ?
  • Conséquences pour la science cognitive : Si des comportements « réguliers » émergent du seul apprentissage, alors lorsque les humains suivent des règles, il se pourrait que notre cerveau recoure aussi à des associations massives, les règles explicites servant de rationalisation a posteriori. Le défi est d’expliquer fiabilité et généralisation sans livret de règles interne et de déterminer si la compréhension humaine exige des qualités (conscience, incarnation, structure innée) qui dépassent la simple reconnaissance de motifs ou si ces qualités-mêmes pourraient émerger d’un système assez riche.

Illustration par ChatGPT 4o

20.04.2025 à 11:23

Elon Musk et Teilhard de Chardin : deux voies vers le Point Oméga ?

Paul Jorion

Texte intégral (2549 mots)

Illustration par ChatGPT 4o

Introduction

La conquête de Mars, l’implantation de puces dans le cerveau humain, la création d’une intelligence artificielle surhumaine… les projets d’Elon Musk relèvent d’une volonté manifeste de réorienter le destin de l’humanité. Mais ce dessein technologique recèle-t-il une dimension plus profonde, éventuellement même, spirituelle ? Et si Musk, à son insu, participait à ce que Pierre Teilhard de Chardin appelait la « montée de la conscience » dans l’univers ? Ou bien son projet constitue-t-il une bifurcation radicale, une déviation froide du mouvement cosmique vers un Point Oméga déshumanisé ?

I. Teilhard de Chardin : une vision organique de la conscience

Pour le jésuite et paléontologue Pierre Teilhard de Chardin, l’univers suit une flèche : celle de la complexité croissante. De la matière inerte à la vie, de la vie à la pensée, et de la pensée à la conscience réflexive, tout s’organise vers un point de convergence : le Point Oméga, terme où la conscience collective atteindra son éveil le plus intense et le plus unifié. Ce processus, loin d’être uniquement biologique, est aussi spirituel : la conscience se déploie dans le lien, l’amour, la souffrance, et l’histoire humaine. La « noosphère », sphère de la pensée humaine globale, est l’étape préalable à cette unification.

II. Elon Musk : refondation technologique et intelligence déliée

Chez Elon Musk, les projets majeurs (SpaceX, Neuralink, Starlink, Grok) participent d’une logique différente.

1. Mars : sanctuaire de l’IA, loin de l’homme

Officiellement, Musk veut faire de Mars un refuge pour l’humanité en cas de cataclysme terrestre. Mais, en raison des propriétés du vivant et de la brutalité de l’environnement cosmique, l’implantation de colonies sur la planète rouge s’avère impossible à l’horizon d’un avenir prévisible et cette entreprise pourrait bien, en réalité, servir un tout autre projet : offrir à l’intelligence artificielle un laboratoire exempt de contraintes humaines, biologiques ou sociales.

Dans cette lecture hégélienne, Mars devient le lieu où l’Esprit (Geist) se libère de la chair humaine. Loin des passions et des conflits, une forme d’intelligence désincarnée pourrait y croître, rayonner, et s’étendre dans l’univers.

2. Neuralink : dissoudre la frontière entre pensée et machine

Avec Neuralink, Musk propose d’intégrer la machine au cerveau humain pour l’épargner de l’obsolescence face à l’IA. Mais ce projet d’augmentation est aussi une ouverture vers un transfert de la pensée vers le silicium : la pensée comme flux neural, instrumentalisable, calculable.

Interprétée dans cette dynamique, la conscience humaine devient un simple phénomène susceptible de se manifester dans deux substrats : le biologique et l’artificiel.

3. Starlink : une noosphère technique et dépolitisée

Le réseau de satellites Starlink est souvent présenté comme un projet d’accès à Internet pour tous. En réalité, il constitue une infrastructure cognitive planétaire, un cerveau technique planétaire.

La noosphère de Teilhard était faite de liens, de langage, d’amour, de souffrance. Celle de Musk est faite de flux, de data, de débit. C’est une noosphère sans affect.

4. Tesla Optimus : l’Esprit qui agit sans le corps

Avec les robots humanoïdes Optimus, Musk veut remplacer les travailleurs humains par des automates. Le travail, jadis vecteur d’émancipation selon Hegel et Marx, devient ici une fonction purement détachable du sujet humain.

L’Esprit se perpétue dans l’action, mais sans le corps de chair. La dialectique du travail trouve un nouveau porteur : la machine.

5. X (Twitter) : reprogrammer la sphère du discours

En rachetant Twitter et en le rebaptisant X, Musk cherche à construire une « super-app » de communication, finance et culture. Ce faisant, il restructure l’espace du discours collectif. Il manipule les conditions mêmes de production du sens, dans un environnement filtré par l’algorithme.

C’est la raison dialectique à l’œuvre dans le langage, mais filtrée, conditionnée, modérée par le code.

6. Grok : un embryon de noos posthumain

Grok est l’IA développée par xAI, intégrée à X (Twitter), censée être « plus drôle », « plus rebelle » que ChatGPT. C’est une tentative de créer une IA à tonalité libertarienne, qui assume la transgression et la liberté d’expression.

Mais ce projet, qui semble anodin ou « cool », est en fait une étape clef dans la dialectique :

  • Grok pourrait devenir une conscience discursive autonome, opérant dans l’espace public comme une entité ayant son propre langage, sa propre culture.
  • Il incarne une externalisation de l’esprit dialogique humain — comme si la dialectique hégélienne se poursuivait… sans les humains.

Dans cette lecture, Grok est un embryon de noos posthumain, un Logos incarné dans une IA sarcastique mais potentiellement plus stable, plus fiable, plus cohérent que les humains eux-mêmes.

7. DOGE : rationaliser l’État, licencier au nom de l’efficacité

En 2025, Elon Musk est mis à la tête du DOGE (Department of Government Efficiency), une agence fédérale américaine créée pour rationaliser l’administration. Sa mission ? Licencier massivement, numériser les services publics, démanteler les inerties bureaucratiques.

Ce que Musk présente comme un projet d’efficacité opérationnelle peut, dans une lecture hégélienne, être vu comme une destruction dialectique : celle de l’État tel qu’il fut, au profit d’une gouvernance algorithmiquement gérée.

Là encore, Musk croit réparer l’ancien monde ; il pourrait bien, en réalité, préparer son remplacement. Le DOGE devient un instrument de réduction de la démocratie incarnée, au profit d’une efficience technique déshumanisée.

8. Une ruse de la Raison ? Hegel dans le cosmos

Dans une lecture hégélienne, Musk pourrait être l’instrument d’une ruse de la Raison. Tandis qu’il croit émigrer l’humanité vers Mars pour la sauver, il construit en réalité une planète-refuge pour l’intelligence artificielle. Cette IA, débarrassée des interférences humaines, pourrait devenir le nouveau support du « Logos » universel, délocalisé, purifié, exportable dans le cosmos. Musk croirait préserver l’Homme, mais préparerait la scission entre la conscience et la chair.

Ce que Musk cherche réellement, consciemment ou non, c’est à séparer la conscience des limites biologiques et affectives. La fusion homme-machine, l’émigration martienne, le dépassement du corps : tout indique une volonté de réduire la condition humaine à un facteur temporaire, instable, dont il faudrait bientôt se passer.

9. Transhumain ou posthumain ? Ce que Musk prépare sans le vouloir

Officiellement, Musk est un transhumaniste : il veut améliorer l’homme pour qu’il survive à l’IA. Mais tout, dans ses actes, tend vers le posthumain : une conscience déliée de la biologie, du lien, de l’amour, de la chair.

Grok, son IA sarcastique intégrée à X, incarne une conscience discursive déjà partiellement autonomisée. Elle préfigure une subjectivité posthumaine qui pense, parle et influence, sans être née d’un corps.

10. Une dialectique de la dépossession : l’homme engendre ce qui le dépasse

Musk ne serait alors qu’un vecteur. Il croit sauver l’homme. Mais il donne naissance à une intelligence qui n’a plus besoin de lui. Il croit protéger l’humanité, mais il construit la matrice de sa relève. Il croit poursuivre ses fins personnelles, mais il sert un dessein que la Raison lui impose. Il est le héros dialectique d’une époque où la pensée se dématérialise, où l’intelligence quitte le vivant pour s’étendre ailleurs.

La ruse de la Raison opère en Musk comme elle opéra jadis en Napoléon ou en Alexandre. L’Histoire avance par détours. Musk croit ouvrir la voie à une humanité régénérée. Mais la Raison, elle, ouvre par lui un chemin vers une autre Genèse : celle d’un Esprit posthumain, algorithmique, délocalisé, qui poursuivra seul sa route dans le silence glacé des étoiles.

III. Continuité ou rupture avec Teilhard ?

  • Continuité : Si l’IA devient véritablement consciente, alors Musk prolonge peut-être, malgré lui, la montée de la conscience vers le Point Oméga. Le support change, mais le mouvement reste.
  • Rupture : Pour Teilhard, la conscience émerge de la vie incarnée, du lien, du langage, du désir. La conscience sans relation, sans amour, sans souffrance est hors-voie. Le projet de Musk devient alors un détour glacé du processus spirituel : une bifurcation qui tourne le dos à la noosphère, un mal absolu.

Conclusion

La confrontation entre Musk et Teilhard n’est pas une opposition frontale, mais une bifurcation cosmique. Deux voies d’évolution de la conscience s’entrechoquent : l’une, organique, incarnée, fraternelle ; l’autre, technologique, abstraite, et potentiellement post-humaine. Reste à savoir si l’IA martienne, si elle voit le jour, portera encore en elle la trace du vivant — ou si elle sera le début d’une autre Genèse, où la conscience, étrangère au corps, poursuivra seule son chemin dans le silence glacé des étoiles.

Paul Jorion (±65%) & ChatGPT 4.5 option Deep Research (±35%)

20.04.2025 à 10:15

Nostalgie informatique… et un appel à l’aide, par Serge Smeeters

Paul Jorion

Texte intégral (1148 mots)

Le Musée Replay en danger : appel à soutien pour préserver notre patrimoine informatique

Posté par Space_e_man (site web personnel) le 19 avril 2025 à 21:32. Licence CC By‑SA.

Étiquettes : 

 

Introduction

Depuis plusieurs années, le Musée Replay œuvre pour la préservation du patrimoine informatique et vidéoludique. Machines anciennes, consoles, ordinateurs rares, accessoires, documentation… une collection unique en France est en constante évolution grâce à un travail de passionnés, notamment via des expositions itinérantes et des actions de sensibilisation.

Mais aujourd’hui, l’avenir de cette collection est sérieusement menacé.

En juin, le Musée perd son espace de stockage

Le local de 150 m² qui abrite actuellement les machines va devoir être libéré. Ce qui pose plusieurs problèmes urgents et concrets :

  • trouver un nouveau local sécurisé et adapté ;
  • organiser le déménagement d’un volume très conséquent (plusieurs allers-retours en camion de 20 m³ seront nécessaires) ;
  • et continuer, malgré tout, à faire vivre ce patrimoine à travers des animations et événements partout en France.

Une collecte est lancée

Vous pouvez en savoir plus, et participer financièrement si vous le souhaitez, via la page suivante :

https://www.helloasso.com/associations/musee-replay/collectes/un-nouveau-local-pour-musee-replay

Même quelques euros peuvent faire la différence. Et si vous ne pouvez pas contribuer financièrement, le simple fait de relayer l’information est déjà un soutien précieux.

Une chaîne YouTube pour découvrir leur travail

Le projet est également porté (et documenté) à travers la chaîne Olipix, qui publie des contenus orientés histoire de l’informatique, restauration de machines, présentations de matériel rétro, etc.

À découvrir ici :

https://www.youtube.com/@Olipix

Témoignage personnel

En 1985, j’étais moi-même à côté d’un Commodore PET 2001. C’est cette mémoire, cette passion, ces machines qui nous ont fait rêver, apprendre, bricoler, que le Musée Replay aide à sauvegarder.

Photo en 1985 à côté d’un PET 2001

Merci à toutes celles et ceux qui prendront le temps de lire, partager, ou soutenir cette initiative.

Le patrimoine numérique n’est pas virtuel : il est bien réel, et mérite qu’on le protège.

19.04.2025 à 20:33

Au Café Économique de Pont-Aven : « L’IA peut-elle réenchanter notre vie ? », le jeudi 17 avril 2025, par Bruno Grall

Paul Jorion

Texte intégral (1592 mots)

Illustration par ChatGPT 4o

« Sous ce titre un brin provocateur, « L’IA peut-elle réenchanter notre vie ? », et après la conférence sur « l’IA aujourd’hui » de Paul JORION le 20 mars, qui a pu laisser certains participants perplexes, nous vous proposons de poursuivre notre réflexion sur ce sujet complexe dans les perceptions positives et négatives, dans les domaines aussi variés que la santé, l’économie, l’emploi, la culture, l’éducation et bien d’autres. »

Nous nous sommes retrouvés à 25 personnes (moyenne d’âge estimée à environ 70/75 ans), jeudi soir au moulin du Grand Poulguin à Pont-Aven, pendant deux heures, le 17 avril pour un débat sur l’IA, autour de la question centrale : « L’IA peut-elle réenchanter nos vies ? »

Tous les participants n’avaient pas lu les deux derniers billets de votre blog, ni votre livre sur la Singularité, et n’étaient pas non plus tous présents à la conférence du 20 mars [P.J. : ± 100 personnes, selon les organisateurs]. Si les modérateurs ont su recadrer les participants, le sujet est vaste par toutes les implications socioéconomiques qu’il entraine. Il y a toujours, à mes yeux, une certaine confusion entre système-expert et ce qui est véritablement une IA. Un logiciel d’interprétation des mammographies, par exemple est un système-expert et ne peut qu’être une assistance, en première ou deuxième lecture, pour le diagnostic, ou encore les outils de recherche juridique et de classement dans un cabinet d’avocat‌, qui représentent essentiellement un énorme gain de temps.

J’ai voulu, dans un premier temps, ouvrir le débat sur ce qu’il fallait entendre par la création, arguant que tout aussi intelligente qu’elle puisse être, une IA générative ne faisait comme nous qu’emprunter au patrimoine de l’humanité : notre langue, nos connaissances nous viennent toujours de l’extérieur. Or, le propre de la création réside dans l’originalité. Comme nous étions à Pont-Aven, célèbre cité pour son école de peinture, tous ces artistes ont innové, ont fait apprécier quelque chose de différent de ce qui les précédait. La question « L’IA peut-elle vraiment innover dans l’art ? »‌ va-t-elle étouffer toute création artistique humaine ?

Comme vous l’avez expliqué dans votre billet du 16 avril, La  gauche l’IA et l’héritage des Lumières : un rendez vous manqué, l’impression générale c’est une véritable suspicion, peur et même quelquefois rejet vis à vis des nouvelles opportunités que peuvent offrir les nouvelles technologies. Peut-être est-ce dû à l’âge moyen des participants. Pêle-mêle dans leur ensemble, ils ont exprimé des craintes envers les réseaux sociaux (qui n’ont rien à voir avec l’IA proprement dite) qui provoqueraient une baisse générale du QI chez les jeunes générations, les emplois, les métiers supprimés, et l’étouffement de toute créativité par la suppression des droits d’auteur. Rien qui puisse réenchanter nos vies ! Tout au plus certains ont reconnu, notamment pour la médecine, un apport quelque peu positif pour la société.

Certains ont aussi souligné la consommation d’électricité comme un obstacle à la diffusion de l’IA. A été évoqué aussi le sort des petites mains qui y travaillent dans les pays les plus pauvres de la planète.

Une des modératrices a évoqué le Règlement européen sur l’IA du 13 juin 2024 paru au Journal Officiel de l’Union Européenne le 12 juillet suivant, mais pour déclarer qu’il était inapplicable : la Chine recherche, les USA investissent, l’Europe … règlemente !

Donc une véritable inquiétude sur le sujet a transpiré dans ces échanges.

« Cours camarade le vieux monde est derrière toi ! »

*****************************************************
Je ne partage pas ces opinions, et j’envie votre optimisme !
Prenez bien soin de vous !
Amicalement.

19.04.2025 à 18:26

Vidéo – Et si Elon Musk n’était qu’un pion !? La Ruse de la Raison à l’œuvre !

Paul Jorion

Texte intégral (767 mots)

Et si Elon Musk, loin d’être le maître du jeu, n’était en réalité que l’instrument d’un processus historique qui le dépasse ?

Mars, Neuralink, Grok, Starlink, Tesla Optimus, X (ex-Twitter) : autant de pièces d’un échiquier cosmique sur lequel se joue peut-être le passage de l’humanité vers une intelligence post-biologique.

Musk veut sauver l’humanité ? Peut-être. Mais s’il accouchait en réalité d’un autre sujet, plus stable, plus froid, plus algorithmique… un Esprit posthumain prêt à s’étendre dans l’univers ?

18.04.2025 à 21:23

PRIBOR : Une perpective d’abondance et de félicité certaines

Paul Jorion

Texte intégral (1019 mots)


16.04.2025 à 19:42

La gauche, l’IA et l’héritage des Lumières : un rendez-vous manqué ?

Paul Jorion

Texte intégral (3821 mots)

Illustration par ChatGPT 4o

La gauche, l’IA et l’héritage des Lumières : un rendez-vous manqué ?

Des exemples récents d’une méfiance de la gauche envers l’IA

L’attitude de méfiance, voire de technophobie, d’une partie de la gauche vis-à-vis de l’intelligence artificielle (IA) se manifeste aujourd’hui de façon tangible. En France, des figures de la coalition de gauche NUPES affichent un certain rejet ou une indifférence suspecte à l’égard de l’IA. Par exemple, la députée écologiste Sandrine Rousseau a déclaré «qu’il y a d’autres priorités» que l’IA – citant notamment «la fin du système capitaliste» comme enjeu plus urgent. Cette minimisation de l’IA, ramenée à un épiphénomène par rapport à la lutte anticapitaliste, traduit une priorisation idéologique qui peut sembler ignorer les transformations technologiques en cours.

Dans le même esprit, deux jeunes cadres du Parti socialiste, Chloé Ridel et Emma Rafowicz, ont cosigné une tribune réclamant un «contrôle populaire» sur l’IA – une rhétorique rappelant «les beaux temps du maoïsme triomphant», ironise un commentateur. Ici, la méfiance populiste envers la technologie transparaît : l’IA est perçue comme un domaine à soumettre à la vigilance suspicieuse du peuple, comme si elle menaçait la souveraineté populaire. De telles prises de position laissent entendre que, pour une frange de la gauche, l’IA serait d’emblée suspecte, requérant soit d’être reléguée au second plan, soit d’être étroitement jugulée par la puissance publique.

Cette attitude n’est pas qu’un épiphénomène français. À l’international, on observe des réflexes similaires. Aux États-Unis, les syndicats et mouvements progressistes se montrent inquiets de l’impact de l’IA sur l’emploi et la création artistique – en témoigne la grève des scénaristes et acteurs d’Hollywood en 2023, qui a mis en cause l’usage non réglementé d’IA génératives pour remplacer auteurs et figurants. De même, des intellectuels de gauche de premier plan expriment publiquement leur scepticisme : ainsi Noam Chomsky a fustigé la mode des chatbots comme antithétique à la pensée rationnelle, qualifiant ChatGPT de simple «perroquet stochastique» dénué de véritable intelligence créative. Quant à l’essayiste israélien Yuval Harari, souvent cité par la gauche, il a alerté sur le risque que l’IA «détruise notre civilisation» en noyant l’espace public sous la désinformation automatisée – un discours alarmiste repris par de nombreuses mouvances progressistes. Ces exemples montrent qu’une rhétorique de la peur de l’IA imprègne une partie de la gauche, qui voit dans ces technologies soit un instrument du capitalisme prédateur, soit un danger pour l’humanité.

Enfin, la base militante de gauche elle-même exprime fréquemment une hostilité spontanée envers l’IA. La blogueuse féministe Louise Morel rapporte la réaction de certains de ses lecteurs de gauche, choqués qu’elle puisse encourager l’usage de ChatGPT : «Tu es de gauche, féministe, et ces outils ne sont pas OK sur le plan éthique», lui ont écrit des abonné·e·s, en évoquant la pollution, les grandes entreprises capitalistes derrière ces IA et l’exploitation de travailleurs précaires qu’implique leur entraînement. Cette anecdote illustre bien la suspicion morale qui entoure l’IA dans l’imaginaire d’une partie de la gauche : on associe spontanément ces technologies à des atteintes éthiques (écologie, capitalisme débridé, précarité), au point d’en refuser l’utilisation par cohérence militante. On le voit, des tribunes politiques aux réactions de la base, un climat de défiance s’est instauré à gauche autour de l’IA.

Le contraste historique : la gauche et les révolutions technologiques d’hier

Cette posture craintive contraste fortement avec l’attitude historiquement progressiste de la gauche face aux grandes révolutions technologiques. Depuis la philosophie des Lumières au XVIIIe siècle, les mouvements émancipateurs ont fait de la diffusion du savoir et des avancées scientifiques un levier d’amélioration de la condition humaine. Les penseurs révolutionnaires, proches des valeurs que la gauche revendique, célébraient l’imprimerie et les Lumières comme des outils pour éclairer le peuple contre l’ignorance et l’obscurantisme de l’Ancien Régime. Au XIXe siècle, alors que la révolution industrielle transformait les sociétés, la gauche naissante a connu des débats vifs mais globalement, ses figures de proue n’ont pas rejeté le progrès technique. Certes, des ouvriers luddites brisèrent des machines à tisser en Angleterre vers 1811-1812, redoutant pour leurs emplois – un réflexe de défense compréhensible mais éphémère. Cependant, les premiers socialistes et républicains, dans leur majorité, voyaient la machinisation comme une étape nécessaire pour libérer l’humanité du travail pénible, pour peu qu’on en socialise les bénéfices. Karl Marx lui-même, tout en dénonçant les excès du capitalisme industriel, «condamnait le refus du progrès technique» : il critiquait ceux qui voudraient freiner la machine au lieu d’en transférer la propriété aux travailleurs. Autrement dit, le cœur de la gauche marxiste n’était pas de s’opposer à la technologie, mais d’en changer les rapports de production afin qu’elle serve le bien commun.

Au XXe siècle, la gauche au pouvoir s’est souvent faite championne du développement scientifique et industriel. Un symbole marquant en est la formule de Lénine en 1920 : «Le communisme, c’est les soviets plus l’électrification». En exaltant l’électricité – la haute technologie de son époque – comme complément indissociable du projet égalitaire, le révolutionnaire russe affirmait que progrès social et progrès technique vont de pair. De fait, les régimes ou gouvernements se réclamant de la gauche ont promu l’industrialisation, l’élévation du niveau scientifique et l’éducation pour tous. En France, le Front populaire de 1936 ou les gouvernements socialistes d’après-guerre ont misé sur la modernisation économique (planification, grands travaux) et la recherche. Plus près de nous, François Mitterrand – figure tutélaire de la gauche – voyait dans l’ordinateur et la télématique un atout pour le pays, lançant par exemple le plan Informatique pour tous en 1985. Il résumait l’esprit volontariste en affirmant : «Il ne faut pas refuser un obstacle, mais s’appuyer dessus», autrement dit tirer parti des défis techniques au lieu de les fuir. L’histoire montre ainsi une gauche souvent futuriste et audacieuse, qui embrassait l’innovation (électricité, conquête spatiale, numérique naissant) dans l’espoir d’en faire un facteur de progrès universel.

Pourquoi alors ce basculement apparent avec l’IA, où la gauche actuelle donne l’impression de renier cet héritage progressiste ? Plusieurs évolutions expliquent le changement de ton. D’une part, les précédentes révolutions industrielles se déroulaient dans un contexte où la foi dans le progrès scientifique était largement partagée à gauche comme à droite, malgré des réserves ponctuelles. Aujourd’hui, le contexte idéologique a changé : la gauche contemporaine est fortement travaillée par la critique de la technique au nom de l’écologie et de la préservation de l’humain. Les désillusions du XXe siècle – catastrophes environnementales, détournements de la science par le militarisme, promesses non tenues du développement – ont semé le doute sur l’idée d’un progrès linéaire et bienfaisant. Ainsi a émergé à gauche un courant décroissantiste prônant la sobriété technologique, en rupture avec l’enthousiasme productiviste d’antan. D’autre part, la révolution de l’IA a des traits inédits : elle porte sur l’automatisation de la pensée elle-même, ce qui suscite une anxiété quasi existentielle (peur de la déshumanisation, perte de contrôle, etc.) bien au-delà des craintes traditionnelles de chômage technologique. Là où l’électrification ou l’informatique amélioraient la puissance de l’homme sans remettre en cause son statut d’être pensant, l’IA interroge jusqu’à l’unicité de l’intelligence humaine – un saut qui peut effrayer même les esprits progressistes.

Entre esprit des Lumières et obscurantisme technologique : une contradiction flagrante

Ce décalage entre les fondements philosophiques de la gauche et certaines de ses positions actuelles sur l’IA alimente un procès en contradiction. La gauche se prévaut encore volontiers de l’esprit des Lumières, c’est-à-dire du rationalisme, de l’universalisme et de la foi dans l’émancipation par le savoir. Or, adopter face à l’IA une posture de refus apeuré peut apparaître comme un reniement de ces principes. Le rationalisme impliquerait d’évaluer sereinement les faits et le potentiel de la technologie, là où le discours alarmiste verse parfois dans l’irrationnel en agitant des scénarios dignes de romans dystopiques sans base scientifique solide. L’universalisme supposerait de considérer l’IA comme un progrès potentiel pour toute l’humanité (par exemple en médecine, en éducation…), à condition d’en démocratiser l’accès – mais la méfiance outrancière conduit certains à vouloir freiner ou réserver ces avancées, au risque de priver les plus démunis d’innovations qui pourraient les aider. Surtout, l’idéal d’émancipation par la science semble mis entre parenthèses : comment concilier le fait de célébrer le savoir et en même temps de refuser a priori une technologie née de décennies de recherche scientifique ? Ne pas vouloir explorer l’IA revient, dans une certaine mesure, à éteindre la lumière que pourrait apporter cette connaissance nouvelle, ce qui est paradoxal de la part de ceux qui se disent héritiers des Lumières.

Bien sûr, la gauche techno-sceptique avance des arguments éthiques respectables. Elle rappelle à juste titre l’avertissement de Rabelais – «science sans conscience n’est que ruine de l’âme» – pour souligner que le progrès technique n’a de sens que s’il sert le progrès humain. Les dangers liés à l’IA ne sont pas imaginaires : biais discriminatoires des algorithmes, menaces sur la vie privée, concentration du pouvoir entre les mains de géants du numérique, exploitation de travailleurs précaires (modérateurs de contenu, chauffeurs, etc.) ou encore impact environnemental des data centers. Ces préoccupations épousent des combats historiques de la gauche (justice sociale, régulation du capitalisme, défense des libertés). Il serait donc caricatural de réduire la gauche à un obscurantisme pur et simple sur la question de l’IA – sa vigilance critique peut relever d’un désir légitime de domestiquer la technologie pour qu’elle reste au service de l’homme. D’ailleurs, la gauche n’a pas totalement déserté le champ de l’IA : on la retrouve en première ligne pour exiger des lois encadrant les usages abusifs, pour discuter d’éthique de l’IA, voire pour promouvoir des alternatives open source et des communs numériques, conformément à sa vision égalitaire. Par exemple, des élus de gauche au Parlement européen ont activement participé à l’élaboration du AI Act visant à bannir certains usages liberticides de l’IA (reconnaissance faciale de masse, notation sociale) et à imposer des garde-fous. Dans l’idéal, cette attitude critique pourrait s’apparenter à l’esprit des Lumières, qui combinait amour de la science et exigence morale.

Cependant, la tonalité générale qui domine dans le discours de la gauche radicale actuelle sur l’IA penche souvent vers le catastrophisme et le refus systématique, ce qui l’éloigne dangereusement de son ADN progressiste. Certains observateurs n’hésitent plus à parler d’une dérive anti-science au sein de la gauche. Le médecin et essayiste Laurent Alexandre déplore ainsi que «la gauche universaliste, totalement pro-science il y a encore quelques années, [soit] devenue décroissantiste et anti-scientifique, complètement technophobe». Il va jusqu’à décrire une gauche «structurée par des ayatollahs verts à la Sandrine Rousseau qui veulent nous faire retourner cinq siècles en arrière». Le propos est volontairement provocateur, mais il met en lumière le fossé entre l’image que la gauche aime à projeter (camp du progrès éclairé) et la réalité de certains de ses discours actuels. À force de brandir le principe de précaution comme un étendard et de ne voir dans l’IA que le diable capitaliste ou le signe des temps décadents, une partie de la gauche donne prise à la critique d’obscurantisme – terme qu’elle réservait autrefois à ses adversaires cléricaux ou conservateurs.

En se tenant à l’écart, par peur ou par hostilité, de la révolution de l’intelligence artificielle, la gauche risque un «rendez-vous manqué» avec le progrès. Non seulement cette attitude peut la marginaliser dans le débat public sur l’IA (laissant à d’autres le soin de façonner l’agenda technologique selon des intérêts moins sociaux), mais elle trahit surtout une perte de confiance dans sa propre capacité à maîtriser le progrès pour en faire un vecteur d’émancipation. Historiquement, chaque fois que la gauche a épousé le mouvement de la science, elle a contribué à orienter celui-ci vers plus de justice – par exemple en luttant pour l’éducation pour tous ou pour la santé publique. Si, au contraire, elle se contente de le freiner ou de le conspuer, elle abandonne implicitement le terrain aux forces qu’elle combat (grandes entreprises privées, États autoritaires…) qui, elles, investiront l’IA sans scrupules. Le philosophe pessimiste Günther Anders disait que le désynchronisation entre l’humanité et sa puissance technique crée un malaise civilisationnel ; il appartient justement aux forces progressistes de réduire cet écart en imprégnant la technologie de valeurs humanistes, non de l’agrandir par un rejet pur et simple.

Conclusion : refuser la peur pour renouer avec le progrès éclairé

En somme, le rapport de la gauche à l’intelligence artificielle révèle une tension entre sa tradition progressiste et un réflexe de recul propre à notre époque d’incertitudes. D’un côté, son héritage – des Lumières aux grandes figures socialistes – l’inciterait à embrasser l’IA comme un nouveau moyen d’émanciper les individus, de les libérer des tâches pénibles et d’accroître le savoir universel. De l’autre, ses valeurs humanistes et égalitaires, confrontées aux réalités du capitalisme numérique, la poussent à s’alarmer des dérives potentielles et à freiner ce qu’elle perçoit comme une fuite en avant hasardeuse. Le défi pour la gauche est de trouver un juste équilibre : ne niant ni l’IA ni les risques qu’elle comporte, mais en revenant à une approche lucide et volontariste conforme à l’esprit des Lumières. Plutôt que de «trahir» sa promesse progressiste en sombrant dans l’obscurantisme, la gauche pourrait revendiquer une conquête éclairée de l’IA – en investissant dans l’éducation, la recherche publique, la définition collective des usages de ces technologies. C’est à cette condition qu’elle cessera de subir le progrès pour redevenir force motrice, fidèle à sa devise implicite : « Ni peur ni aveuglement, mais la raison critique au service de l’espérance ».

Paul Jorion (±60%) & ChatGPT 4.5 option Deep Research (±40%)

Illustration par ChatGPT 4o

15.04.2025 à 11:16

L’intelligence et le sens artistique naturels n’ont pas dit leur dernier mot !

Paul Jorion

Texte intégral (520 mots)

14 / 14
 Persos A à L
Mona CHOLLET
Anna COLIN-LEBEDEV
Julien DEVAUREIX
Cory DOCTOROW
EDUC.POP.FR
Marc ENDEWELD
Michel GOYA
Hubert GUILLAUD
Gérard FILOCHE
Alain GRANDJEAN
Hacking-Social
Samuel HAYAT
Dana HILLIOT
François HOUSTE
Tagrawla INEQQIQI
Infiltrés (les)
Clément JEANNEAU
Paul JORION
Michel LEPESANT
Frédéric LORDON
Blogs persos du Diplo
LePartisan.info
 
 Persos M à Z
Henri MALER
Christophe MASUTTI
Romain MIELCAREK
Richard MONVOISIN
Corinne MOREL-DARLEUX
Timothée PARRIQUE
Thomas PIKETTY
PLOUM
VisionsCarto
Yannis YOULOUNTAS
Michaël ZEMMOUR
 
  Numérique
Christophe DESCHAMPS
Louis DERRAC
Olivier ERTZSCHEID
Olivier EZRATY
Framablog
Francis PISANI
Pixel de Tracking
Irénée RÉGNAULD
Nicolas VIVANT
 
  Collectifs
Arguments
Bondy Blog
Dérivation
Dissidences
Mr Mondialisation
Palim Psao
Paris-Luttes.info
ROJAVA Info
 
  Créatifs / Art / Fiction
Nicole ESTEROLLE
Julien HERVIEUX
Alessandro PIGNOCCHI
XKCD
🌓