ACCÈS LIBRE UNE Politique International Environnement Technologies Culture
24.11.2024 à 15:33
Paul Watson face au Japon : perturber la logistique de la chasse à la baleine
Gilles Paché, Professeur des Universités en Sciences de Gestion, Aix-Marseille Université (AMU)
Texte intégral (1949 mots)
La pratique de la chasse à la baleine au Japon est revenue en pleine lumière avec l’arrestation de Paul Watson. Mais s’agit-il d’une tradition culturelle ou d’une activité économique importante ? La réponse est loin d’être anecdotique car elle influence aussi la perception de l’action du défenseur des cétacés.
Paul Watson, iconique militant écologiste et fondateur de Sea Shepherd, est loin d’être un novice en matière de confrontation avec des entreprises ou des gouvernements. Connu pour ses actions audacieuses (et souvent contestées), il consacre sa vie à la protection de la faune marine, en ciblant en particulier l’industrie baleinière japonaise. Désormais, Paul Watson mène un nouveau combat juridique : emprisonné au Danemark, il risque d’être extradé vers le Japon. Ce pays l’accuse de « conspiration d’abordage » sur son baleinier Shoran Maru 2 lors de deux incidents survenus dans les eaux de l’océan Antarctique en février 2010. Il y avait notamment fait usage d’une boule puante à l’acide butyrique, un acte purement symbolique visant à perturber les opérations, mais sans danger direct pour l’équipage puisque le seul effet est de dégager une odeur pestilentielle.
Certains médias européens indiquent que les actions de Paul Watson sont vues au Japon comme une atteinte insupportable, voire sévèrement condamnable, à une tradition ancestrale. Ce faisant, ils tendent à sous-estimer une autre réalité, d’ordre plus économique. Les opérations baleinières japonaises sont au moins autant une question de tradition que d’intérêts associés à une puissante machinerie industrielle soutenue par le gouvernement. La bataille actuelle de Paul Watson ne se limite donc pas à combattre une vision « culturelle » jugée barbare par certains observateurs, elle est menée aussi et surtout contre un système redoutable, logistiquement huilé et politiquement défendu depuis des décennies. Si l’on veut comprendre les enjeux autour du sort qui sera réservé à Paul Watson dans les prochaines semaines ou mois, il n’est pas possible de faire l’impasse sur la machinerie évoquée.
À lire aussi : De l’étrange à l’intime, comment notre perception des animaux marins s’est transformée
De fausses excuses ?
La chasse à la baleine au Japon plonge ses racines dans une tradition pluriséculaire, ancrée dans une époque où les communautés côtières en dépendaient pour subvenir à leurs besoins alimentaires et matériels. Toutefois, ces chasses s’effectuaient à petite échelle, loin du système industriel mécanisé que Paul Watson critique aujourd’hui, avec un bilan de près de 300 baleines exterminées en 2023 (avec un objectif de 200 baleines pour 2024 affiché par les autorités japonaises).
La défense de la tradition prend un tournant symbolique après la Seconde Guerre mondiale, période durant laquelle le gouvernement japonais promeut la consommation de viande de baleine pour répondre aux pénuries alimentaires. Elle devient dès lors un composant incontournable des repas scolaires, ce qui l’enracine durablement dans l’identité japonaise pour des générations d’enfants et symbolise une résilience face aux privations passées.
Des usages de plus en plus anecdotiques
Au fil des décennies, les habitudes alimentaires japonaises vont évoluer, et désormais, la viande de baleine n’est plus un aliment de base, en particulier pour les jeunes générations. En 2023, sa consommation au Japon atteignait seulement 2 000 tonnes contre 200 000 tonnes par an dans les années 1960. Quant aux autres usages de la graisse de baleine, ils sont aujourd’hui anecdotiques car si elle a longtemps servi pour la fabrication de bougies, de savons ou de produits cosmétiques, le pétrole en constitue depuis longtemps un substitut efficace.
Le gouvernement japonais considère pourtant que la chasse à la baleine doit être préservée, arguant qu’elle est synonyme d’un droit souverain inaliénable. C’est par conséquent sur le terrain du « culturalisme », opposé à l’universalisme, que le débat se pose : alors que de nombreux pays ont banni la chasse à la baleine, la jugeant incompatible avec les valeurs sociétales contemporaines, le Japon revendique le respect de son identité culturelle malgré le moratoire international de 1986.
[Déjà plus de 120 000 abonnements aux newsletters The Conversation. Et vous ? Abonnez-vous aujourd’hui pour mieux comprendre les grands enjeux du monde.]
Tandis que la chasse à la baleine est justifiée au nom d’une « authenticité culturelle », et certainement pas au nom d’un marché intérieur aujourd’hui en effondrement, ses motivations semblent pourtant clairement dictées par de puissants intérêts industriels et financiers, ce qui affaiblit l’argument identitaire. De plus, l’industrialisation croissante des pratiques, qui se poursuit sans relâche, rend toute comparaison avec les méthodes traditionnelles obsolète car ces dernières étaient limitées tant en échelle qu’en impact sur les populations de baleines. Un tel décalage alimente ainsi le débat entre défenseurs de l’environnement et partisans de la chasse à la baleine, perçue tantôt comme une surexploitation des ressources, tantôt comme un « droit naturel ». Or, ne faudrait-il pas admettre que le cœur du débat se situe autour d’enjeux rendus visibles par l’impressionnante logistique mise au service de cette industrie ?
S’en prendre aux « usines flottantes »
La flotte baleinière japonaise est équipée de navires hautement spécialisés, dont certains fonctionnent comme de véritables « usines flottantes », capables de capturer, découper et conditionner les baleines directement en mer. Ceci permet au Japon de défier discrètement les réglementations internationales puisque les baleines sont intégrées dans la chaîne logistique avant même d’atteindre la terre ferme. Une fois à terre, la viande de baleine est commercialisée via un réseau de distribution qui s’étend aux marchés et aux restaurants de l’ensemble du territoire, y compris des établissements de prestige, renforçant ainsi l’acceptation sociale de la pratique. Le soutien financier massif du gouvernement japonais à l’industrie baleinière souligne en outre l’existence d’un interventionnisme politique marqué, visant à perpétuer la tradition contre vents et marées.
Certes, les « usines flottantes » ne sont pas une invention récente puisqu’elles existaient au XIXe siècle sous la forme de navires équipés pour transformer la graisse de baleine en huile. Ces structures permettent alors aux baleiniers de traiter immédiatement leur prise en mer, évitant ainsi des aller-retour longs et coûteux. Munies de chaudières et de mécanismes sophistiqués de découpe, les « usines flottantes » de l’époque conduisent à l’exploitation des baleines capturées de manière plus efficace et plus rapide. Rien de tel que la lecture de Moby Dick, d’Herman Melville, pour prendre conscience de cette réalité. Force est d’admettre que le Japon d’aujourd’hui s’inscrit de fait dans une longue tradition historique, mais avec un changement d’échelle et une optimisation avancée des processus industriels et logistiques, dus à une industrialisation à marche forcée.
Pour Paul Watson, s’attaquer à la chasse à la baleine constitue sur le plan pratique un immense défi. Sea Shepherd fonctionne comme une organisation à but non lucratif et, bien qu’elle attire des bénévoles convaincus, elle ne dispose pas des colossales ressources aux mains des propriétaires de la flotte baleinière japonaise. Paul Watson a donc choisi l’action médiatique en mer, où les navires de Sea Shepherd affrontent les « usines flottantes » japonaises. Des stratégies agressives sont employées, notamment en bloquant les harpons, en se positionnant entre les baleiniers et leur proie, et même en éperonnant ponctuellement les navires. Les opérations menées cherchent à perturber à la source le fonctionnement de la chaîne logistique pour retarder, voire interrompre, le processus industriel (mais sans infliger de dommages humains). Quoi de mieux pour sensibiliser le public aux enjeux critiques de la conservation marine ?
Légitimité et forme de l’action
La lutte de Paul Watson contre la chasse à la baleine japonaise est plus qu’une croisade personnelle. Elle incarne une opposition « existentielle » entre la protection de la nature et des pratiques traditionnelles souvent considérées comme anti-environnementales, ainsi qu’entre la légitimité de l’activisme et les intérêts d’industries soutenues par des gouvernements. Bien qu’il soit impossible de prédire l’efficacité des actions conduites par Sea Shepherd afin de perturber la logistique de la chasse à la baleine, celles-ci suscitent indéniablement un débat sociétal sur les limites de l’argument culturel avancé par le Japon et la responsabilité des nations en matière de protection de la biodiversité. Il serait toutefois maladroit d’oublier que derrière la « culture », des questions économiques et politiques restent très présentes, mais avec une atteinte à la propriété privée demeurant problématique, il faut en convenir.
Personne ne niera le fait que perturber la logistique de la chasse à la baleine est une démarche complexe dans la mesure où elle repose sur des appuis financiers et une « logistique » bien rodée de la part des activistes. Chaque intervention en mer de Sea Shepherd doit prendre en compte le risque d’escalade sur le plan juridique et diplomatique, comme le montre l’emprisonnement actuel de Paul Watson au Danemark (et sa possible extradition vers le Japon).
De plus, l’industrie baleinière japonaise bénéficie d’un fort soutien gouvernemental, renforçant sa résilience face aux tentatives de « sabotage » logistique. Une telle dynamique met en lumière les défis auxquels l’activisme est confronté dans ses modes opératoires. Il ne s’agit pas seulement de s’en prendre, de temps à autre, à une chaîne logistique, mais de remettre fondamentalement en question un système enraciné, soutenu par de puissants intérêts et lobbys. Nul doute que nous sommes encore loin du compte.
Gilles Paché ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
24.11.2024 à 15:33
La nuit porte-t-elle vraiment conseil ?
Dan Denis, Lecturer in Psychology, University of York
Texte intégral (1670 mots)
On dit qu’une bonne nuit de sommeil aide à voir les choses plus clairement. Cette affirmation est-elle justifiée, et pourquoi ? Et une sieste, ça compte ?
John Steinbeck, auteur américain connu notamment pour son roman « Les raisins de la colère », a dit : « Il est fréquent qu’un problème que l’on trouve ardu le soir se trouve résolu le matin, après que la commission du sommeil ait travaillé dessus. » Et Steinbeck n’est pas le seul à penser avoir fait de grands progrès pendant son sommeil – c’est aussi le cas d’Einstein et Mendeleïev par exemple.
Des études récentes sur la science du sommeil semblent étayer ces affirmations.
Des décisions plus réfléchies après une nuit de sommeil
Une étude de 2024 suggère par exemple que le sommeil peut nous aider à prendre des décisions plus rationnelles et plus éclairées, et éviter l’influence de premières impressions trompeuses. Pour le démontrer, des chercheurs de l’université de Duke, aux États-Unis, ont demandé à des participants de prendre part à un jeu de vide-grenier. Au cours de l’expérience, les participants ont fouillé dans des boîtes virtuelles pleines d’objets à vendre, la plupart sans grande valeur, avec quelques trésors. Après avoir fouillé dans plusieurs boîtes, les participants étaient invités à choisir leur boîte préférée et à gagner une récompense en espèces équivalente à la valeur des objets qu’elle contenait.
Lorsque les participants devaient choisir une boîte immédiatement, ils avaient tendance à juger les boîtes non pas en fonction de l’ensemble de leur contenu, mais plutôt en fonction des premiers objets qu’ils y découvraient. En d’autres termes, ces participants ont été excessivement influencés par les premières informations reçues, et peinent à prendre en compte les informations ultérieures dans leur décision.
Les participants qui pouvaient prendre leur décision le lendemain après avoir dormi ont fait des choix plus rationnels, et l’ordre dans lequel ils ont découvert les objets dans la boîte n’a pas semblé influencer leur décision.
Un cerveau endormi en vaudrait-il deux ?
Parfois, un problème difficile semble impossible, une véritable impasse.
Une étude réalisée en 2019 a montré que l’on peut aider des participants à résoudre un problème difficile le lendemain de leur premier essai, en leur faisant écouter pendant leur sommeil des sons liés à ce problème non résolu.
Dans cette expérience, les participants devaient résoudre une série d’énigmes. Pendant la résolution de chaque énigme, un son unique était diffusé en arrière-plan. À la fin de la session de test, les chercheurs ont rassemblé toutes les énigmes qui n’avaient pas été résolues ; puis, les sons associés à certaines des énigmes non résolues ont été diffusés pendant le sommeil de certains des participants.
Le lendemain matin, les participants sont revenus au laboratoire et ont essayé de résoudre les énigmes qu’ils n’avaient pas réussi à résoudre la veille. Le taux de résolution s’est avéré plus élevé pour les énigmes dont les sons avaient été diffusés pendant la nuit, ce qui suggère que les sons ont incité le cerveau endormi à travailler sur la solution de l’énigme en question.
L’une des façons dont le sommeil peut nous aider à résoudre des problèmes est de lever le voile sur des relations entre les objets et/ou les événements. Une étude publiée en 2023 a testé cette idée.
Les chercheurs ont demandé à des participants d’apprendre des associations entre quatre éléments différents (un animal, un lieu, un objet et un aliment), liés à un événement que les chercheurs leur ont décrit. Certaines associations étaient évidentes, par exemple, l’élément A était directement associé à l’élément B. D’autres associations étaient indirectes : par exemple, l’élément D n’était jamais directement associé aux éléments A ou C.
L’équipe de recherche a constaté que les participants étaient plus susceptibles de découvrir les associations indirectes (ils ont découvert le lien subtil entre l’élément A et l’élément D) après une nuit de sommeil que s’ils étaient restés éveillés. Cela suggère que le sommeil a permis aux participants de mieux comprendre la structure sous-jacente de l’événement.
Faire des siestes pour être plus créatifs
Thomas Edison, qui a contribué à l’invention de l’ampoule électrique, faisait souvent des siestes pendant la journée pour stimuler sa créativité, même s’il affirmait ne pas dormir plus de quatre heures par nuit.
Lorsqu’Edison faisait ses siestes, il s’endormait avec une balle dans la main. En s’endormant, sa main se détendait, la balle tombait au sol et le bruit réveillait Edison en sursaut. Lui et d’autres penseurs célèbres, dont Salvador Dali, ont affirmé que c’était précisément cet état de transition, le moment entre l’éveil et le sommeil, qui alimentait leur créativité.
En 2021, des scientifiques français ont mis à l’épreuve l’affirmation d’Edison. Ils ont demandé à des participants d’essayer de résoudre un problème de mathématiques. Le problème comportait une règle cachée, dont la connaissance aurait permis aux participants de résoudre le problème beaucoup plus rapidement.
Après avoir travaillé sur le problème, les participants se sont endormis comme Edison, avec dans la main une tasse qui tomberait en cas d’endormissement. Puis les participants ont été testés à nouveau sur le problème de mathématiques. Les chercheurs ont constaté que les participants qui avaient atteint un stade de sommeil léger étaient plus susceptibles de découvrir la règle cachée que ceux qui étaient restés éveillés, ou même que ceux qui étaient entrés dans des phases de sommeil plus profond tout en tenant le gobelet !
Lors de cette transition entre veille et sommeil, de nombreux participants ont fait état d’hypnagogie, un état de semi-conscience lors de l’endormissement qui est souvent peuplé d’images oniriques.
En 2023, un autre groupe de chercheurs a cherché à savoir si les images perçues lors de cette phase d’hypnagogie avaient un lien avec les tâches effectuées par les participants juste avant de s’endormir. Dans ce cas, il s’agissait par exemple d’énumérer toutes les utilisations que l’on pourrait faire d’un arbre, y compris des utilisations alternatives et créatives. Les chercheurs ont constaté que les utilisations proposées étaient plus créatives quand les visualisations des participants lors de l’amorce du sommeil contenaient des arbres, suggérant que la phase d’hypnagogie avait aidé les participants à effectuer la tâche demandée.
Il s’avère donc qu’Edison avait raison : l’endormissement est propice à la créativité. La nuit porte conseil. Et les siestes, aussi.
Dan Denis ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
24.11.2024 à 15:33
Il y a 100 ans, un prince devenu physicien esquissait la physique quantique
François Vannucci, Professeur émérite, chercheur en physique des particules, spécialiste des neutrinos, Université Paris Cité
Texte intégral (2657 mots)
L’histoire de Louis de Broglie est celle d’un prince devenu physicien, dont les travaux sur la nature de l’électron ont marqué l’histoire et contribué au développement de la mécanique quantique.
Il y a 100 ans, le 25 novembre 1924, le prince Louis Victor de Broglie (1892-1987), âgé de 32 ans, défendait sa thèse de doctorat en physique devant un jury comprenant Paul Langevin et Jean Perrin. Il y exposait sa théorie de la dualité onde-particule appliquée aux électrons.
Cinq ans plus tard, il recevra, à seulement 37 ans, le Prix Nobel de Physique pour sa « découverte de la nature ondulatoire de l’électron ».
Il sera élu en 1933 membre de l’Académie des sciences, puis en 1944 à l’Académie française, où il est accueilli par son propre frère Maurice. En 1960, Louis héritera du titre de duc à la mort de ce frère aîné. Quel fascinant parcours !
Le photon entre onde et corpuscule
Le monde de l’infiniment petit, celui des particules élémentaires, met en jeu des lois très éloignées de celles qui s’appliquent au monde ordinaire, en premier lieu la loi de gravitation strictement déterministe. Le comportement des particules est régi par une mécanique dite « quantique », qui a la particularité de ne prédire que des probabilités de réalisation d’un phénomène. On sait calculer précisément la trajectoire de la pierre qui tombe, cela n’est plus vrai pour une particule.
La nature de la lumière avait été débattue depuis le XVIIe siècle entre la vision granulaire de Newton et celle ondulatoire de Huyghens. Au XIXe siècle, avec les équations de Maxwell, la messe semblait dite et la nature ondulatoire de la lumière avérée.
Mais en 1905, Einstein changea la donne en interprétant l’« effet photoélectrique », dans lequel une plaque métallique illuminée peut produire de l’électricité seulement si la lumière qu’il reçoit possède une fréquence suffisante. Pour expliquer ce phénomène, Einstein imagina la lumière composée d’un flux d’objets élémentaires qu’il appelle photons : l’effet s’interprétait comme une collision entre les électrons du métal et les photons de la lumière incidente. Une énergie minimum est nécessaire pour arracher les électrons de la plaque, ce que permettent les photons bleus, plus énergétiques que les photons rouges.
Cela rejoignait l’idée émise par Planck en 1900, qui, pour expliquer le rayonnement du corps noir, c’est-à-dire une cavité chauffée emplie de gaz, émit l’hypothèse que les échanges d’énergie se font par petites quantités bien déterminées qu’il appelle « quanta » (c’est-à-dire grains élémentaires), dont l’énergie vérifie la formule dite de Planck E = hf où E désigne l’énergie et f la fréquence et donc la couleur (h est un paramètre physique minuscule appelé constante de Planck).
À partir de cette spéculation de Max Planck, Niels Bohr conçut le modèle planétaire de l’atome, où les électrons tournent autour du noyau sur des orbites d’énergies fixes, comme les planètes autour du soleil.
Avec l’interprétation d’Einstein de l’effet photoélectrique, la « quantification de la lumière » (c’est-à-dire que la lumière est composée de « grains élémentaires », des particules) revenait avec force.
Alors, la lumière est-elle une onde ou un flux de particules ? Les deux, est la surprenante réponse. C’est la fameuse dualité onde-particule qui admet deux facettes de la réalité : la lumière interagit sous forme de photons (des particules), mais elle se propage sous forme d’onde.
À lire aussi : L’étude de la lumière : une aventure qui a chamboulé notre représentation du monde
Cela amène à des conséquences qui peuvent choquer le bon sens, remettant en cause le déterminisme. En particulier, Werner Heisenberg écrivit ses relations d’incertitude qui nous enseignent qu’il est impossible de connaître précisément à la fois la position et la vitesse d’une particule.
L’électron joue à la corde
L’apport de Broglie est d’avoir démontré que les électrons peuvent eux aussi se comporter comme une onde. Il étendit donc l’idée de dualité onde-particule au-delà du photon, proposant une symétrie entre toutes les particules. Cette symétrie n’était pas évidente car il y a une grande différence entre un photon de masse nulle et un électron de masse bien définie. La masse nulle du photon l’oblige à toujours se déplacer à la vitesse c = 300000 kilomètres par seconde. Pour le photon, la relation de quantification de Planck s’écrit E = hf. De Broglie généralise au cas d’une particule massive et propose que la longueur d’onde λ d’une particule de masse m voyageant à la vitesse v soit donnée par la formule : λ = h/mv.
Notons que cette longueur d’onde est infinitésimale pour un objet macroscopique : une balle de 200 grammes, animée d’une vitesse de 15 mètres par seconde, correspond à une longueur d’onde de 2 10-34 mètres (soit trente-trois 0 puis un 1 après la virgule) ! Mais pour un électron accéléré par une tension de 100 V, la longueur d’onde devient 10-10 mètres, c’est l’espacement entre des atomes dans un cristal et c’est donc en envoyant un faisceau d’électrons à travers un cristal qu’on peut espérer détecter un effet « d’onde d’électrons ». Davisson et Germer firent l’expérience correspondante et observèrent en 1927 des images d’interférences et de diffractions à partir d’électrons, comme on en observe avec des rayons X, validant ainsi l’hypothèse de Broglie.
Le modèle planétaire de l’atome selon de Broglie
Les électrons de l’atome tournent autour du noyau selon des orbites « quantifiées » c’est-à-dire d’énergies fixes, et dans sa thèse, de Broglie expliquait cette propriété à partir du caractère ondulatoire de l’électron. Un raisonnement géométrique simple était développé : les électrons orbitent autour du noyau de l’atome selon des ondes stationnaires.
Quand la corde d’un violon est attaquée par l’archet, de nombreuses ondes sont engendrées, mais seules subsistent celles ayant des nœuds aux extrémités, ce sont les « modes résonnants » qui donnent les notes musicales. Par analogie, de Broglie imagine les électrons se déplaçant sur des cercles autour du noyau, les orbites doivent alors correspondre à des ondes stationnaires circulaires qui se referment sur elles-mêmes, comme la corde de violon dont les extrémités se toucheraient.
Ainsi, pour une orbite de rayon R, la circonférence doit être un multiple de la longueur d’onde associée à l’électron, ce qui donne la relation : 2πR = nλ, n étant un entier prenant des valeurs 1,2,3… selon les différentes orbites.
Avec λ = h/mv, on obtient la condition d’une orbite stable : mvR = nh/2π. C’est ce qu’avait postulé Bohr. La dualité onde-particule explique donc bien la structure planétaire de l’atome. En pratique, le modèle est bien vérifié pour un atome ayant un électron, c’est-à-dire le cas de l’hydrogène, mais il est déficient pour un cas plus compliqué.
Il faudra imaginer une théorie totalement nouvelle, la mécanique quantique, développée avec force en particulier à Copenhague par Niels Bohr et ses élèves pour comprendre la structure atomique, et alors la vision de la réalité devint beaucoup plus complexe : les orbites ne sont plus des cercles définis mais des nuages d’électrons dont la probabilité de présence en chaque point de l’espace est donnée par une « fonction d’onde » qui vérifie l’équation d’évolution de Schrödinger.
À lire aussi : Les débuts de la physique quantique, ou comment admettre élégamment que l'on a tort
Mécanique ondulatoire vs mécanique quantique
Aujourd’hui, la théorie ondulatoire de Broglie semble une ébauche à côté de la mécanique quantique qui signe une véritable révolution de la pensée. De Broglie restait dans le cadre ancien (quoi de plus classique qu’une corde ?). Il ne participa pas vraiment aux développements quantiques.
Déjà au Congrès Solvay, organisé en octobre 1927 sur le thème « Électrons et photons » à l’Institut de physique Solvay dans le parc Léopold de Bruxelles, de Broglie se retrouve au milieu des ténors de la mécanique quantique venus en force autour de leur pape, Niels Bohr. Ehrenfest, Schrödinger, Pauli, Heisenberg, Debye, Bragg, Kramers, Dirac, Compton, Born, Planck, Lorentz, sont présents — tous ou presque déjà ou bientôt Prix Nobel.
La mécanique quantique révéla des aspects de la réalité très surprenante : l’antimatière existe, la réalité n’est plus déterministe mais probabiliste, l’état d’un système n’est plus décrit par des positions et des vitesses mais par des fonctions d’onde, le hasard est une propriété intrinsèque de la matière…
Comme Einstein qui passa les dernières années de sa vie dans son repaire de Princeton, refusait le nouveau concept de réalité donné par la mécanique quantique et chercha en vain le Graal d’une « théorie du champ unifié » espérant relier l’électrodynamique à la gravitation, de Broglie tenta de prolonger ses idées de mécanique ondulatoire en une « thermodynamique cachée des particules » (Comptes rendus de l’Académie des sciences, 1963) qui ne déboucha sur rien de concret. Ses dernières années furent malheureuses. Perdant la mémoire, il vécut totalement dépendant et il mourut oublié du public et de ses collègues.
Quand on possède un glorieux pédigrée héraldique comme Louis de Broglie, il est difficile de sortir du rang et s’affirmer personnellement, un duc n’est qu’un numéro presque anonyme dans une suite de successions. Il faut devenir, à l’exemple de l’électron, un être dual et s’affranchir de son milieu pour s’illustrer individuellement. Proust, qui connaissait bien le monde de l’aristocratie, fait dans son œuvre maîtresse une allusion à un prince qui transcende son milieu d’origine en devenant docteur en physique (ou fameux politicien). Je ne peux m’empêcher de penser qu’il avait en tête le prince et physicien Louis de Broglie, dont il devait connaître la famille, à moins que ce ne soit le frère Maurice, lui aussi physicien. Ainsi la formule λ=h/mv a probablement fait entrer notre prince dans le casting de À la Recherche du temps perdu, ce qui, pour certains, est une reconnaissance aussi notoire que celle venant du comité Nobel.
François Vannucci ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
24.11.2024 à 15:32
Lycée : entre scientifiques et littéraires, des clivages qui persistent ?
Faustine Vallet-Giannini, Doctorante en sciences de l'éducation (IREDU), Université de Bourgogne
Texte intégral (1785 mots)
La réforme du bac initiée en 2018 devait casser la hiérarchie entre les spécialisations littéraires, économiques ou scientifiques et faciliter la transition entre le lycée et l’université. Les résultats sur le terrain sont-ils à la hauteur de ces attentes ? Les premiers résultats d’une thèse nous montrent que certains clivages persistent et que les choix faits en fin de seconde restent déterminants.
En finir avec la hiérarchie des filières au lycée, c’était l’un des objectifs de la réforme du baccalauréat lancée en 2018 et qui avait effectivement supprimé les séries générales mises en place depuis 1995 : le baccalauréat scientifique (dit « bac S »), le baccalauréat économique et social (« bac ES ») et le baccalauréat littéraire (« bac L »).
Les premiers lauréats de l’examen dans sa forme nouvelle ont été diplômés en 2021. Désormais, le cursus en classes de première et terminale se divise entre un socle commun et un système de combinaison d’enseignements de spécialité (EDS). Chaque lycéen doit en choisir trois à suivre en classe de première, dont deux sont conservés en terminale. Ces enseignements constituent les matières les plus importantes du nouveau bac, autant du point de vue des volumes horaires que des coefficients, et reflètent le profil disciplinaire des bacheliers.
Une thèse de doctorat autour des effets de cette réforme nous apporte de premiers résultats. Préparée à l’Institut de Recherche sur l’Éducation (IREDU), elle s’appuie sur un échantillon de 15 000 lycéens ayant obtenu leur baccalauréat général en 2022. L’objectif est d’analyser si le nouveau baccalauréat permet une moindre hiérarchisation des filières et, en cela, de moindres inégalités sociales d’orientation.
Ceci permet également de comprendre comment la structuration et l’obtention du bac peuvent influencer les vœux d’orientation sur Parcoursup, puis la réussite en première année d’études universitaires.
Bac L, ES, S : des choix qui étaient liés au prestige
L’introduction de ce nouveau système de spécialités devait d’abord permettre de remédier au manque d’articulation entre l’enseignement secondaire et l’enseignement supérieur. D’après le rapport Mathiot à l’origine de la réforme, le lien entre les apprentissages suivis au lycée et ceux qui sont développés dans les études supérieures choisies était insuffisant.
En effet, dans le cas des anciennes séries du bac général, le choix des lycéens n’était pas tant un choix disciplinaire en cohérence avec leurs inspirations de poursuites d’études (près de 40 % des bacheliers scientifiques s’orientaient dans des filières post-bac non scientifiques) qu’un choix lié au prestige de la série, avec une hiérarchie allant de la « voie royale » du bac S au plus impopulaire bac L.
[Déjà plus de 120 000 abonnements aux newsletters The Conversation. Et vous ? Abonnez-vous aujourd’hui pour mieux comprendre les grands enjeux du monde.]
Or, il a été constaté une forme de spécialisation sociale du bac scientifique, avec une surreprésentation de garçons et d’élèves d’origine sociale favorisée. Cette stratification se poursuivait, de plus, dans l’enseignement supérieur : le bac S offrait non seulement plus d’opportunités que les autres séries, en particulier par rapport au bac L, mais il ouvrait également les portes des formations les plus sélectives et prestigieuses, telles que les classes préparatoires aux grandes écoles (CPGE).
Une diversification des profils disciplinaires depuis la réforme
En théorie, les lycéens font désormais leur choix d’enseignements de spécialité parmi treize possibilités, d’où 286 combinaisons possibles en première et 78 en terminale. Bien que tous les enseignements de spécialité ne soient pas proposés dans chaque lycée, la réforme permet une plus grande ouverture disciplinaire et une importante diversification des parcours par rapport aux trois anciennes séries du bac général.
Ainsi, il est observé une multiplication des combinaisons transdisciplinaires, qui est un pur produit de la réforme, comme par l’exemple la doublette « SES–SVT », qui se positionne parmi les dix combinaisons les plus fréquentes en terminale. Au sein de notre échantillon, ce type de profils qui associe une spécialité scientifique avec une spécialité littéraire ou en sciences humaines et sociales (SHS) représente 14 % des lycéens.
Parmi les profils scientifiques, il se distingue deux grandes spécialisations : d’une part, un profil orienté « santé » (avec la doublette « Physique-Chimie — SVT »), et d’autre part, un profil centré autour des mathématiques (l’EDS mathématiques avec un autre EDS scientifique). Ils représentent respectivement 25 % et 21 % des lycéens de l’échantillon.
À titre de comparaison, les profils littéraires, c’est-à-dire les lycéens n’ayant choisi aucun EDS ou option scientifique, comptent pour 30 % des effectifs — le double de la part que représentait les bacheliers littéraires avant la réforme. Les 10 % restants concernent les profils combinant un EDS littéraire ou en SHS, et l’EDS mathématiques, de façon similaire à l’ancien bac ES.
Un clivage scientifique/littéraire persistant, avec de fortes disparités sociales
Pour autant, les données de la thèse révèlent que la diversité des combinaisons de spécialité n’empêche pas une reproduction des inégalités sociales de choix d’orientation. Les profils scientifiques demeurent l’apanage des garçons, des lycéens issus d’un milieu aisé et des (très) bons élèves. À l’inverse, les profils littéraires concernent plus souvent les filles, les élèves rencontrant des difficultés scolaires et ceux issus d’un milieu populaire.
À lire aussi : Choisir une filière scientifique : l’importance des « role models » pour les lycéennes
Les EDS scientifiques sont également davantage mobilisés par les élèves scolarisés dans des lycées où la composition sociale est favorisée et le taux de mention global au baccalauréat élevé. Cet aspect peut s’expliquer en partie par le fait que les lycées au public favorisé accompagnent davantage leurs élèves dans leur choix d’orientation, et en cela, peuvent pousser leurs élèves à se tourner vers les enseignements les plus favorables à une orientation post-bac.
Au-delà d’une dualité scientifique et littéraire, la réforme a surtout accentué les inégalités genrées, sociales et scolaires dans l’apprentissage des mathématiques, en faveur, à nouveau, des garçons, des meilleurs élèves et des lycéens de milieu favorisé.
Enseignements de spécialité : quel impact sur Parcoursup ?
Depuis l’introduction de Parcoursup, toutes les formations sont invitées à classer l’ensemble des candidatures reçues. Ce classement repose sur des critères de sélection, variables d’une formation à une autre. Aujourd’hui, tout l’enjeu est de savoir dans quelle mesure le choix d’enseignement de spécialité conditionne l’accès aux études supérieures.
Ainsi, si les bacheliers scientifiques s’orientent moins qu’avant la réforme vers des formations non scientifiques, les mathématiques, plus spécifiquement, sont devenues un prérequis primordial pour de nombreuses formations, y compris non scientifiques.
À lire aussi : Les jeunesses rurales face aux études supérieures : au-delà du déterminisme territorial, le milieu social et le genre
Par ailleurs, les bacheliers scientifiques de l’ancien baccalauréat ont longtemps bénéficié des meilleures chances de réussite dans l’enseignement supérieur. De premiers résultats montrent que cette tendance demeure avec les nouveaux profils scientifiques, et qu’à l’inverse, les profils littéraires ont des chances de réussite inférieures aux autres. Ceci s’expliquerait en particulier par l’absence d’un enseignement en mathématiques suivi au lycée.
Finalement, les choix faits par les lycéens en fin de seconde semblent encore plus déterminants depuis la réforme. Les enseignements de spécialité suivis conditionnent en effet la poursuite d’études et les chances de réussite des lycéens dans l’enseignement supérieur. Dès lors, l’accompagnement des élèves dans ce choix par des professionnels de l’orientation scolaire apparaît primordial, afin de lutter contre ces diverses inégalités sociales d’orientation. Or, à ce jour, les moyens mis à la disposition des établissements scolaires semblent encore insuffisants.
Faustine Vallet-Giannini ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
24.11.2024 à 15:32
Major cybercrime crackdowns signal shift in global cybersecurity strategies
Christine Abdalla Mikhaeil, Assistant professor in information systems, IÉSEG School of Management
Carin Venter, Directrice académique, filière data management for business, IÉSEG School of Management
Jennifer L. Ziegelmayer, Doctor of philosophy in business administration, IÉSEG School of Management
Texte intégral (1498 mots)
Months after the UK’s National Crime Agency (NCA) launched a major offensive against the notorious ransomware group LockBit, the cybercriminal gang appears to have resurfaced, continuing to carry out attacks. Despite law enforcement efforts, ransomware groups like LockBit remain resilient, demonstrating the evolving challenge in the fight against cybercrime.
In February 2024, the NCA, in coordination with nine other countries, launched Operation Cronos, a decisive strike on LockBit, a group that emerged around 2019. This cybercrime group had gained infamy for its use of ransomware – a type of malicious software that locks victims’ data and demands a ransom for its release. It operates on a Ransomware-as-a-Service (RaaS) model, where it provides ransomware tools and infrastructure to affiliates who then carry out the attacks. LockBit was also known for a tactic called “double extortion,” threatening not only to keep data locked but also leak sensitive information if the ransom wasn’t paid. Operating through the dark web, the group was built on anonymity and encryption, making it difficult for authorities to track.
An estimated $8 billion in financial damage
Since its emergence, LockBit has become one of the most active ransomware groups, targeting industries like finance, healthcare and critical infrastructure. With an estimated 20-25% share of the ransomware market, LockBit’s attacks have caused billions of dollars in global damages. The group’s financial impact, exceeding $8 billion by some accounts, has drawn comparisons to other notorious ransomware actors like REvil and DarkSide.
But Operation Cronos changed that. The NCA’s operation infiltrated and disrupted Lockbit’s criminal infrastructure, seizing control of their computing systems and even repurposing their dark web leak site – a publicly accessible website where cybercriminal groups publish stolen data. Operation Cronos marked a bold new approach to combating cybercrime, proving to criminals that law enforcement agencies were ready to go on the offensive.
From Cronos to Endgame
In May 2024, global law enforcement agencies launched Operation Endgame, a coordinated strike aimed at dismantling the infrastructure used by multiple cybercrime groups. While similar in its objectives to Operation Cronos, which focused on LockBit, Endgame had a broader scope: it targeted the malware infrastructures used by various ransomware and data-stealing groups, including those that likely collaborated with LockBit.
Malware, a type of software designed to infiltrate digital devices, is often used by cybercriminals to steal information or take control of systems. One particularly dangerous form of malware creates networks of infected computers, known as botnets, which can be remotely controlled without the owners’ knowledge. These botnets are used for a range of criminal activities, from sending spam and stealing data to launching distributed denial-of-service (DDoS) attacks – overwhelming a system with fake requests so that it can’t process legitimate ones.
Operation Endgame specifically dismantled the infrastructure of “droppers” and “loaders” – programs used to stealthily install malware onto victims’ systems. The operation marked another significant step in the global fight against cybercrime, highlighting the importance of international collaboration in taking down not only individual criminals but the tools and networks that enable them.
Endgame’s successes were notable: it disrupted over 100 infected servers and seized more than 2,000 domain names used to host malicious software, dealing a major blow to botnet networks that had caused hundreds of millions of dollars in damages worldwide.
The back-to-back operations, Cronos and Endgame, marked a pivotal shift in global cybersecurity tactics, directly targeting the rise of cybercrime-as-a-service (CaaS). CaaS enables anyone, regardless of technical skill, to buy or lease tools and services to carry out cyberattacks. This model has lowered the barrier to entry for cybercrime, making it easier for individuals or groups to launch sophisticated attacks. LockBit is a prime example: the group provides the infrastructure while affiliates execute the attacks, with affiliates getting the majority of the ransom and LockBit claiming a cut for providing the tools. Cronos and Endgame underscored the increasing collaboration between law enforcement agencies across the globe, signalling a united front against the growing cybercrime threat.
Ransomware’s persistent threat
Despite these victories, LockBit’s return underscores a key challenge – cybercriminals are constantly adapting. The group’s re-emergence raises concerns about whether organisations are adequately prepared for future attacks. Many still lack essential cybersecurity measures, leaving them vulnerable to increasingly sophisticated ransomware groups.
As LockBit reasserts its influence, new ransomware groups are also gaining prominence. Analysts have identified at least 10 emerging ransomware actors in 2024, including Play Ransomware, RansomHub and Akira, all of which have adopted tactics similar to LockBit’s. Play Ransomware has been a persistent and growing threat, known for its large-scale attacks on municipalities and critical infrastructure. In 2024, it continued to execute high-profile breaches, including an attack on Swiss government vendors. RansomHub has rapidly gained prominence in 2024, with its highly attractive affiliate program offering up to a 90% commission for attackers. RansomHub has targeted over 100 organisations globally, particularly focusing on business services and smaller companies that may be more vulnerable. Akira has gained notoriety for its successful double-extortion attacks, focusing on industries like healthcare, education and technology.
These groups, along with others like Medusa and IncRansom, are part of a dynamic ransomware ecosystem where new groups emerge while established ones like LockBit struggle to maintain dominance. Despite a brief drop in ransomware incidents from mid-2023 to 2024, there was a 20% uptick between the first and second quarters of 2024.
More global coordination needed
Operations Cronos and Endgame mark a turning point in the fight against cybercrime, shifting law enforcement’s focus from targeting individual hackers to dismantling the infrastructure that powers these attacks. These efforts showed a new approach, going after the servers, networks, and tools that ransomware and malware groups rely on rather than just chasing high-profile criminals.
The operations also underscored unprecedented levels of international cooperation, with agencies like Europol, the FBI and Interpol working together for global takedowns across multiple jurisdictions – a feat previously hampered by legal and political challenges. This cross-border teamwork enabled simultaneous strikes on cybercrime networks, hitting them where it hurts the most: their operational backbone.
The operations also highlighted how far law enforcement has come in understanding the technical vulnerabilities of cybercrime infrastructure. Instead of waiting for attacks to happen, agencies exploited flaws in the cybercriminals’ systems, delivering decisive blows that crippled their ability to operate.
These operations signal a global push to crack down on cybercrime and the growing power of international law enforcement working together. But LockBit’s quick comeback is a stark reminder that the fight is far from over. As cyberthreats get more sophisticated, so must the tactics to stop them. While Cronos and Endgame were key wins, they also emphasise the need for even more global coordination. One recent effort is the UN’s first treaty aimed at creating universal laws and protocols for investigations. Beyond legal measures, the real battle is technical – governments, tech companies and civil groups must work together to not only hack the hackers but also slow down their ability to rebuild.
Law enforcement is also turning to psychological operations (psyops) to disrupt cybercrime. By taking over dark web forums and ransomware leak sites, it is undermining the criminals’ credibility and creating paranoia within these networks. Cryptocurrency, the backbone of ransomware payments, is another focus. Authorities are increasingly freezing accounts linked to cybercriminals, cutting off their financial lifelines.
The message is clear: law enforcement must stay ahead of fast-evolving threats, and organisations need to ramp up their defences. The battle against cybercrime is ongoing, and it’s going to take both relentless vigilance and smart, coordinated strategies to win.
Christine Abdalla Mikhaeil is a member of the Association for Information Systems (AIS).
Carin Venter est membre de Association for Information Systems (AIS).
Jennifer L. Ziegelmayer is a member of the Association for Information Systems (AIS) and the Decision Sciences Institute (DSI).