LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
Réseau d'éducation populaire au Libre.

ACCÈS LIBRE

▸ les 20 dernières parutions

21.07.2025 à 07:42

Khrys’presso du lundi 21 juillet 2025

Khrys

  Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière. Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à … Lire la suite­­
Texte intégral (9265 mots)

 

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière.


Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer votre bloqueur de javascript favori ou à passer en “mode lecture” (Firefox) ;-)

Brave New World

Spécial IA

Spécial Palestine et Israël

Spécial femmes dans le monde

Spécial France

Pas RIP

Spécial femmes en France

Spécial médias et pouvoir

Spécial emmerdeurs irresponsables gérant comme des pieds (et à la néolibérale)

Spécial recul des droits et libertés, violences policières, montée de l’extrême-droite…

Spécial résistances

Spécial outils de résistance

Spécial Foutons le Zbeul

Spécial GAFAM et cie

Les autres lectures de la semaine

  • Les camps de concentration, de l’Algérie à Gaza (orientxxi.info)

    L’annonce faite par Israël de l’établissement de « zones de transit humanitaire » n’est pas sans rappeler les « camps de regroupement » installés par la France en Algérie dans sa guerre contre le FLN. Les deux stratégies coloniales partagent la conviction de la responsabilité collective de la population et d’un contrôle fantasmé sur les corps colonisés.

  • Conçu pour dominer. Palantir Technologies, bras armé numérique de la répression mondiale (contretemps.eu)
  • Are a few people ruining the internet for the rest of us ? (theguardian.com)

    social media is less like a neutral reflection of society and more like a funhouse mirror. It amplifies the loudest and most extreme voices while muting the moderate, the nuanced and the boringly reasonable. And much of that distortion, it turns out, can be traced back to a handful of hyperactive online voices. Just 10 % of users produce roughly 97 % of political tweets.

  • Toxic platforms, broken planet (globalwitness.org)

    How online abuse of land and environmental defenders harms climate action

  • Why Science Hasn’t Solved Consciousness (Yet) (noemamag.com)

    To understand life, we must stop treating organisms like machines and minds like code.

  • A transatlantic communications cable does double duty (phys.org)

    Monitoring changes in water temperature and pressure at the seafloor can improve understanding of ocean circulation, climate, and natural hazards such as tsunamis. In recent years, scientists have begun gathering submarine measurements via an existing infrastructure network that spans millions of kilometers around the planet : the undersea fiber-optic telecommunications cables

  • Before Macintosh : The Story of the Apple Lisa (hackaday.com)
  • The First Photograph Ever Taken (1826) (openculture.com)

    In his­to­ries of ear­ly pho­tog­ra­phy, Louis Daguerre faith­ful­ly appears as one of the fathers of the medi­um. […] But had things gone dif­fer­ent­ly, we might know bet­ter the hard­er-to-pro­nounce name of his one­time part­ner Joseph Nicéphore Niépce, who pro­duced the first known pho­to­graph ever, tak­en in 1826.

  • Conspiratorialism and neoliberalism (pluralistic.net)

    Trump’s day-one Executive Order blitz contained a lot of weird, fucked-up shit, but for me, the most telling (though not the most important) was the decision to defund all medical research whose grant applications contained the word “systemic”

  • « Le validisme, lui, ne prend jamais de vacances » (politis.fr)

    Nous avons passé une semaine à Berlin. Pas de différence pour réserver au musée, pas de barrière dans le métro, le train, tout est accessible. Ils étaient même étonnés que je sorte ma carte CMI pour me justifier.20 ans après la loi, rien n’est fait afin qu’elle soit respectée en France, pour que nous soyons enfin respectés en tant que citoyennes à part entière. Nous sommes discriminées, en toute impunité, et sans pause.

  • La révolte des prostituées : 1975 – 2025 50 ans de luttes (rebellyon.info)
  • On nous a appris que le spermatozoïde le plus rapide féconde l’ovule : c’est complètement faux (slate.fr)

    L’ovule capture chimiquement les spermatozoïdes pour choisir son partenaire génétique. Un processus loin du mythe du « chevalier spermatozoïde » perforant la paroi d’un œuf passif. […] Cette réalité, pourtant établie depuis plus de quarante ans, continue d’être ignorée ou redécouverte[…] « On s’obstine à voir le spermatozoïde comme un preux chevalier qui part à la conquête de l’ovule, alors que la science montre tout l’inverse. » Cette persistance du récit du « sperme actif » et de « l’ovule passif » prouve combien il demeure difficile d’abandonner des mythes culturels qui influent encore sur notre vision du monde biologique.

Les BDs/graphiques/photos de la semaine

Les vidéos/podcasts de la semaine

Les trucs chouettes de la semaine

Retrouvez les revues de web précédentes dans la catégorie Libre Veille du Framablog.

Les articles, commentaires et autres images qui composent ces « Khrys’presso » n’engagent que moi (Khrys).

PDF

14.07.2025 à 07:42

Khrys’presso du lundi 14 juillet 2025

Khrys

  Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière. Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à … Lire la suite­­
Texte intégral (12094 mots)

 

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière.


Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer votre bloqueur de javascript favori ou à passer en “mode lecture” (Firefox) ;-)

Brave New World

Spécial IA

Spécial Palestine et Israël

Spécial femmes dans le monde

  • ROJAVA : « Une expérience toujours inspirante et si fragile » (lempaille.fr)

    Rencontre avec Mylène Sauloy qui revient du Rojava, territoire autonome du Nord et de l’Est de la Syrie, où les attaques de la Turquie et des islamistes redoublent de vigueur. Coautrice du livre Les Filles du Kurdistan, une révolution féministe, elle suit de près ces populations kurdes, arabes et syriaques qui ont pris les armes pour défendre leur projet de société laïque, féministe et socialiste.

  • Lettre aux dirigeants européens signataires de l’accord de Vienne sur le nucléaire iranien (humanite.fr)

    Nous, Iraniennes éprises de paix, refusons que notre pays soit livré à des puissances étrangères, et nous efforcerons de le préserver jusqu’à la fin de nos jours.[…] Au lieu de punir les bellicistes israéliens et américains qui ont attaqué l’Iran, alors que des négociations étaient en cours. Vous avez l’intention de châtier le peuple iranien !

  • La CEDH condamne la Suisse dans l’affaire Semenya (24heures.ch)

    L’athlète privée de compétition parce qu’elle refuse de faire baisser son taux de testostérone n’a pas eu droit à un procès équitable, a tranché jeudi la Cour européenne des droits de l’homme.

  • Sur TikTok, des femmes popularisent la trend « Man of the Year » (huffingtonpost.fr)

    Au son de la chanson « Man of the Year » de Lorde, des milliers de femmes affichent le comportement toxique de leur ex-compagnon. Un révélateur cru des abus commis à bas bruit dans les couples.« Les hommes pourraient être surpris par le nombre de leurs amis qui maltraitent les femmes en privé. Il est essentiel qu’ils prennent la parole pour les femmes »

  • En montrant sa jupe tachée de sang à Wimbledon, cette mannequin brise le tabou des règles (huffingtonpost.fr)

    Grâce à sa vidéo, la jeune femme dédramatise la situation, mais a aussi rappelé à quel point la loi vestimentaire de Wimbledon était contraignante pour les joueuses, pour qui les tâches de règles sur leurs vêtements immaculés étaient une véritable angoisse. Depuis 2023, elles ont le droit de porter un short plus foncé sous leurs jupes blanches.

Spécial France

Spécial femmes en France

Spécial médias et pouvoir

Spécial emmerdeurs irresponsables gérant comme des pieds (et à la néolibérale)

Spécial recul des droits et libertés, violences policières, montée de l’extrême-droite…

Spécial résistances

Spécial outils de résistance

  • Artificial Power : 2025 Landscape Report (ainowinstitute.org)

    Artificial Power, our 2025 Landscape Report, puts forward an actionable strategy for the public to reclaim agency over the future of AI. In the aftermath of the “AI boom,” the report examines how the push to integrate AI products everywhere grants AI companies – and the tech oligarchs that run them – power that goes far beyond their deep pockets. We need to reckon with the ways in which today’s AI isn’t just being used by us, it’s being used on us. The report moves from diagnosis to action : offering concrete strategies for community organizers, policymakers, and the public to change this trajectory.

  • Surveillance funding (surveillancewatch.io)

    The diagram below shows the high level flow of funding towards different areas of investment, broken down into various surveillance technology types. Click on a type to view filtered list of funders supporting these technologies.

  • Loi Duplomb : découvrez si votre député·e a voté pour ou contre la loi Duplomb (franceinfo.fr)
  • Guide d’Autodéfense RSA-France Travail (bourrasque-info.org)

Spécial GAFAM et cie

Les autres lectures de la semaine

Les BDs/graphiques/photos de la semaine

Les vidéos/podcasts de la semaine

Les trucs chouettes de la semaine

Retrouvez les revues de web précédentes dans la catégorie Libre Veille du Framablog.

Les articles, commentaires et autres images qui composent ces « Khrys’presso » n’engagent que moi (Khrys).

PDF

07.07.2025 à 07:42

Khrys’presso du lundi 7 juillet 2025

Khrys

  Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière. Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à … Lire la suite­­
Texte intégral (11032 mots)

 

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière.


Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer votre bloqueur de javascript favori ou à passer en “mode lecture” (Firefox) ;-)

Brave New World

Spécial IA

Spécial Palestine et Israël

Spécial femmes dans le monde

Spécial France

Spécial femmes en France

Spécial médias et pouvoir

Spécial emmerdeurs irresponsables gérant comme des pieds (et à la néolibérale)

Spécial recul des droits et libertés, violences policières, montée de l’extrême-droite…

Spécial résistances

Spécial outils de résistance

Spécial GAFAM et cie

Les autres lectures de la semaine

  • Un an après sa libération, le message de Julian Assange (investigaction.net)
  • Max Schrems — Europe’s data fighter (euobserver.com)

    Europe’s personal data crusader, Max Schrems, is a bête noire of the EU Commission, after over a decade spent challenging and unpicking both the EU’s rules and third country agreements on data protection.

  • Le choc des capitalismes (politis.fr)

    La mondialisation n’a pas abouti à une convergence vers un modèle uniforme de capitalisme de type occidental.

  • La grande peur nucléaire (blog.mondediplo.net)

    « L’ère des réductions du nombre d’armes nucléaires dans le monde, qui a commencé à la fin de la guerre froide, touche à sa fin », diagnostique Hans M. Kristensen, maître de recherche associé au programme de l’Institut international de recherche sur la paix de Stockholm (SIPRI) sur les armes de destruction massive. « Au lieu de cela, relève-t-il dans le dernier rapport sur les armements mondiaux, nous observons une tendance claire à l’augmentation des arsenaux nucléaires, à l’intensification de la rhétorique nucléaire, et à l’abandon des accords de contrôle des armements ».

  • Le transhumanisme selon Peter Thiel : l’IA, Mars, la géopolitique (legrandcontinent.eu)

    Il n’est d’ailleurs pas convaincu du bien fondé ou de la supériorité de l’IA en soi. Pour lui, l’intérêt est ailleurs : un peu comme un drogue aux effets très durs — même s’il n’utilise pas cette image — il faudrait « l’essayer » car elle permettrait peut-être de retenir la fin. Il le dit presque aussi explicitement ; pour lui, l’IA est une sorte d’excitant : « toutes sortes de choses intéressantes peuvent arriver. Peut-être que, dans un contexte militaire, les drones seront combinés à l’IA. C’est effrayant, dangereux, dystopique. Mais si vous enlevez l’IA, il ne se passe tout simplement plus rien. »

  • The rise of Whatever (eev.ee)

    I think what really gets me here, and what no one really talks about, is that the bar has been revealed to be so low. LLM features get bolted onto fucking everything because what they do, what they really do, at their core, is this : Whatever. They do Whatever. And that’s great, because Whatever is something. There’s no such thing as an error, no empty results page, no such thing as a missing feature or an uncovered case. Almost without fail, you’ll get something. Is it useful ? Is it correct ? Is it remotely based in reality ? Who cares ? Far more important is that there is output. Whatever is apparently better than nothing. Cheap and inoffensive and disposable, like a red beer cup. We are doing to the Internet what we already did to the ocean : filling it with a great swirling vortex of trash.

  • « On ne peut pas s’adapter à une France à +4°C » (lareleveetlapeste.fr)

    Une France à +4 degrés en 2100 correspond à des sécheresses en série, des températures pouvant atteindre 50 degrés, 10 fois plus de jours de vagues de chaleur, un risque de feu de forêt généralisé à l’ensemble du territoire.

  • « Contre les irresponsables », par l’historien Johann Chapoutot (liberation.fr)

    L’antienne du retour des années 30 se révèle au fond commode pour incriminer l’électorat populaire : la crise économique engendre le malheur social qui aboutit à la victoire « des extrêmes ». Autrement dit, la démocratie est un pari risqué, car les gueux se retournent contre elle en votant nazi. Toutes les études montrent le contraire : les nazis n’ont jamais gagné une élection nationale en Allemagne et l’électorat populaire a voté contre eux de manière réitérée. Ce viatique répété à longueur de plateaux est donc faux.

  • La France insoumise, le fascisme et la révolution (lundi.am)

    Quel mouvement révolutionnaire en France ?

  • Le piège des ZRR : entretien avec un collègue (cgt.fercsup.net)

    L’Écho du Sup a rencontré un universitaire dont la collaboration avec un collègue membre d’un labo à Zone à Régime Restrictif (ZRR) a eu des conséquences très lourdes : surveillance, soupçon d’espionnage, plusieurs jours en garde à vue, confiscation de matériel de travail…. Cette histoire kafkaïenne doit nous faire prendre conscience que 1) les choses peuvent aller très loin, 2) c’est un changement profond du fonctionnement académique qui nous est imposé sans forcément qu’on en soit conscient·e.

  • La drépanocytose ou la douleur invisible (laviedesidees.fr)

    On devrait considérer que læ patient·e est guéri·e quand iel n’a plus de douleurs ; or, ce n’est jamais le critère de guérison.

Les BDs/graphiques/photos de la semaine

Les vidéos/podcasts de la semaine

Les trucs chouettes de la semaine

Retrouvez les revues de web précédentes dans la catégorie Libre Veille du Framablog.

Les articles, commentaires et autres images qui composent ces « Khrys’presso » n’engagent que moi (Khrys).

PDF

30.06.2025 à 07:42

Khrys’presso du lundi 30 juin 2025

Khrys

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière. Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer … Lire la suite­­
Texte intégral (8405 mots)

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière.


Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer votre bloqueur de javascript favori ou à passer en “mode lecture” (Firefox) ;-)

Brave New World

Spécial IA

Spécial Palestine et Israël

Spécial Iran et Israël

Spécial femmes dans le monde

Spécial France

Spécial femmes en France

Spécial médias et pouvoir

Spécial emmerdeurs irresponsables gérant comme des pieds (et à la néolibérale)

Spécial recul des droits et libertés, violences policières, montée de l’extrême-droite…

Spécial résistances

Spécial outils de résistance

Spécial GAFAM et cie

Les autres lectures de la semaine

Les BDs/graphiques/photos de la semaine

Les vidéos/podcasts de la semaine

Les trucs chouettes de la semaine

Retrouvez les revues de web précédentes dans la catégorie Libre Veille du Framablog.

Les articles, commentaires et autres images qui composent ces « Khrys’presso » n’engagent que moi (Khrys).

PDF

23.06.2025 à 07:42

Khrys’presso du lundi 23 juin 2025

Khrys

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière. Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer … Lire la suite­­
Texte intégral (9223 mots)

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière.


Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer votre bloqueur de javascript favori ou à passer en “mode lecture” (Firefox) ;-)

Brave New World

Spécial IA

Spécial Palestine et Israël

Spécial Iran et Israël

Spécial femmes dans le monde

Spécial France

Spécial femmes en France

Spécial médias et pouvoir

Spécial emmerdeurs irresponsables gérant comme des pieds (et à la néolibérale)

Spécial recul des droits et libertés, violences policières, montée de l’extrême-droite…

Spécial résistances

Spécial GAFAM et cie

Les autres lectures de la semaine

Les BDs/graphiques/photos de la semaine

Les vidéos/podcasts de la semaine

Les trucs chouettes de la semaine

Retrouvez les revues de web précédentes dans la catégorie Libre Veille du Framablog.

Les articles, commentaires et autres images qui composent ces « Khrys’presso » n’engagent que moi (Khrys).

PDF

22.06.2025 à 09:00

L’IA est une technologie comme les autres

Framasoft

L’IA ne sera pas la révolution que l’on pense. Son déploiement concret va prendre du temps. Elle ne sera pas non plus la menace existentielle qu’on imagine, parce qu’elle ne se développera pas là où les risques de défaillances sont trop importants. L’IA va rester sous contrôle malgré sa diffusion, estiment les chercheurs Arvind Narayanan et Sayash Kapoor dans une mise en perspective stimulante de notre avenir.
Texte intégral (5114 mots)

Cet article est une republication, avec l’accord de l’auteur, Hubert Guillaud. Il a été publié en premier le 03 mars 2025 sur le site Dans Les Algorithmes sous licence CC BY-NC-SA.

Après une vingtaine d’articles republiés tous les dimanches depuis plusieurs mois, nous prenons une pause estivale ! Vous pouvez néanmoins toujours consulter, chaque semaine, les articles proposés par Hubert Guillaud sur le site de Dans Les Algorithmes !


L’IA ne sera pas la révolution que l’on pense. Son déploiement concret va prendre du temps. Elle ne sera pas non plus la menace existentielle qu’on imagine, parce qu’elle ne se développera pas là où les risques de défaillances sont trop importants. L’IA va rester sous contrôle malgré sa diffusion, estiment les chercheurs Arvind Narayanan et Sayash Kapoor dans une mise en perspective stimulante de notre avenir.

 

 

 

 

 

 

Les chercheurs Arvind Narayanan et Sayash Kapoor – dont nous avions chroniqué le livre, AI Snake Oil – signent pour le Knight un long article pour démonter les risques existentiels de l’IA générale. Pour eux, l’IA est une « technologie normale ». Cela ne signifie pas que son impact ne sera pas profond, comme l’électricité ou internet, mais cela signifie qu’ils considèrent « l’IA comme un outil dont nous pouvons et devons garder le contrôle, et nous soutenons que cet objectif ne nécessite ni interventions politiques drastiques ni avancées technologiques ». L’IA n’est pas appelée à déterminer elle-même son avenir, expliquent-ils. Les deux chercheurs estiment que « les impacts économiques et sociétaux transformateurs seront lents (de l’ordre de plusieurs décennies) ».

Selon eux, dans les années à venir « une part croissante du travail des individus va consister à contrôler l’IA ». Mais surtout, considérer l’IA comme une technologie courante conduit à des conclusions fondamentalement différentes sur les mesures d’atténuation que nous devons y apporter, et nous invite, notamment, à minimiser le danger d’une superintelligence autonome qui viendrait dévorer l’humanité.

La vitesse du progrès est plus linéaire qu’on le pense

« Comme pour d’autres technologies à usage général, l’impact de l’IA se matérialise non pas lorsque les méthodes et les capacités s’améliorent, mais lorsque ces améliorations se traduisent en applications et se diffusent dans les secteurs productifs de l’économie  » , rappellent les chercheurs, à la suite des travaux de Jeffrey Ding dans son livre, Technology and the Rise of Great Powers : How Diffusion Shapes Economic Competition (Princeton University Press, 2024, non traduit). Ding y rappelle que la diffusion d’une innovation compte plus que son invention, c’est-à-dire que l’élargissement des applications à d’innombrables secteurs est souvent lent mais décisif. Pour Foreign Affairs, Ding pointait d’ailleurs que l’enjeu des politiques publiques en matière d’IA ne devraient pas être de s’assurer de sa domination sur le cycle d’innovation, mais du rythme d’intégration de l’IA dans un large éventail de processus productifs. L’enjeu tient bien plus à élargir les champs d’application des innovations qu’à maîtriser la course à la puissance, telle qu’elle s’observe actuellement.

En fait, rappellent Narayanan et Kapoor, les déploiements de l’IA seront, comme dans toutes les autres technologies avant elle, progressifs, permettant aux individus comme aux institutions de s’adapter. Par exemple, constatent-ils, la diffusion de l’IA dans les domaines critiques pour la sécurité est lente. Même dans le domaine de « l’optimisation prédictive », c’est-à-dire la prédiction des risques pour prendre des décisions sur les individus, qui se sont multipliées ces dernières années, l’IA n’est pas très présente, comme l’avaient pointé les chercheurs dans une étude. Ce secteur mobilise surtout des techniques statistiques classiques, rappellent-ils. En fait, la complexité et l’opacité de l’IA font qu’elle est peu adaptée pour ces enjeux. Les risques de sécurité et de défaillance font que son usage y produit souvent de piètres résultats. Sans compter que la réglementation impose déjà des procédures qui ralentissent les déploiements, que ce soit la supervision des dispositifs médicaux ou l’IA Act européen. D’ailleurs, “lorsque de nouveaux domaines où l’IA peut être utilisée de manière significative apparaissent, nous pouvons et devons les réglementer ».

Même en dehors des domaines critiques pour la sécurité, l’adoption de l’IA est plus lente que ce que l’on pourrait croire. Pourtant, de nombreuses études estiment que l’usage de l’IA générative est déjà très fort. Une étude très commentée constatait qu’en août 2024, 40 % des adultes américains utilisaient déjà l’IA générative. Mais cette percée d’utilisation ne signifie pas pour autant une utilisation intensive, rappellent Narayanan et Kapoor – sur son blog, Gregory Chatonksy ne disait pas autre chose, distinguant une approche consumériste d’une approche productive, la seconde était bien moins maîtrisée que la première. L’adoption est une question d’utilisation du logiciel, et non de disponibilité, rappellent les chercheurs. Si les outils sont désormais accessibles immédiatement, leur intégration à des flux de travail ou à des habitudes, elle, prend du temps. Entre utiliser et intégrer, il y a une différence que le nombre d’utilisateurs d’une application ne suffit pas à distinguer. L’analyse de l’électrification par exemple montre que les gains de productivité ont mis des décennies à se matérialiser pleinement, comme l’expliquait Tim Harford. Ce qui a finalement permis de réaliser des gains de productivité, c’est surtout la refonte complète de l’agencement des usines autour de la logique des chaînes de production électrifiées.

Les deux chercheurs estiment enfin que nous sommes confrontés à des limites à la vitesse d’innovation avec l’IA. Les voitures autonomes par exemple ont mis deux décennies à se développer, du fait des contraintes de sécurité nécessaires, qui, fort heureusement, les entravent encore. Certes, les choses peuvent aller plus vite dans des domaines non critiques, comme le jeu. Mais très souvent, “l’écart entre la capacité et la fiabilité” reste fort. La perspective d’agents IA pour la réservation de voyages ou le service clients est moins à risque que la conduite autonome, mais cet apprentissage n’est pas simple à réaliser pour autant. Rien n’assure qu’il devienne rapidement suffisamment fiable pour être déployé. Même dans le domaine de la recommandation sur les réseaux sociaux, le fait qu’elle s’appuie sur des modèles d’apprentissage automatique n’a pas supprimé la nécessité de coder les algorithmes de recommandation. Et dans nombre de domaines, la vitesse d’acquisition des connaissances pour déployer de l’IA est fortement limitée en raison des coûts sociaux de l’expérimentation. Enfin, les chercheurs soulignent que si l’IA sait coder ou répondre à des examens, comme à ceux du barreau, mieux que des humains, cela ne recouvre pas tous les enjeux des pratiques professionnelles réelles. En fait, trop souvent, les indicateurs permettent de mesurer les progrès des méthodes d’IA, mais peinent à mesurer leurs impacts ou l’adoption, c’est-à-dire l’intensité de son utilisation. Kapoor et Narayanan insistent : les impacts économiques de l’IA seront progressifs plus que exponentiels. Si le taux de publication d’articles sur l’IA affiche un doublement en moins de deux ans, on ne sait pas comment cette augmentation de volume se traduit en progrès. En fait, il est probable que cette surproduction même limite l’innovation. Une étude a ainsi montré que dans les domaines de recherche où le volume d’articles scientifiques est plus élevé, il est plus difficile aux nouvelles idées de percer.

L’IA va rester sous contrôle

Le recours aux concepts flous d’« intelligence » ou de « superintelligence » ont obscurci notre capacité à raisonner clairement sur un monde doté d’une IA avancée. Assez souvent, l’intelligence elle-même est assez mal définie, selon un spectre qui irait de la souris à l’IA, en passant par le singe et l’humain. Mais surtout, “l’intelligence n’est pas la propriété en jeu pour analyser les impacts de l’IA. C’est plutôt le pouvoir – la capacité à modifier son environnement – ​​qui est en jeu”. Nous ne sommes pas devenus puissants du fait de notre intelligence, mais du fait de la technologie que nous avons utilisée pour accroître nos capacités. La différence entre l’IA et les capacités humaines reposent surtout dans la vitesse. Les machines nous dépassent surtout en termes de vitesse, d’où le fait que nous les ayons développées surtout dans les domaines où la vitesse est en jeu.

“Nous prévoyons que l’IA ne sera pas en mesure de surpasser significativement les humains entraînés (en particulier les équipes humaines, et surtout si elle est complétée par des outils automatisés simples) dans la prévision d’événements géopolitiques (par exemple, les élections). Nous faisons la même prédiction pour les tâches consistant à persuader les gens d’agir contre leur propre intérêt”. En fait, les systèmes d’IA ne seront pas significativement plus performants que les humains agissant avec l’aide de l’IA, prédisent les deux chercheurs.

Mais surtout, insistent-ils, rien ne permet d’affirmer que nous perdions demain la main sur l’IA. D’abord parce que le contrôle reste fort, des audits à la surveillance des systèmes en passant par la sécurité intégrée. “En cybersécurité, le principe du « moindre privilège » garantit que les acteurs n’ont accès qu’aux ressources minimales nécessaires à leurs tâches. Les contrôles d’accès empêchent les personnes travaillant avec des données et des systèmes sensibles d’accéder à des informations et outils confidentiels non nécessaires à leur travail. Nous pouvons concevoir des protections similaires pour les systèmes d’IA dans des contextes conséquents. Les méthodes de vérification formelle garantissent que les codes critiques pour la sécurité fonctionnent conformément à leurs spécifications ; elles sont désormais utilisées pour vérifier l’exactitude du code généré par l’IA.” Nous pouvons également emprunter des idées comme la conception de systèmes rendant les actions de changement d’état réversibles, permettant ainsi aux humains de conserver un contrôle significatif, même dans des systèmes hautement automatisés. On peut également imaginer de nouvelles idées pour assurer la sécurité, comme le développement de systèmes qui apprennent à transmettre les décisions aux opérateurs humains en fonction de l’incertitude ou du niveau de risque, ou encore la conception de systèmes agents dont l’activité est visible et lisible par les humains, ou encore la création de structures de contrôle hiérarchiques dans lesquelles des systèmes d’IA plus simples et plus fiables supervisent des systèmes plus performants, mais potentiellement peu fiables. Pour les deux chercheurs, “avec le développement et l’adoption de l’IA avancée, l’innovation se multipliera pour trouver de nouveaux modèles de contrôle humain.

Pour eux d’ailleurs, à l’avenir, un nombre croissant d’emplois et de tâches humaines seront affectés au contrôle de l’IA. Lors des phases d’automatisation précédentes, d’innombrables méthodes de contrôle et de surveillance des machines ont été inventées. Et aujourd’hui, les chauffeurs routiers par exemple, ne cessent de contrôler et surveiller les machines qui les surveillent, comme l’expliquait Karen Levy. Pour les chercheurs, le risque de perdre de la lisibilité et du contrôle en favorisant l’efficacité et l’automatisation doit toujours être contrebalancée. Les IA mal contrôlées risquent surtout d’introduire trop d’erreurs pour rester rentables. Dans les faits, on constate plutôt que les systèmes trop autonomes et insuffisamment supervisés sont vite débranchés. Nul n’a avantage à se passer du contrôle humain. C’est ce que montre d’ailleurs la question de la gestion des risques, expliquent les deux chercheurs en listant plusieurs types de risques.

La course aux armements par exemple, consistant à déployer une IA de plus en plus puissante sans supervision ni contrôle adéquats sous prétexte de concurrence, et que les acteurs les plus sûrs soient supplantés par des acteurs prenant plus de risques, est souvent vite remisée par la régulation. “De nombreuses stratégies réglementaires sont mobilisables, que ce soient celles axées sur les processus (normes, audits et inspections), les résultats (responsabilité) ou la correction de l’asymétrie d’information (étiquetage et certification).” En fait, rappellent les chercheurs, le succès commercial est plutôt lié à la sécurité qu’autre chose. Dans le domaine des voitures autonomes comme dans celui de l’aéronautique, “l’intégration de l’IA a été limitée aux normes de sécurité existantes, au lieu qu’elles soient abaissées pour encourager son adoption, principalement en raison de la capacité des régulateurs à sanctionner les entreprises qui ne respectent pas les normes de sécurité”. Dans le secteur automobile, pourtant, pendant longtemps, la sécurité n’était pas considérée comme relevant de la responsabilité des constructeurs. Mais petit à petit, les normes et les attentes en matière de sécurité se sont renforcées. Dans le domaine des recommandations algorithmiques des médias sociaux par contre, les préjudices sont plus difficiles à mesurer, ce qui explique qu’il soit plus difficile d’imputer les défaillances aux systèmes de recommandation. “L’arbitrage entre innovation et réglementation est un dilemme récurrent pour l’État régulateur”. En fait, la plupart des secteurs à haut risque sont fortement réglementés, rappellent les deux chercheurs. Et contrairement à l’idée répandue, il n’y a pas que l’Europe qui régule, les États-Unis et la Chine aussi ! Quant à la course aux armements, elle se concentre surtout sur l’invention des modèles, pas sur l’adoption ou la diffusion qui demeurent bien plus déterminantes pourtant.

Répondre aux abus. Jusqu’à présent, les principales défenses contre les abus se situent post-formation, alors qu’elles devraient surtout se situer en aval des modèles, estiment les chercheurs. Le problème fondamental est que la nocivité d’un modèle dépend du contexte, contexte souvent absent du modèle, comme ils l’expliquaient en montrant que la sécurité n’est pas une propriété du modèle. Le modèle chargé de rédiger un e-mail persuasif pour le phishing par exemple n’a aucun moyen de savoir s’il est utilisé à des fins marketing ou d’hameçonnage ; les interventions au niveau du modèle seraient donc inefficaces. Ainsi, les défenses les plus efficaces contre le phishing ne sont pas les restrictions sur la composition des e-mails (qui compromettraient les utilisations légitimes), mais plutôt les systèmes d’analyse et de filtrage des e-mails qui détectent les schémas suspects, et les protections au niveau du navigateur. Se défendre contre les cybermenaces liées à l’IA nécessite de renforcer les programmes de détection des vulnérabilités existants plutôt que de tenter de restreindre les capacités de l’IA à la source. Mais surtout, “plutôt que de considérer les capacités de l’IA uniquement comme une source de risque, il convient de reconnaître leur potentiel défensif. En cybersécurité, l’IA renforce déjà les capacités défensives grâce à la détection automatisée des vulnérabilités, à l’analyse des menaces et à la surveillance des surfaces d’attaque”.Donner aux défenseurs l’accès à des outils d’IA puissants améliore souvent l’équilibre attaque-défense en leur faveur”. En modération de contenu, par exemple, on pourrait mieux mobiliser l’IA peut aider à identifier les opérations d’influence coordonnées. Nous devons investir dans des applications défensives plutôt que de tenter de restreindre la technologie elle-même, suggèrent les chercheurs.

Le désalignement. Une IA mal alignée agit contre l’intention de son développeur ou de son utilisateur. Mais là encore, la principale défense contre le désalignement se situe en aval plutôt qu’en amont, dans les applications plutôt que dans les modèles. Le désalignement catastrophique est le plus spéculatif des risques, rappellent les chercheurs. “La crainte que les systèmes d’IA puissent interpréter les commandes de manière catastrophique repose souvent sur des hypothèses douteuses quant au déploiement de la technologie dans le monde réel”. Dans le monde réel, la surveillance et le contrôle sont très présents et l’IA est très utile pour renforcer cette surveillance et ce contrôle. Les craintes liées au désalignement de l’IA supposent que ces systèmes déjouent la surveillance, alors que nous avons développés de très nombreuses formes de contrôle, qui sont souvent d’autant plus fortes et redondantes que les décisions sont importantes.

Les risques systémiques. Si les risques existentiels sont peu probables, les risques systémiques, eux, sont très courants. Parmi ceux-ci figurent “l’enracinement des préjugés et de la discrimination, les pertes d’emplois massives dans certaines professions, la dégradation des conditions de travail, l’accroissement des inégalités, la concentration du pouvoir, l’érosion de la confiance sociale, la pollution de l’écosystème de l’information, le déclin de la liberté de la presse, le recul démocratique, la surveillance de masse et l’autoritarisme”. “Si l’IA est une technologie normale, ces risques deviennent bien plus importants que les risques catastrophiques évoqués précédemment”. Car ces risques découlent de l’utilisation de l’IA par des personnes et des organisations pour promouvoir leurs propres intérêts, l’IA ne faisant qu’amplifier les instabilités existantes dans notre société. Nous devrions bien plus nous soucier des risques cumulatifs que des risques décisifs.

Politiques de l’IA

Narayanan et Kapoor concluent leur article en invitant à réorienter la régulation de l’IA, notamment en favorisant la résilience. Pour l’instant, l’élaboration des politiques publiques et des réglementations de l’IA est caractérisée par de profondes divergences et de fortes incertitudes, notamment sur la nature des risques que fait peser l’IA sur la société. Si les probabilités de risque existentiel de l’IA sont trop peu fiables pour éclairer les politiques, il n’empêche que nombre d’acteurs poussent à une régulation adaptée à ces risques existentiels. Alors que d’autres interventions, comme l’amélioration de la transparence, sont inconditionnellement utiles pour atténuer les risques, quels qu’ils soient. Se défendre contre la superintelligence exige que l’humanité s’unisse contre un ennemi commun, pour ainsi dire, concentrant le pouvoir et exerçant un contrôle centralisé sur l’IA, qui risque d’être un remède pire que le mal. Or, nous devrions bien plus nous préoccuper des risques cumulatifs et des pratiques capitalistes extractives que l’IA amplifie et qui amplifient les inégalités. Pour nous défendre contre ces risques-ci, pour empêcher la concentration du pouvoir et des ressources, il nous faut rendre l’IA puissante plus largement accessible, défendent les deux chercheurs.

Ils recommandent d’ailleurs plusieurs politiques. D’abord, améliorer le financement stratégique sur les risques. Nous devons obtenir de meilleures connaissances sur la façon dont les acteurs malveillants utilisent l’IA et améliorer nos connaissances sur les risques et leur atténuation. Ils proposent également d’améliorer la surveillance des usages, des risques et des échecs, passant par les déclarations de transparences, les registres et inventaires, les enregistrements de produits, les registres d’incidents (comme la base de données d’incidents de l’IA) ou la protection des lanceurs d’alerte… Enfin, ils proposent que les “données probantes” soient un objectif prioritaire, c’est-à-dire d’améliorer l’accès de la recherche.

Dans le domaine de l’IA, la difficulté consiste à évaluer les risques avant le déploiement. Pour améliorer la résilience, il est important d’améliorer la responsabilité et la résilience, plus que l’analyse de risque, c’est-à-dire des démarches de contrôle qui ont lieu après les déploiements. “La résilience exige à la fois de minimiser la gravité des dommages lorsqu’ils surviennent et la probabilité qu’ils surviennent.” Pour atténuer les effets de l’IA nous devons donc nous doter de politiques qui vont renforcer la démocratie, la liberté de la presse ou l’équité dans le monde du travail. C’est-à-dire d’améliorer la résilience sociétale au sens large.

Pour élaborer des politiques technologiques efficaces, il faut ensuite renforcer les capacités techniques et institutionnelles de la recherche, des autorités et administrations. Sans personnels compétents et informés, la régulation de l’IA sera toujours difficile. Les chercheurs invitent même à “diversifier l’ensemble des régulateurs et, idéalement, à introduire la concurrence entre eux plutôt que de confier la responsabilité de l’ensemble à un seul régulateur”.

Par contre, Kapoor et Narayanan se défient fortement des politiques visant à promouvoir une non-prolifération de l’IA, c’est-à-dire à limiter le nombre d’acteurs pouvant développer des IA performantes. Les contrôles à l’exportation de matériel ou de logiciels visant à limiter la capacité des pays à construire, acquérir ou exploiter une IA performante, l’exigence de licences pour construire ou distribuer une IA performante, et l’interdiction des modèles d’IA à pondération ouverte… sont des politiques qui favorisent la concentration plus qu’elles ne réduisent les risques. “Lorsque de nombreuses applications en aval s’appuient sur le même modèle, les vulnérabilités de ce modèle peuvent être exploitées dans toutes les applications”, rappellent-ils.

Pour les deux chercheurs, nous devons “réaliser les avantages de l’IA”, c’est-à-dire accélérer l’adoption des bénéfices de l’IA et atténuer ses inconvénients. Pour cela, estiment-ils, nous devons être plus souples sur nos modalités d’intervention. Par exemple, ils estiment que pour l’instant catégoriser certains domaines de déploiement de l’IA comme à haut risque est problématique, au prétexte que dans ces secteurs (assurance, prestation sociale ou recrutement…), les technologies peuvent aller de la reconnaissance optique de caractères, relativement inoffensives, à la prise de décision automatisées dont les conséquences sont importantes. Pour eux, il faudrait seulement considérer la prise de décision automatisée dans ces secteurs comme à haut risque.

Un autre enjeu repose sur l’essor des modèles fondamentaux qui a conduit à une distinction beaucoup plus nette entre les développeurs de modèles, les développeurs en aval et les déployeurs (parmi de nombreuses autres catégories). Une réglementation insensible à ces distinctions risque de conférer aux développeurs de modèles des responsabilités en matière d’atténuation des risques liés à des contextes de déploiement particuliers, ce qui leur serait impossible en raison de la nature polyvalente des modèles fondamentaux et de l’imprévisibilité de tous les contextes de déploiement possibles.

Enfin, lorsque la réglementation établit une distinction binaire entre les décisions entièrement automatisées et celles qui ne le sont pas, et ne reconnaît pas les degrés de surveillance, elle décourage l’adoption de nouveaux modèles de contrôle de l’IA. Or de nombreux nouveaux modèles sont proposés pour garantir une supervision humaine efficace sans impliquer un humain dans chaque décision. Il serait imprudent de définir la prise de décision automatisée de telle sorte que ces approches engendrent les mêmes contraintes de conformité qu’un système sans supervision. Pour les deux chercheurs, “opposer réglementation et diffusion est un faux compromis, tout comme opposer réglementation et innovation”, comme le disait Anu Bradford. Pour autant, soulignent les chercheurs, l’enjeu n’est pas de ne pas réguler, mais bien de garantir de la souplesse. La législation garantissant la validité juridique des signatures et enregistrement électroniques promulguée en 2000 aux Etats-Unis a joué un rôle déterminant dans la promotion du commerce électronique et sa diffusion. La législation sur les petits drones mise en place par la Federal Aviation Administration en 2016 a permis le développement du secteur par la création de pilotes certifiés. Nous devons trouver pour l’IA également des réglementations qui favorisent sa diffusion, estiment-ils. Par exemple, en facilitant “la redistribution des bénéfices de l’IA afin de les rendre plus équitables et d’indemniser les personnes qui risquent de subir les conséquences de l’automatisation. Le renforcement des filets de sécurité sociale contribuera à atténuer l’inquiétude actuelle du public face à l’IA dans de nombreux pays”. Et les chercheurs de suggérer par exemple de taxer les entreprises d’IA pour soutenir les industries culturelles et le journalisme, mis à mal par l’IA. En ce qui concerne l’adoption par les services publics de l’IA, les gouvernements doivent trouver le juste équilibre entre une adoption trop précipitée qui génère des défaillances et de la méfiance, et une adoption trop lente qui risque de produire de l’externalisation par le secteur privé.

PDF
6 / 20
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Monde Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
 
  ARTS
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
Fiabilité 3/5
Slate
Ulyces
 
Fiabilité 1/5
Contre-Attaque
Issues
Korii
Positivr
Regain
🌓