14.02.2025 à 07:03
Derrière une poignée d’ingénieurs, 150 à 430 millions de travailleurs de la donnée à travers le monde font tourner les IA. Un système d’exploitation bien rodé, une méthode de redistribution de la violence des comportements humains du Nord pour les faire nettoyer par ceux du Sud et leur en laisser les conséquences psychologiques. Les profits pour les uns, les sacrifices pour les autres. L’impérialisme est toujours là, au mépris des droits humains et des droits du travail, tout simplement parce que ce mépris permet d’augmenter les profits.
Prenez le temps de regarder le documentaire les Sacrifiés de l’IA.
14.02.2025 à 07:00
L’arsenal technologique pour réprimer l’immigration aux Etats-Unis est prêt !
Applications et bracelets électroniques qui suivent les demandeurs d’asile en temps réel où qu’ils aillent. Bases de données remplies d’informations personnelles comme les empreintes digitales et les visages. Outils d’enquête qui peuvent pénétrer dans des téléphones et rechercher dans des gigaoctets d’e-mails, de messages texte et d’autres fichiers. Ces éléments font partie de l’arsenal technologique dont dispose le président Trump pour lutter contre l’immigration illégale et mener à bien la plus grande opération d’expulsion de l’histoire américaine, explique le New York Times. Quelques 15 000 contrats ont été passé par les agences des douanes et de l’immigration amércaines, soit 7,8 milliards de dollars dépensés en technologies contre l’immigration auprès de 263 entreprises depuis 2020.
D’autres systèmes comparent les données biométriques aux casiers judiciaires, alertent les agents des changements d’adresse, suivent les voitures avec des lecteurs de plaques d’immatriculation et extraient et analysent les données des téléphones, des disques durs et des voitures. L’administration Biden a utilisé bon nombre de ces technologies pour faire respecter la législation sur l’immigration, notamment dans le cadre d’enquêtes sur le trafic de drogue, le trafic d’êtres humains et les activités des gangs transnationaux, pour répondre à une pénurie d’agents et d’installations de détentions. Pour le NYTimes, le boom des technologies sécuritaires n’a pas connu de repos depuis 2001 et devrait s’envoler sous Trump. Les entreprises qui fournissent des solutions, comme Palantir, Clearview, Cellbrite, Lexis Nexis, Thomson Reuters ou Geo Group sont sur les rangs. Leurs actions sur les marchés ont toutes augmentées depuis l’élection de Trump.
Environ 180 000 immigrants sans papiers portent un bracelet à la cheville avec un dispositif de localisation GPS, ou utilisent une application appelée SmartLink qui les oblige à enregistrer leurs allées et venues au moins une fois par jour. Fabriquée par une filiale de Geo Group, cette technologie est utilisée dans un programme lancé en 2004 appelé Alternatives to Detention.
Reste que « certains outils sont parfois pertinents pour les enquêtes ciblées, pas pour les expulsions généralisées », a déclaré Dave Maass, le directeur des enquêtes de l’Electronic Frontier Foundation, l’association de défense des libertés civiles. « Ce que les services de l’immigration achètent et ce qui est réellement utile peuvent être des choses totalement différentes ». La seule chose certaine, c’est que les entreprises du secteur vont gagner beaucoup d’argent.
13.02.2025 à 07:03
De la difficulté à évaluer l’IA
Les chercheurs ont désormais du mal à créer des tests que les systèmes d’IA ne peuvent pas réussir. La plupart des tests dont nous disposions sont vites devenus caducs, explique Kevin Roose pour le New York Times. Des chercheurs du Center for AI Safety et de Scale AI viennent de publier un nouveau test d’évaluation baptisé « Humanity’s Last Exam », imaginé par Dan Hendrycks, directeur du Center for AI Safety. Le test consiste en un questionnaire à choix multiple de plus de 3000 questions qui ont chacune été produites par des experts en leur domaine, à qui on a demandé de proposer des questions extrêmement difficile dont ils connaissaient la réponse.
Il existe bien sûr d’autres tests qui tentent de mesurer les capacités avancées de l’IA dans certains domaines, tels que FrontierMath, un test développé par Epoch AI, et ARC-AGI, un test développé par le chercheur François Chollet. Mais celui de AI Safety s’imagine surtout comme un score d’intelligence générale du fait de la complexité et de la grande diversité des questions. « Une fois la liste des questions établie, les chercheurs ont soumis le dernier examen de l’humanité à six modèles d’IA de premier plan, dont Gemini 1.5 Pro de Google et Claude 3.5 Sonnet d’Anthropic. Tous ont échoué lamentablement. Le système o1 d’OpenAI a obtenu le score le plus élevé du groupe, avec un score de 8,3 % ». Mais ces résultats devraient bouger très vite.
Nous devrons chercher d’autres moyens d’évaluer les performances de l’IA que de savoir à quoi elles peuvent répondre, suggère Roose. Comme de mieux mesurer leurs impacts, comme d’examiner les données économiques qu’elles peuvent traiter ou juger si elle peut faire de nouvelles découvertes dans des domaines comme les mathématiques et les sciences. Pour Summer Yue, directrice de recherche chez Scale AI, un autre test pourrait consister à « poser des questions dont nous ne connaissons pas encore les réponses, et vérifier si le modèle est capable de nous aider à les résoudre ».
Les progrès de l’IA actuelle sont déroutants car ils sont très irréguliers, rappelle Kevin Roose. L’IA peut être très performante sur certains sujets et les mêmes modèles peuvent avoir du mal à effectuer des tâches de base, comme l’écriture de poésie rythmée. Et cela créé une perception de ses améliorations différenciée, selon que l’on regarde ses meilleurs résultats ou les pires. Cette irrégularité rend également l’évaluation de l’IA difficile. L’année dernière, Kevin Roose expliquait déjà que nous avions besoin de meilleures évaluations des systèmes d’IA, mais selon lui, nous avons aussi besoin de méthodes plus créatives que des tests standardisés que l’IA réussi plutôt bien. Si l’IA peut être impressionnante, même pour répondre à des questions complexes, ses réponse ne suffisent pas. L’un des experts en physique théorique des particules qui a soumis des questions au dernier test de l’humanité, explique que, quand bien même l’IA serait capable de répondre à toutes les questions sur nos connaissance, le travail humain ne se limite pas à fournir des réponses correctes. En médecine par exemple, les machines deviennent de plus en plus performantes pour produire des diagnostics automatisés, mais cela ne signifie pas qu’on puisse remplacer les médecins, rappelait le New Scientist. Parce que le diagnostic ne se limite pas toujours à des données. Ensuite parce que la relation est certainement plus essentielle qu’on ne la mesure. Enfin, parce que les symptômes eux-mêmes sont rarement clairs.
Le problème, conclut le New Scientist, c’est que les qualités comme les limites des diagnostics automatisés ne sont pas le seul facteur qui entre en ligne de compte dans l’automatisation. L’état du système de santé, ses défaillances, ses coûts, la disponibilité du personnel… sont autant de facteurs qui vont appuyer sur les choix à recourir et à déployer les outils, mêmes imparfaits. Bref, l’évaluation de l’IA ne peut se faire dans une boîte de Pétri.