LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Science – The Conversation
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

▸ les 25 dernières parutions

06.11.2024 à 14:37

IRIS²: the new satellite constellation aimed at ensuring communications autonomy for the EU

DIRIS Jean-Pierre, Coordinateur interministériel IRS ² et GOVSATCOM, Centre national d’études spatiales (CNES)

Europe’s first multi-orbital satellite network aims to provide secure EU governmental communications. It will consist of some 300 satellites and is scheduled for full implementation by 2030.
Texte intégral (1161 mots)

The ongoing transition to a digital economy has already had one observable consequence: a sharp rise in the need for connectivity enabling rapid data transmission. In a global market where connectivity offers are evolving quickly, satellites are now achieving technical and economic performances close to those of terrestrial solutions. The enormous advantage is their steady deployment cost, whatever the geographical area, and particularly in “white” zones not covered by terrestrial infrastructures.

The European IRIS² satellite constellation (is part of this transition, which requires more and more data-sharing infrastructure – currently dominated by US players. A satellite constellation enables different users to be connected via multiple satellites, providing a continuous and complete coverage of the planet.

Telecommunications: a strategic challenge for Europe

With several public (China, US) and private (Oneweb, Starlink and Kuiper) constellation initiatives being developed and put into service to meet data processing and connectivity needs, the telecommunications sector is more strategic than ever for France and Europe. The IRIS2 programme is designed to meet this challenge.

After some attempts in the early 2000s, constellations have finally emerged, and projects are now credible and largely financed by public and private funds. Several factors have contributed to this emergence: advances in electronic miniaturisation, the performance of integrated digital components, the drastic reduction in launch costs and the industrial capacity to produce satellites in small series at lower cost.

Faced with the development of satellite telecommunications in low earth orbit (an area of the earth’s orbit up to 2,000 kilometres above sea level), the European Commission has adopted an approach, involving both the public and private sectors, that aims to strengthen Europe’s position in the constellation race to benefit European citizens and their institutions.

Some 300 satellites

The European Union’s secure connectivity satellite constellation programme was decided on in March 2023. IRIS2 (Infrastructure for Resilience, Interconnectivity and Security by Satellite) will be the first multi-orbital satellite network in Europe. Some 300 satellites will be designed, manufactured and deployed in the first phase.

The constellation will provide a secure communications infrastructure for EU government bodies and agencies. The various communication links between users and the satellite command and control links will be protected, and the ground infrastructure will be secured.

The system will guarantee the EU’s strategic autonomy in the field of secure government communications. IRIS2 will also provide commercial services and seek to maximise synergies between government and commercial infrastructures. The constellation will strengthen the position of Europe, its industries and its operators in the world.

IRIS2 is associated with the EU’s existing GOVSATCOM programme, which provides secure government communications based on capacity from licensed operators or member states.

The EU funds IRIS2 with €2.4 billion under the Multiannual Financial Framework (MFF) 2021-2027; additional funding is being considered under the MFF 2028-2035. The funding is complemented by the European Space Agency (ESA) with €600 million (subscribed to in the ESA’s ministerial conference of November 2022), and by private commercial players under a concession contract.

Following validation of the EU’s regulation on the secure connectivity constellation programme in March 2023, the European Commission launched a call for tenders for the main IRIS2 development contract in May 2023. The tender was finalised by a consortium of three operators (Eutelsat, SES and Hispasat) associated with industrial subcontracting partners (Airbus, Thales, OHB, Deutsche Telekom and Orange) for a bid submission on September 2, 2024. The European Commission has examined the offer and just confirmed the contract award, with a view to sign the 12-year IRIS2 concession contract before the end of 2024.

An accessible service

In summer 2023, the European Commission launched a call for tenders to host the constellation’s ground infrastructure, and in April 2024 selected France (Toulouse) Italy (Fucino) and Luxembourg (Bettembourg) to host the IRIS2 control centres.

France’s former prime minister Elisabeth Borne decided to set up a French interministerial coordination for IRIS2 and GOVSATCOM, for which I have been tasked as coordinator, with the participation of representatives from the various ministries and agencies. The main objectives are to coordinate all French activities contributing to the development and operation of these programmes, to ensure a continuous relationship with European contacts (EU, ESA and the European Union Agency for the Space Programme) and to lead the French community of users of the connectivity provided by these programmes.

The aim of IRIS2 is to provide an autonomous and sovereign digital service to every member state of the European Union. Nowadays, space connectivity is indispensable, as it is the most reliable option when terrestrial telecommunication systems do not exist or have been damaged by a conflict or natural disaster, for example.

The programme will provide a wide variety of services to European governments and citizens. The system enables surveillance of borders and remote areas. The programme is indispensable for civil protection, particularly in the event of crises or natural disasters. It improves the delivery of humanitarian aid and the management of maritime emergencies, whether for search or rescue. Numerous smart connected networks – energy, finance, healthcare, data centres, etc. – will be monitored thanks to the connectivity provided by IRIS2. The system will also enable the management of various infrastructures: air, rail, road and vehicle traffic. Added to this are institutional telecoms services for embassies, for example, and new telemedicine services for intervention in isolated areas. Finally, IRIS2 will improve connectivity in areas of strategic interest for foreign security and defence policy: Europe, the Middle East, Africa, the Arctic, the Atlantic and Baltic regions, the Black Sea and the Mediterranean Sea.

The constellation’s satellites will be placed in two different orbits: low (up to 2,000 kilometres) and medium (between 2,000 and 35,786 km). By covering this range, IRIS2 will be able to provide low-latency communications services – i.e., ultra-fast information transmission comparable to the performance of terrestrial networks – and to complement other European space programmes.

IRIS2 is based on advanced technologies, with a relatively limited number of satellites compared with mega-constellations, which consist of many thousands. Its satellites will be designed to meet the environmental and regulatory standards of Europe’s future space law.

The Conversation

DIRIS Jean-Pierre ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

05.11.2024 à 16:07

Pourrait-il y avoir une « planète X » cachée dans notre système solaire ?

Sara Webb, Lecturer, Centre for Astrophysics and Supercomputing, Swinburne University of Technology

La présence d’une neuvième planète expliquerait les orbites de certains objets en périphérie du système solaire.
Texte intégral (1607 mots)

En analysant les mouvements de certains objets du système solaire situés au-delà de Pluton, on note que les observations ne collent pas avec la théorie et que l’explication la plus simple serait la présence d’une neuvième planète. Les astronomes mènent l’enquête.


Notre système solaire est un endroit particulièrement encombré. Des millions d’objets s’y déplacent, qu’il s’agisse de planètes, de lunes, de comètes ou d’astéroïdes. Et chaque année, nous découvrons de plus en plus d’objets (généralement de petits astéroïdes ou des comètes) qui élisent domicile dans le système solaire.

En 1846, les astronomes avaient déjà trouvé les huit planètes principales. Mais cela n’a pas empêché les scientifiques d’en chercher d’autres. Au cours des 100 dernières années, nous avons découvert des corps lointains plus petits que nous appelons planètes naines, ce qui correspond à la classification actuelle de Pluton.


Chaque semaine, nos scientifiques répondent à vos questions.

N’hésitez pas à nous écrire pour poser la vôtre et nous trouverons la meilleure personne pour vous répondre.

Et bien sûr, les questions bêtes, ça n’existe pas !


La découverte de certaines de ces planètes naines nous a donné des raisons de penser que quelque chose d’autre pourrait se cacher à la périphérie du système solaire.

Un neuvième planète ?

Ce n’est pas pour rien que les astronomes passent des centaines d’heures à essayer de localiser une neuvième planète, ou « planète X ». En effet, le système solaire tel que nous le connaissons n’a pas vraiment de sens sans elle.

Tous les objets du système solaire tournent autour du Soleil. Certains se déplacent rapidement, d’autres lentement, mais tous obéissent aux lois de la gravité. Tout ce qui a une masse est soumis à la gravité, y compris vous et moi. Plus un objet est lourd, plus il est soumis à la gravité.

La gravité d’une planète est si importante qu’elle influe sur la façon dont les choses se déplacent autour d’elle. C’est ce que nous appelons son « attraction gravitationnelle ». L’attraction gravitationnelle de la Terre est ce qui maintient tout sur le sol.

Par ailleurs, notre Soleil exerce la plus forte attraction gravitationnelle de tous les objets du système solaire, et c’est essentiellement pour cette raison que les planètes gravitent autour de lui.

C’est grâce à notre compréhension de l’attraction gravitationnelle que nous obtenons notre plus grand indice sur la possibilité d’une Planète X.

Des comportements inattendus

Lorsque l’on observe des objets très éloignés, tels que les planètes naines situées au-delà de Pluton, on constate que leurs orbites sont quelque peu inattendues. Elles se déplacent sur de très grandes orbites elliptiques (en forme d’ovale) et sont groupées.

Lorsque les astronomes utilisent des ordinateurs pour modéliser les forces gravitationnelles nécessaires pour que ces objets se déplacent ainsi, ils découvrent qu’il aurait fallu une planète d’une masse au moins dix fois supérieure à celle de la Terre pour provoquer ce phénomène.

Si la planète X existe, il s’agit probablement d’une géante gazeuse comme Neptune. NASA/Caltech/R. Hurt (IPAC), CC BY

C’est fascinant, mais la question qui se pose alors est la suivante : où se trouve cette planète ?

Le problème qui se pose aujourd’hui est d’essayer de confirmer que ces prédictions et ces modèles sont corrects. Le seul moyen d’y parvenir est de trouver la planète X, ce qui est certainement plus facile à dire qu’à faire.

La chasse continue

Les scientifiques du monde entier sont à la recherche de preuves visibles de la présence de la planète X depuis de nombreuses années.

D’après les modèles informatiques, on pense que la planète X est au moins 20 fois plus éloignée du Soleil que Neptune. On essaie de la détecter en recherchant la lumière solaire qu’elle peut refléter, tout comme la Lune brille grâce à la lumière solaire réfléchie la nuit.

Moon shining in full
La Lune brille la nuit parce qu’elle reflète la lumière du Soleil. S’il existe une planète X,on espère que la lumière qu’elle réfléchit nous permettra de la trouver. Shutterstock

Cependant, comme la planète X se trouve très loin du Soleil, on s’attend à ce qu’elle soit très peu lumineuse et difficile à repérer, même pour les meilleurs télescopes de la Terre. De plus, on ne peut pas la chercher à n’importe quel moment de l’année.

On ne dispose que de petites fenêtres nocturnes où les conditions doivent être parfaitement réunies. Plus précisément, il faut attendre une nuit sans Lune et où l’endroit d’où nous observons est orienté vers la bonne partie du ciel.

Mais ne perdez pas espoir pour autant. Au cours de la prochaine décennie, de nouveaux télescopes seront construits et de nouvelles études du ciel seront lancées. Ils nous donneront peut-être l’occasion de prouver ou d’infirmer l’existence de la planète X.

The Conversation

Sara Webb ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

04.11.2024 à 17:18

La société est biaisée, et cela biaise les IA… voici des pistes de solutions pour une IA vertueuse et une société plus inclusive

Sara Bouchenak, Professeure d'Informatique - INSA Lyon, INSA Lyon – Université de Lyon

Parfois, résoudre un problème apporte d’autres complications. C’est le cas quand on cherche à combiner confidentialité des données sensibles et intelligence artificielle non biaisée.
Texte intégral (2061 mots)
Les stéréotypes s'immiscent dans les modèles d'intelligence artificielle. Amir Geshani, Unsplash, CC BY

Les données utilisées pour entraîner les IA reflètent les stéréotypes et les préjugés de la société, par exemple envers des groupes sous-représentés. Pour conserver la confidentialité de données sensibles, comme les données de santé, tout en garantissant qu’elles ne sont pas biaisées, il faut adapter les méthodes d’apprentissage.


Plusieurs scandales ont éclaté ces dernières années, mettant en cause des systèmes d’aide à la décision basés sur l’intelligence artificielle (IA) qui produisent des résultats racistes ou sexistes.

C’était le cas, par exemple, de l’outil de recrutement d’Amazon qui exhibait des biais à l’encontre des femmes, ou encore du système guidant les soins hospitaliers dans un hôpital américain qui privilégiait systématiquement les patient de couleur blanche par rapport aux patients noirs. En réponse au problème de biais dans l’IA et les algorithmes d’apprentissage automatique, des législations ont été proposées, telles que le AI Act dans l’Union européenne, ou le National AI Initiative Act aux États-Unis.

Un argument largement repris concernant la présence de biais dans l’IA et les modèles d’apprentissage automatique est que ces derniers ne font que refléter une vérité de terrain : les biais sont présents dans les données réelles. Par exemple, des données de patients ayant une maladie touchant spécifiquement les hommes résultent en une IA biaisée envers les femmes, sans que cette IA ne soit pour autant incorrecte.

Si cet argument est valide dans certains cas, il existe de nombreux cas où les données ont été collectées de manière incomplète et ne reflètent pas la diversité de la réalité terrain, ou encore des données qui incluent des cas statistiquement rares et qui vont être sous-représentés, voire non représentés dans les modèles d’apprentissage automatique. C’est le cas, par exemple, de l’outil de recrutement d’Amazon qui exhibait un biais envers les femmes : parce que les femmes travaillant dans un secteur sont statistiquement peu nombreuses, l’IA qui en résulte rejette tout simplement les candidatures féminines.


À lire aussi : Le cruel dilemme des données de santé à l’ère de l’IA : vie privée ou équité ?


Et si plutôt que refléter, voire exacerber une réalité actuelle dysfonctionnelle, l’IA pouvait être vertueuse et servir à corriger les biais dans la société, pour une société plus inclusive ? C’est ce que proposent les chercheurs avec une nouvelle approche : l’« apprentissage fédéré ».

Vers une IA décentralisée

Les systèmes d’aide à la décision basés sur l’IA se basent sur des données. En effet, dans les approches classiques d’apprentissage automatique, les données provenant de plusieurs sources doivent tout d’abord être transmises à un dépôt (par exemple, un serveur sur le cloud) qui les centralise, avant d’exécuter un algorithme d’apprentissage automatique sur ces données centralisées.

Or ceci soulève des questions de protection des données. En effet, conformément à la législation en vigueur, un hôpital n’a pas le droit d’externaliser les données médicales sensibles de ses patients, une banque n’a pas le droit d’externaliser les informations privées des transactions bancaires de ses clients.


À lire aussi : Emploi, sécurité, justice : d’où viennent les « biais » des IA et peut-on les éviter ?


Par conséquent, pour mieux préserver la confidentialité des données dans les systèmes d’IA, les chercheurs développent des approches basées sur une IA dite « distribuée », où les données restent sur les sites possesseurs de données, et où les algorithmes d’apprentissage automatique s’exécutent de manière distribuée sur ces différents sites – on parle également d’« apprentissage fédéré ».

Concrètement, chaque possesseur de données (participant à l’apprentissage fédéré) entraîne un modèle local sur la base de ses propres données, puis transmet les paramètres de son modèle local à une entité tierce qui effectue l’agrégation des paramètres de l’ensemble des modèles locaux (par exemple, via une moyenne pondérée selon le volume de données de chaque participant). Cette dernière entité produit alors un modèle global qui sera utilisé par les différents participants pour effectuer leurs prédictions.

Ainsi, il est possible de construire une connaissance globale à partir des données des uns et des autres, sans pour autant révéler ses propres données et sans accéder aux données des autres. Par exemple, les données médicales des patients restent dans chaque centre hospitalier les possédant, et ce sont les algorithmes d’apprentissage fédéré qui s’exécutent et se coordonnent entre ces différents sites.

Avec une telle approche, il sera possible pour un petit centre hospitalier dans une zone géographique moins peuplée que les grandes métropoles – et donc possédant moins de données médicales que dans les grands centres hospitaliers, et par conséquent, possédant a priori une IA moins bien entraînée – de bénéficier d’une IA reflétant une connaissance globale, entraînée de manière décentralisée sur les données des différents centres hospitaliers.

D’autres cas d’applications similaires peuvent être mentionnés, impliquant plusieurs banques pour construire une IA globale de détection de fraudes, plusieurs bâtiments intelligents pour déterminer une gestion énergétique appropriée, etc.

Les biais dans l’IA décentralisée sont plus complexes à appréhender

Comparé à l’approche classique d’apprentissage automatique centralisé, l’IA décentralisée et ses algorithmes d’apprentissage fédéré peuvent, d’une part, exacerber encore plus le biais, et d’autre part, rendre le traitement du biais plus difficile.

En effet, les données locales des participants à un système d’apprentissage fédéré peuvent avoir des distributions statistiques très hétérogènes (des volumes de données différents, des représentativités différentes de certains groupes démographiques, etc.). Un participant contribuant à l’apprentissage fédéré avec un grand volume de données aura plus d’influence sur le modèle global qu’un participant avec un faible volume de données. Si ce dernier est dans d’une certaine zone géographique qui représente un groupe social en particulier, celui-ci ne sera malheureusement pas, ou très peu, reflété dans le modèle global.

Par ailleurs, la présence de biais dans les données d’un des participants à un système d’apprentissage fédéré peut entraîner la propagation de ce biais vers les autres participants via le modèle global. En effet, même si un participant a veillé à avoir des données locales non biaisées, il héritera du biais présent chez d’autres.

Et plus difficiles à corriger

De plus, les techniques classiquement utilisées pour prévenir et corriger le biais dans le cas centralisé ne peuvent pas s’appliquer directement à l’apprentissage fédéré. En effet, l’approche classique de correction du biais consiste principalement à prétraiter les données avant l’apprentissage automatique pour que les données aient certaines propriétés statistiques et ne soient donc plus biaisées ?


À lire aussi : Apprendre à désapprendre : le nouveau défi de l’intelligence artificielle


Or dans le cas d’une IA décentralisée et d’apprentissage fédéré, il n’est pas possible d’accéder aux données des participants, ni d’avoir une connaissance des statistiques globales des données décentralisées.

Dans ce cas, comment traiter le biais dans les systèmes d’IA décentralisée ?

Mesurer le biais de l’IA sans avoir accès aux données décentralisées

Une première étape est de pouvoir mesurer les biais des données décentralisées chez les participants à l’apprentissage fédéré, sans avoir directement accès à leurs données.

Avec mes collègues, nous avons conçu une nouvelle méthode pour mesurer et quantifier les biais dans les systèmes d’apprentissage fédéré, sur la base de l’analyse des paramètres des modèles locaux des participants à l’apprentissage fédéré. Cette méthode a l’avantage d’être compatible avec la protection des données des participants, tout en permettant la mesure de plusieurs métriques de biais.

Capturer l’interdépendance entre plusieurs types de biais, et les corriger dans l’IA décentralisée

Mais il peut aussi y avoir plusieurs types de biais démographiques, qui se déclinent selon différents attributs sensibles (le genre, la race, l’âge, etc.), et nous avons démontré qu’atténuer un seul type de biais peut avoir pour effet collatéral l’augmentation d’un autre type de biais. Il serait alors dommage qu’une solution d’atténuation du biais lié à la race, par exemple, provoque une exacerbation du biais lié au genre.

Nous avons alors proposé une méthode multi-objectifs pour la mesure complète des biais et le traitement conjoint et cohérent de plusieurs types de biais survenant dans les systèmes d’apprentissage fédéré.


Ces travaux sont le fruit d’une collaboration avec des collègues chercheurs, doctorants et stagiaires : Pascal Felber, (Université de Neuchâtel), Valerio Schiavoni (Université de Neuchâtel), Angela Bonifati (Université Lyon 1), Vania Marangozova (Université Grenoble Alpes), Nawel Benarba (INSA Lyon), Yasmine Djebrouni (Université Grenoble Alpes), Ousmane Touat (INSA Lyon).


Le projet CITADEL est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. Elle a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Le projet ANR CITADEL (ANR-24-CE25-6501) soutient en partie ces travaux.

03.11.2024 à 18:46

IRIS² : La nouvelle constellation de satellites européenne

DIRIS Jean-Pierre, Coordinateur interministériel IRS ² et GOVSATCOM, Centre national d’études spatiales (CNES)

Le programme IRIS² constituera le premier réseau de satellites multi-orbitaux en Europe. Cette constellation sera constituée d’environ 300 satellites.
Texte intégral (1430 mots)

Le programme IRIS2 (Infrastructure de résilience, d’interconnectivité et de sécurité par satellite) constituera le premier réseau de satellites multi-orbitaux en Europe. Cette constellation sera constituée d’environ 300 satellites et devrait voir le jour en 2030.


La transition de plus en plus forte vers l’économie numérique a une conséquence déjà observable : une augmentation forte du besoin de connectivité permettant la transmission rapide des données. Sur un marché mondial où les offres de connectivité évoluent rapidement, le satellite atteint désormais aujourd’hui des performances techniques (débit, latence en orbite basse) et économiques proches des solutions terrestres (fibre optique). L’énorme avantage est son coût de déploiement constant, quelle que soit la zone géographique, et notamment pour les zones « blanches » non couvertes par les infrastructures terrestres.

La constellation européenne IRIS2 s’inscrit dans cette transition, qui nécessite de plus en plus d’infrastructures de partage de données, dominées actuellement par des acteurs américains. Une constellation de satellites permet de connecter différents utilisateurs au travers de multiples satellites offrant ainsi une couverture instantanée permanente de la planète.

Les télécommunications : enjeu stratégique pour l’Europe

Dans le contexte actuel de développement et de mise en service de plusieurs initiatives de constellations tant publiques (Chine et États-Unis) que privées (Oneweb, Starlink, Kuiper) répondant aux besoins actuels de traitement de données et de connectivité découlant de la transition numérique, le secteur des télécommunications est plus que jamais stratégique pour la France et l’Europe. Le programme IRIS2 vise à répondre à cet enjeu.

Après des tentatives au début des années 2000, les constellations ont enfin émergé et les projets sont désormais crédibles et largement financés par des fonds publics et privés. Plusieurs facteurs ont permis leur émergence, les progrès en matière de miniaturisation électronique, les performances des composants numériques intégrés, la diminution drastique des coûts de lancement et la capacité industrielle de produire en petite série des satellites à moindre coût.

Face au développement des télécommunications par satellites en orbite basse (zone de l’orbite terrestre allant jusqu’à 2 000 kilomètres d’altitude), l’approche adoptée par la Commission européenne associant le secteur public et le secteur privé a pour objectif de renforcer l’Europe dans la course aux constellations au bénéfice des usages du citoyen européen et de ses institutions.

Une constellation de 300 satellites

Le programme de l’Union européenne (UE) de constellation satellitaire de connectivité sécurisée a été décidé en mars 2023. Ce programme, appelé IRIS2 (Infrastructure de résilience, d’interconnectivité et de sécurité par satellite) constituera le premier réseau de satellites multi-orbitaux en Europe. Cette constellation sera constituée d’environ 300 satellites.

Cette constellation fournira une infrastructure de communication sécurisée aux organismes et agences gouvernementales de l’UE. Les différents liens de communication entre utilisateurs et les liens de commande et contrôle des satellites seront protégés, les infrastructures sol sécurisées.

Le dispositif garantira l’autonomie stratégique de l’UE dans le domaine des communications gouvernementales sécurisées. La constellation devra également fournir des services commerciaux et cherchera à maximiser les synergies entre les infrastructures gouvernementales et commerciales. Enfin, la constellation devra permettre le renforcement du positionnement de l’Europe, de son industrie et de ses opérateurs dans le monde.

IRIS2 est associé au programme existant GOVSATCOM de l’UE qui consiste à fournir des communications gouvernementales sécurisées sur la base de capacités provenant d’opérateurs agréés ou des États membres.

IRIS2 est un programme financé par l’UE à hauteur de 2,4 milliards d’euros sur le Cadre financier pluriannuel (CFP) 2021-2027 ; des financements additionnels sont envisagés sur le CFP suivant 2028-2035. Ce financement est abondé par l’ESA à hauteur de 600M€ (souscription au Conseil ministériel de novembre 2022) et des acteurs privés commerciaux dans le cadre d’un contrat de concession.

Après validation du règlement de l’Union européenne sur l’initiative de constellation de connectivité sécurisée dès mars 2023, la Commission européenne a lancé l’appel d’offres relatif au contrat principal de développement de la constellation IRIS2 en mai 2023. L’appel d’offres a été finalisé avec un consortium de 3 opérateurs (Eutelsat, SES, Hispasat) associé à des partenaires industriels sous-traitants (Airbus, Thales, OHB, Deutsche Telekom, Orange) pour une remise d’offre le 2 septembre 2024. Cette offre est en cours d’examen par la Commission européenne dans l’objectif de signer le contrat de concession IRIS2 d’une durée de 12 ans, avant la fin 2024.

Un service de télécommunications toujours accessible

La Commission européenne a lancé à l’été 2023 un appel à candidatures pour l’hébergement d’infrastructures sol de la constellation et a retenu en Avril 2024 pour les centres de contrôle d’IRIS2 la France (Toulouse), l’Italie (Fucino) et le Luxembourg (Bettembourg).

La Première ministre, Elisabeth Borne, a décidé d’établir en France une coordination interministérielle sur IRIS2 et GOVSATCOM, dont il m’a été confié la mission avec la participation des représentants des différents ministères et agences.

Ce point focal national a pour objectifs principaux de coordonner l’ensemble des activités françaises contribuant au développement et à l’exploitation de ces programmes, d’assurer une relation permanente avec les interlocuteurs européens (UE, ESA, EUSPA), d’animer la communauté française des utilisateurs de la connectivité sécurisée fournie par ces programmes.

En termes d’usages l’objectif d’IRIS2 est de fournir un service digital autonome et souverain à chaque État membre de l’Union européenne. De nos jours, la connectivité spatiale est indispensable, celle-ci étant l’option la plus fiable en l’absence de systèmes de télécommunication terrestres (lorsqu’ils n’existent pas ou ont été endommagés par un conflit ou une catastrophe naturelle par exemple).

Le programme fournira une large variété de services aux gouvernements et citoyens européens. Le système permet la surveillance des frontières et des zones reculées. Le programme est indispensable à la protection civile, notamment en cas de crise ou de catastrophe naturelle. Il améliore l’envoi d’aide humanitaire et la gestion des urgences maritimes, que ce soit pour la recherche ou le sauvetage. De nombreux réseaux intelligents connectés – énergie, finance, santé, centres de données, etc. – seront contrôlés grâce à la connectivité fournie par IRIS2.

Le système permettra également de gérer différentes infrastructures : air, rail, route, trafic automobile. À cela s’ajoutent des services de télécommunications institutionnels par exemple pour les ambassades, et de nouveaux services de télémédecine pour l’intervention dans des zones isolées. Enfin IRIS2 améliorera la connectivité de zones d’intérêt stratégique dans le cadre de la politique étrangère de sécurité et de défense : Europe, Moyen-Orient, Afrique, Arctique, Atlantique et les régions de la Baltique, la mer Noire et Méditerranée.

Du côté architecture environ 300 satellites pourraient être conçus, fabriqués et déployés dans un premier temps. Les satellites seront placés sur deux orbites différentes : basse (jusqu’à 2 000 km) et moyenne (entre 2 000 et 35 786 km). En couvrant cette large gamme, la constellation sera en mesure de fournir des services de communication à faible latence – soit une transmission ultra-rapide des informations comparable aux performances des réseaux terrestres – et de compléter les autres programmes spatiaux européens.

The Conversation

DIRIS Jean-Pierre ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

30.10.2024 à 16:47

Ouvrir les modèles d’IA pour qu’ils ne restent pas l’apanage des géants du Web

Thierry Poibeau, DR CNRS, École normale supérieure (ENS) – PSL

Les modèles d’IA réellement ouverts sont envisageables à moyen terme et doivent être privilégiés pour que l’innovation dans le secteur bénéficie à tous.
Texte intégral (1895 mots)

Les grands modèles de langue, comme celui derrière ChatGPT, sont « fermés » : on ne sait pas comment ils sont mis au point, sur quelles données et avec quels paramètres. Même les modèles dits ouverts ne le sont que très partiellement, ce qui pose des problèmes de transparence et de souveraineté évidents. Développer des modèles ouverts est une alternative réaliste et souhaitable à moyen terme.


De la traduction automatique à la génération de contenu, les modèles de langue (ou modèles de langage) reposent sur des ensembles massifs de données et des algorithmes complexes. L’une des grandes questions pour la communauté de l’Intelligence artificielle est de savoir si ces modèles doivent rester fermés – contrôlés uniquement par quelques grandes entreprises – ou être ouverts et accessibles au public – en particulier aux chercheurs, développeurs et institutions publiques.

Un modèle ouvert présente plusieurs avantages. Premièrement, il permet une plus grande transparence. Les utilisateurs peuvent voir comment le modèle a été formé, quelles données ont été utilisées et quelles décisions algorithmiques sous-tendent ses prédictions. Cela favorise la confiance dans les résultats produits et permet à la communauté scientifique de vérifier et de corriger les biais qui pourraient être présents. Deuxièmement, un modèle ouvert encourage l’innovation. En permettant à d’autres chercheurs, développeurs et entreprises de travailler avec ces modèles, on peut accélérer le développement de nouvelles applications et résoudre des problèmes complexes de manière plus collaborative.

Les modèles fermés quant à eux posent des problèmes importants. Leur opacité rend difficile l’identification des responsabilités juridiques, car il est presque impossible de déterminer quelles données ont été utilisées lors de l’entraînement ou comment les décisions du système ont été prises. Cette opacité crée donc des risques potentiels de discrimination algorithmique, de désinformation et d’utilisation abusive des données personnelles. En outre, ces modèles fermés renforcent les monopoles technologiques, laissant peu de place à la concurrence et limitant ainsi les possibilités de mise au point de solutions concurrentes.

Si, aujourd’hui, les modèles de langue réellement ouverts (open source) sont encore relativement marginaux, ils restent une option envisageable à moyen terme. Pour qu’ils se développent, il faudra non seulement surmonter des obstacles techniques, mais aussi repenser les modèles de financement et de régulation, afin de garantir que l’innovation ne soit pas réservée à une poignée de géants technologiques. Il en va de l’avenir de l’intelligence artificielle ouverte et de son potentiel à bénéficier à l’ensemble de la société.

Lobbying et stratégies d’entreprises

Un lobbying intensif est mené auprès des gouvernements et des instances de régulation pour avancer l’argument selon lequel l’ouverture complète des LLM pourrait mener à des dérives. La crainte d’un mauvais usage, qu’il s’agisse de diffusion massive de fausses informations ou de cyberattaques – voire le fantasme d’une prise de pouvoir par des machines supra-intelligentes, est mise en avant pour justifier la fermeture de ces modèles.

OpenAI, avec d’autres, proclame qu’ouvrir les modèles serait source de danger pour l’humanité. Le débat est en fait souvent difficile à suivre : certains parlent de danger, voire demandent un moratoire sur ce type de recherche, mais continuent d’investir massivement dans le secteur en parallèle.

Par exemple, Elon Musk a signé en mars 2023 la lettre du Future of Life Institute demandant une pause de six mois des recherches en IA, tout en lançant en juillet 2023 xAI, un concurrent d’OpenAI ; Sam Altman, qui dirige OpenAI, parle aussi fréquemment de danger tout en visant des levées de fonds de plusieurs milliards de dollars pour développer des modèles toujours plus puissants.

Si certains croient sans doute vraiment qu’il y a là un danger (mais il faudrait définir lequel exactement), d’autres semblent manœuvrer en fonction de leurs intérêts et des immenses sommes investies.

Des modèles dits « ouverts » qui ne le sont pas tant que ça

Face à cela, d’autres sociétés, comme Méta avec ses modèles Llama, ou Mistral en France, proposent des modèles dits « ouverts ». Mais ces modèles sont-ils réellement ouverts ?

L’ouverture se limite en effet le plus souvent à l’accès aux « poids » du modèle, c’est-à-dire aux milliards de paramètres qui se voient ajustés lors de son entraînement grâce à des données. Mais le code utilisé pour entraîner ces modèles, et les données d’entraînement (ces masses de données cruciales qui permettent au modèle d’analyser et de produire du texte) restent généralement des secrets bien gardés, hors de portée des utilisateurs et même des chercheurs, limitant ainsi la transparence de ces modèles. À ce titre, peut-on vraiment parler de modèle ouvert si seuls les poids sont disponibles et non les autres composantes essentielles ?

L’ouverture des poids offre toutefois des avantages certains. Les développeurs peuvent adapter le modèle sur des données particulières (à travers le « fine tuning ») et surtout, ces modèles offrent une meilleure maîtrise que des modèles complètement fermés. Ils peuvent être intégrés dans d’autres applications, sans qu’il s’agisse de boîte noire uniquement accessible par « prompt engineering », où la façon de formuler une requête peut influer sur les résultats, sans qu’on sache très bien pourquoi.

L’accès aux poids favorise également l’optimisation des modèles, notamment à travers des techniques comme la « quantisation », qui réduit la taille des modèles tout en préservant leur performance. Cela permet de les exécuter sur des machines plus modestes, des ordinateurs portables voire des téléphones.

En rendant les modèles partiellement ouverts, les sociétés propriétaires bénéficient ainsi de l’intérêt de milliers de développeurs, ce qui permet des progrès potentiellement plus rapides que pour les modèles fermés, mis au point par des équipes forcément plus réduites.

Vers des modèles réellement open source ?

Mais peut-on envisager demain la création de modèles de langage réellement open source, où non seulement les poids, mais aussi les données d’entraînement et les codes d’apprentissage seraient accessibles à tous ? Une telle approche soulève des défis techniques et économiques importants.

Le principal obstacle reste la puissance de calcul nécessaire pour entraîner ces modèles, qui est actuellement l’apanage des entreprises dotées de ressources colossales (Google, Meta, Microsoft, etc.) ; OpenAI, ou Mistral en France, ont recours à de la puissance de calcul proposée par différents acteurs, dont les géants de l’informatique suscités. C’est en partie pour couvrir ces coûts – l’accès la puissance de calcul – que ces entreprises doivent régulièrement lever des fonds importants. Le coût énergétique, matériel, et en ressources humaines est prohibitif pour la plupart des acteurs.

Pourtant, des initiatives existent. Des communautés de chercheurs et des organisations à but non lucratif cherchent à développer des modèles ouverts et éthiques, basés sur des jeux de données accessibles, ou du moins transparents.

Ainsi, Allen AI (centre de recherche privé à but non lucratif, financé à l’origine par Paul Allen, le cofondateur de Microsoft décédé en 2018) a mis au point les modèles Olmo et Molmo (modèle de langue et modèle multimodal), qui sont complètement ouverts.

SiloAI, une entreprise finlandaise, en collaboration avec l’Université de Turku a mis au point un modèle multilingue complètement ouvert, Poro, performant pour les langues scandinaves.

En France, Linagora et d’autres travaillent aussi à mettre au point des systèmes ouverts, dans la continuité de Bloom (un modèle complètement ouvert, mis au point par un collectif de chercheurs sous l’impulsion de la société Hugging Face en 2022).

Le modèle économique de ces initiatives reste à déterminer, de même que le retour sur investissement à terme des sommes colossales actuellement en jeu sur ce thème au niveau international.

En pratique, ces modèles sont souvent entraînés sur des infrastructures publiques (Lumi en Finlande pour Poro, Genci en France pour Bloom) : il s’agit souvent de collaborations entre universitaires et entreprises privées pouvant ensuite commercialiser les solutions développées, puisqu’un modèle ouvert n’est pas synonyme de complètement gratuit, et des services annexes comme l’adaptation des modèles pour des besoins particuliers peuvent contribuer au financement de telles initiatives.

Une autre piste se situe dans le développement de modèles de langue spécialisés, moins coûteux en termes de données et d’infrastructure, mais qui pourraient répondre à des besoins spécifiques, ce qui permettrait à des entreprises ou des acteurs plus modestes de tirer leur épingle du jeu.

The Conversation

Thierry Poibeau est membre de l'Institut Prairie-PSAI (Paris AI Research Institute - Paris School of Artificial Intelligence) et a reçu des financements à ce titre.

29.10.2024 à 16:38

Est-il vrai qu’il y a plus de microbes que de cellules dans le corps humain ?

Valérie Lannoy, post-doctorante en microbiologie, Sorbonne Université

Il est difficile de faire nos courses sans qu’il ne nous soit proposé des produits pour protéger notre microflore ! Notre corps hébergerait dix fois plus de bactéries que de cellules. Vraiment ?
Texte intégral (1010 mots)

Il est difficile de faire nos courses sans qu’il ne nous soit proposé des produits pour protéger notre microflore ! Notre corps hébergerait dix fois plus de bactéries que de cellules. Vraiment ?


La microflore ou microbiote est l’ensemble des micro-organismes qui résident normalement dans notre corps. Ses secrets ont été vulgarisés par la Dre Giulia Enders dans son livre « Le charme discret de l’intestin ». Ce best-seller a largement contribué à l’engouement autour du sujet ! Pourtant, la découverte de la microflore intestinale a plus d’un siècle. Nous la devons au microbiologiste Élie Metchnikoff, prix Nobel de médecine en 1908. Avec le temps, les avancées technologiques ont facilité l’étude du microbiote, et c’est en 1977 que le célèbre ratio d’une cellule humaine pour dix bactéries est publié par le microbiologiste américain Dwayne Savage.

Des quantités de microbes et de cellules difficilement mesurables

En 1972, le biochimiste Thomas Luckey a évalué que chaque gramme de selles humaines renfermait cent milliards de bactéries et que l’appareil digestif en contenait un kilo. En multipliant, et en considérant que la majorité des bactéries se loge dans les fèces, l’estimation de la quantité dans le corps était donc de 100 000 milliards de bactéries. En 1977, l’équipe du Pr Savage a ramené ce nombre sur le nombre de cellules humaines (10 000 milliards), d’où le fameux ratio. Ce rapport d’un sur dix s’est vite répandu dans la communauté scientifique, car il est facile à retenir et rend concrète la notion de microflore intestinale. Le ratio est encore diffusé dans les cours de biologie ou activités de vulgarisation.


Chaque semaine, nos scientifiques répondent à vos questions.

N’hésitez pas à nous écrire pour poser la vôtre et nous trouverons la meilleure personne pour vous répondre.

Et bien sûr, les questions bêtes, ça n’existe pas !


Près de quarante ans après, en 2014, le microbiologiste Judah Rosner a publié une lettre dans l’ancien journal scientifique « Microbe » pour questionner l’intangible proportion d’un sur dix. Le début de son texte est d’ailleurs intéressant et révèle un paradoxe : « La science se régit par une réanalyse critique de faits. […] Mais une fois qu’un fait entre dans la littérature scientifique, au bout d’un moment, il devient difficile à effacer. » Le Pr Rosner souligne que l’estimation de 10 000 milliards de cellules est d’abord sortie dans un livre en 1970, mais que l’information n’y est pas référencée. Il avertit aussi que l’appréciation de la quantité de cellules humaines représente en fait un défi. Il conclut que, même si le ratio devait être contredit, cela ne remettrait pas en cause l’implication du microbiote dans la santé humaine.

Une question de méthode

Deux ans après la lettre mentionnée, des travaux israéliens ont démenti l’inébranlable ratio. L’équipe du Professeur Ron Milo a sélectionné l’organe dont le nombre de bactéries était représentatif des bactéries dans l’organisme. La microflore de la bouche, des poumons ou de la peau n’a pas été comptabilisée, car la quantité de bactéries y est cent fois moins riche que dans le gros intestin. Ils ont pris en compte que le côlon contient 400 grammes et non un kilo de selles fraîches. Ensuite, l’équipe s’est inspirée d’un article scientifique italien, qui évaluait le nombre de cellules humaines, non pas de manière globale, mais organe par organe puisque les tailles et masses des cellules sont très variables à travers le corps.

Le nombre de cellules humaines devient alors trois fois plus élevé, soit 30 000 milliards. La proportion de bactéries par cellule est ainsi affinée à 1,3. Bien qu’inférieur à 10, le rapport est supérieur à 1, donc les bactéries restent supérieures en nombre.

Néanmoins, chaque fois vous déféquez aux toilettes, il se rééquilibre et ce sont les cellules humaines qui deviennent supérieures en nombre !

Virus, bactéries et protozoaires peuplent notre corps

Nous parlons de bactéries, composante du microbiote intestinal la plus analysée aujourd’hui. Cependant, elle n’exprime pas toute la complexité de votre microflore. Bactéries, levures, protozoaires (animal microscopique à une seule cellule) et virus, voici le petit monde inoffensif que vous hébergez ! Notre « virobiote » a longtemps été considéré comme représentant l’écrasante majorité de l’organisme. En 2021, des études revoient cette donnée à la baisse, et rapprochent le nombre de virus dans notre corps à celui des bactéries. Par conséquent, ces effectifs sont semblables aux cellules humaines.

Mais n’oubliez pas qu’en les additionnant, bactéries et virus groupés ensemble sont majoritaires !

The Conversation

Valérie Lannoy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

12 / 25
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Monde Diplomatique
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
  CULTURE / IDÉES 1/2
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  IDÉES 2/2
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
  Pas des sites de confiance
Contre-Attaque
Korii
Positivr
Regain
Slate
Ulyces
🌓