10.08.2025 à 14:17
Les énergies renouvelables sont souvent accusées de déstabiliser le réseau électrique. Des outils d’intelligence artificielle permettent de localiser les installations photovoltaïques, facilitant ainsi le suivi de leur déploiement et assurant leur insertion sans heurts au réseau électrique. Le photovoltaïque est une source d’électricité renouvelable profondément décentralisée. De petite taille mais représentant 99 % des systèmes raccordés au réseau électrique, les installations en toiture chez les particuliers ou dans le tertiaire (ombrières, supermarchés…) ont un poids croissant sur réseau électrique. Hier centralisée, la production électrique est désormais répartie entre des grandes centrales et des centaines de milliers de petites installations. Ainsi, l’équilibrage du système – essentiel afin d’éviter les blackouts – nécessite de nouveaux moyens afin de tenir compte de cette production décentralisée. Équilibrer la production d’électricité en intégrant la production solaire décentralisée est tout à fait possible en principe. Encore faut-il savoir où les panneaux sont installés et quelle taille ils font. L’intelligence artificielle (IA) peut être mise à contribution pour automatiser ce suivi… à condition que la fiabilité des données puisse être garantie. Historiquement, la production d’électricité provient des centrales reliées au réseau de transport (haute tension), avant d’être acheminée vers le réseau de distribution (basse tension) et les gros consommateurs industriels. La production était « pilotable », c’est-à-dire que l’on peut l’ajuster assez rapidement en fonction de la demande. L’essor de l’éolien terrestre et du solaire photovoltaïque, majoritairement raccordés au réseau de distribution, a profondément modifié cette organisation. Aujourd’hui, la production pilotable s’ajuste à une « demande nette », c’est-à-dire à la différence entre la consommation et la production renouvelable. Par exemple, la demande française en électricité est historiquement sensible à la température (chauffage, climatisation), et la production renouvelable est sensible aux variables climatiques. Cette variabilité n’est pas problématique en soi : l’important est qu’une filière soit observable, c’est-à-dire que l’on peut mesurer ou estimer avec précision sa production – et quantifier les incertitudes de production. Or actuellement, le photovoltaïque manque d’observabilité, principalement en raison d’une caractérisation incertaine du parc existant de systèmes. Le photovoltaïque est en effet caractérisé par une très grande variété de systèmes, allant de grandes centrales à des installations sur des toitures individuelles. Une telle diversité d’installations facilite le déploiement rapide à grande échelle et fait du photovoltaïque un vecteur indispensable de la décarbonisation du système électrique, mais cette même caractéristique rend le suivi de son déploiement difficile. Ainsi, 99 % des installations photovoltaïques, représentant un cinquième de la puissance installée, sont ainsi installées sur des toitures (résidentielles ou tertiaires) de manière totalement décentralisée (à la différence par exemple des centrales au sol pour lesquelles les appels d’offres sont centralisés, et donc les capacités mieux connues). Le cadastre photovoltaïque, qui recense toutes les installations photovoltaïques raccordées au réseau, est obtenu à partir des déclarations de raccordement et est sujet à des incertitudes, tant en termes de recensement des systèmes que d’estimation de leur puissance installée et de leur répartition géographique. L’intelligence artificielle, appliquée à l’imagerie aérienne, offre une opportunité unique de cartographier automatiquement et à grande échelle les systèmes photovoltaïques, en estimant leur surface, leur orientation et leur puissance, permettant ainsi d’améliorer notre connaissance sur le nombre, la répartition et les caractéristiques des systèmes photovoltaïques sur toiture. De nombreux modèles ont ainsi été développés afin de cartographier des systèmes photovoltaïques sur toiture. Cependant, et malgré leurs performances remarquables, ces modèles ne sont que rarement utilisés par les acteurs du système électrique pour compléter et corriger leurs registres, ce qui réduit l’impact de telles méthodes pour répondre au problème dit de l’observabilité du photovoltaïque sur toiture, et plus largement pour faciliter la décarbonation du système électrique. Au cours de ma thèse, j’ai prêté une attention particulière à l’identification des verrous méthodologiques pour le déploiement d’outils d’IA permettant d’améliorer l’observabilité du photovoltaïque sur toiture. Je suis parti d’un paradoxe apparent : les outils et les méthodes pour détecter les panneaux solaires existaient déjà, mais les projets existants n’allaient pas au-delà des expérimentations en laboratoire. Plusieurs raisons peuvent expliquer ce décalage. D’une part, des facteurs institutionnels ou humains, liés au manque de formation à ces outils ou encore à la question de la responsabilité en cas d’erreur de l’IA. D’autre part, il existe des facteurs liés aux méthodes elles-mêmes, où il est apparu en particulier que la combinaison d’un manque de transparence et de fiabilité des algorithmes était un frein puissant à leur adoption. Notre travail de recherche récent a ainsi proposé une méthode permettant d’améliorer à la fois la transparence et la fiabilité des algorithmes de cartographie. L’amélioration de la transparence repose sur des techniques d’IA explicable et permet de mieux comprendre comment « voit » le modèle. L’amélioration de la fiabilité repose sur cette meilleure connaissance du processus de décision du modèle. Nous avons utilisé une technique d’IA explicable inédite qui permet de décomposer entre différentes échelles ce que « voit » l’IA sur l’image. Cette décomposition montre les cas où l’IA s’appuie sur des composantes de l’image facilement altérables (les hautes fréquences de l’image) s’apparentant à des motifs quadrillés dont la taille au sol est de l’ordre d’un mètre par un mètre. On peut facilement comprendre la corrélation entre les panneaux et les grilles, mais on comprend aussi que toutes les grilles ne sont pas des panneaux solaires ; et que tous les panneaux solaires ne présentent pas de grilles. Cette méthode permet de mieux anticiper les occurrences de faux positifs mais aussi de faux négatifs. Par exemple, dans une région où il y a de nombreuses verrières, qui présentent un motif grillé similaire, l’utilisateur anticipera une éventuelle surestimation du nombre réel de panneaux. À l’inverse, dans une région où les panneaux installés sont plus récents et donc plus susceptibles d’être sans cadre, on pourra s’attendre à une sous-estimation du nombre de panneaux. L’identification de potentiels faux négatifs est d’autant plus cruciale que s’il est simple d’éliminer les faux positifs par des post-traitements, il est plus difficile de lutter contre les faux négatifs. Pour une IA, la fiabilité correspond à la faculté du système à atteindre une précision comparable à celle obtenue lors de l’entraînement initial du modèle, sur une période plus ou moins longue. En pratique, ces données d’entraînement sont figées, tandis que les données sur lesquelles le modèle est utilisé évoluent continuellement. Ainsi, la distribution statistique des données d’entraînement est de moins en moins représentative de celle des données sur lesquelles le modèle est déployé. Il est établi que les IA sont sensibles à de tels changements de distributions (distribution shifts) et ainsi que les performances théoriques sont de moins en moins représentatives de la réalité. Pour la détection de panneaux solaires, on peut s’attendre à une baisse des détections liée au fait que le modèle n’a jamais « appris » à reconnaître les nouveaux panneaux. Les données d’entraînement sont ainsi biaisées par rapport aux conditions réelles, et les mises à jour des données d’entraînement veilleront à refléter la distribution actualisée des types de panneaux photovoltaïques. L’IA seule ne résoudra pas l’ensemble des questions induites par la décarbonation du système électrique. Néanmoins, elle peut et doit y contribuer, compte tenu de la maturité des technologies, de la disponibilité des données et de l’appétence générale qui l’entoure. L’enjeu est double : d’une part, comprendre son fonctionnement et ses limites et, d’autre part, améliorer sa fiabilité, de sorte que l’adhésion à cette technologie soit fondée sur le discernement de l’utilisateur, plutôt que sur une foi aveugle en ces outils. Gabriel Kasmi a reçu des financements de RTE et de l'Association Nationale de la Recherche et de la Technologie (thèse financée dans le cadre d'une convention Cifre). Il est membre du think tank Zenon. Texte intégral 2385 mots
L’intégration des renouvelables au réseau électrique : des défis maîtrisables
Comment répertorie-t-on aujourd’hui les systèmes installés ?
Quels sont les freins à l’adoption de l’IA comme outil d’aide à la cartographie des systèmes photovoltaïque ?
Qu'est-ce que l'IA explicable ?
Comment faire en sorte que l’IA reste fiable alors que les systèmes à détecter évoluent ?
06.08.2025 à 13:06
La pollution électromagnétique a des conséquences inattendues. Par exemple, l’encombrement du spectre radioélectrique complique le travail des radiotélescopes. Ce que l’on sait rarement, c’est que ces télescopes ne servent pas seulement à faire de la recherche en astronomie : ils sont indispensables à certains services essentiels à notre civilisation… le GPS, par exemple ! Les scientifiques qui mesurent avec précision la position de la Terre sont aujourd’hui confrontés à un problème de taille. Leurs données sont essentielles au fonctionnement des satellites utilisés pour la navigation, pour les télécommunications et pour l’observation de la planète. Ce que l’on sait moins, c’est que ces mesures – issues d’une discipline appelée « géodésie » – dépendent du suivi de trous noirs situés dans des galaxies lointaines. Le problème, c’est que, pour suivre ces trous noirs, les scientifiques ont besoin d’utiliser des bandes de fréquences spécifiques sur le spectre radioélectrique. Et avec la montée en puissance du wifi, des téléphones portables et d’Internet par satellite, il y a un embouteillage sur ces fameuses bandes de fréquence. Les satellites et les services qu’ils fournissent sont devenus essentiels à la vie moderne. De la navigation ultraprécise sur nos téléphones au suivi du changement climatique, en passant par la gestion des chaînes logistiques mondiales, le fonctionnement des réseaux électriques ou des transactions bancaires en ligne, notre civilisation ne peut pas se passer de ces compagnons en orbite. Mais pour utiliser les satellites, il faut savoir précisément où ils se trouvent à tout moment. Leur positionnement repose sur ce qu’on appelle la « chaîne d’approvisionnement géodésique mondiale ». Cette chaîne commence par l’établissement d’un référentiel de coordonnées stable sur lequel baser toutes les autres mesures. Comme les satellites se déplacent sans cesse autour de la Terre, que la Terre elle-même tourne autour du Soleil, et que le Soleil se déplace dans la galaxie, ce référentiel doit être soigneusement calibré à partir d’objets externes relativement fixes. Or les meilleurs points d’ancrage que l’on connaisse sont les trous noirs, situés au cœur de galaxies lointaines, qui émettent des jets de rayonnement en dévorant des étoiles et du gaz. Grâce à une technique appelée « interférométrie à très longue base », les scientifiques peuvent relier un réseau de radiotélescopes pour capter leurs signaux et pour dissocier les mouvements de rotation ou d’oscillation de la Terre de ceux des satellites. En effet, les radiotélescopes permettent de détecter les ondes radio émises par les trous noirs. Celles-ci traversent l’atmosphère sans difficulté, de jour comme de nuit et par tous les temps. Mais ces ondes radio sont également utilisées pour les communications terrestres – wifi, téléphonie mobile, etc. L’utilisation des différentes fréquences est strictement encadrée, et quelques bandes étroites seulement sont réservées à l’astronomie radio. Dans les décennies passées, toutes les bandes étaient encore peu usitées, et les scientifiques n’hésitaient pas à empiéter sur celles non réservées pour mieux capter les signaux des trous noirs… Mais aujourd’hui, si on souhaite que la géodésie atteigne la précision requise par nos technologies, on ne peut plus se contenter des bandes réservées à l’astronomie. Ces dernières années, la pollution électromagnétique d’origine humaine a explosé. Lorsque le wifi et la téléphonie mobile se sont développés, les scientifiques ont dû se rabattre sur des fréquences plus élevées. Mais les bandes libres se font rares. Six générations de téléphonie mobile, chacune occupant une nouvelle fréquence, encombrent désormais le spectre, sans compter les milliers de satellites qui envoient directement des connexions Internet vers la Terre. Aujourd’hui, la multitude de signaux est souvent trop puissante pour que les observatoires géodésiques puissent distinguer les très faibles signaux en provenance des trous noirs – ce qui menace, à terme, le fonctionnement de nombreux services satellitaires. Pour continuer à fonctionner à l’avenir et pour maintenir les services dont nous dépendons, la géodésie a besoin de davantage de bandes de fréquence. Lors du partage du spectre radio à l’occasion des grandes conférences internationales, les géodésiens doivent absolument être présents à la table des négociations. Parmi les solutions envisagées, on peut aussi imaginer des zones de silence radio autour des radiotélescopes essentiels. Un travail est également en cours avec les opérateurs de satellites pour éviter que leurs émissions radio ne soient dirigées directement vers ces télescopes. Quoi qu’il en soit, toute solution devra être globale. Pour les mesures géodésiques, les radiotélescopes sont interconnectés à l’échelle de la planète, ce qui permet de simuler un télescope grand comme la Terre. Or, aujourd’hui, l’attribution des fréquences du spectre radio est principalement gérée par chaque État de manière indépendante, ce qui complique une quelconque coordination. La première étape est peut-être de mieux faire connaître ce problème. Si nous voulons que les GPS fonctionnent, que les supermarchés soient approvisionnés et que nos virements bancaires arrivent à bon port, nous devons garder une vue dégagée sur les trous noirs des galaxies lointaines – ce qui signifie désengorger le spectre radio. Lucia McCallum ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche. Texte intégral 1229 mots
Pourquoi avons-nous besoin des trous noirs ?
Le rôle important des ondes radio
Des usages concurrents
Que peut-on faire ?
06.08.2025 à 13:06
L’observatoire Vera-C.-Rubin vient de débuter un grand sondage du ciel, le Legacy Survey of Space and Time (LSST) et a livré en juin 2025 de « premières » images au grand public : une grandiose visualisation d’une partie de l’amas de galaxies de la Vierge. Mais de telles « premières » images ont une importance qu’il convient de relativiser, ou tout au moins recontextualiser car leur intérêt n’est pas forcément celui que l’on croit ou voit immédiatement. Les images de Vera-C. Rubin se distinguent par la taille de leur champ exceptionnellement grande et la rapidité du nouvel observatoire, qui lui permet de cartographier des lumières même ténues sur une grande partie du ciel plusieurs fois par mois. La « première lumière » d’un nouvel observatoire est un évènement symbolique et médiatique. Les images dévoilées ce jour-là au public ne sont en effet pas les vraies premières acquisitions – ces dernières servent des objectifs purement techniques et n’ont que peu d’intérêt pour le public. Elles ne témoignent pas forcément des buts scientifiques primaires qui ont motivé la construction du télescope. Elles existent essentiellement pour impressionner et susciter l’intérêt : pour cela, elles doivent posséder une valeur esthétique… qui ne doit pas occulter les performances techniques de l’instrument qui les a générées. En quoi, alors, cette « première » image du sondage Legacy Survey of Space and Time (LSST), centrée sur l’amas de galaxies de la Vierge, est-elle originale et doit-elle nous interpeller ? Pas tout à fait. Les structures les plus remarquables, visibles sur cette image, étaient familières, comme ce couple de spirales vues de face (au centre, à droite), cette galaxie naine mais étonnamment étendue et diffuse (en haut à droite) ou, enfin, ces spectaculaires traînées stellaires qui relient plusieurs galaxies d’un groupe situé à l’arrière-plan (en haut à droite), fruits de collisions en cours qui arrachent les étoiles à leurs galaxies. Ces queues dites « de marée » avaient déjà été cartographiées par des caméras d’ancienne génération, comme Megacam sur le vénérable Canada-France-Hawaii Telescope (CFHT). Obtenue depuis le sol, et subissant la turbulence de l’atmosphère qui floute toute lumière venue de l’espace, sa finesse est loin des standards des télescopes spatiaux Hubble, James-Webb ou Euclid, qui présentent une résolution spatiale de 5 à 10 fois meilleure. Certes, mais depuis que le sondage du Sloan Digital Sky Survey (SDSS) a démarré en 2000, il a systématiquement observé une grande partie du ciel dans des bandes devenues standards (u,g,r,i,z) et a combiné ses images pour produire de « vraies couleurs ». Le public s’est habitué à une vision colorée des objets astronomiques.
À lire aussi :
Comment sont façonnées les images du ciel? Dans les pas du télescope pionnier Hubble
Désormais, chaque nouvelle mission utilise sa propre palette qui varie selon le jeu utilisé de filtres. Certainement ! Les États-Unis ont une culture de médiation scientifique bien plus développée qu’en Europe, et leurs agences, dont le département de l’énergie américain et la Fondation nationale pour la science qui portent le projet LSST, accordent des moyens financiers conséquents aux actions de communication, relayées par l’ensemble des partenaires, parmi lesquels, en France, le CNRS dont l’Institut nucléaire et particules est chargé, entre autres, d’une grande partie de la chaîne de traitement des données. Mais faut-il pour autant faire la fine bouche face à cette belle, mais pas si originale image produite par le LSST ? Assurément, non ! Elle mérite vraiment de s’y intéresser – non donc par ce qu’elle montre, mais par ce qu’elle cache ! Ce qui est réellement derrière cette image, c’est un potentiel scientifique énorme, lui-même résultat d’une prouesse technique remarquable. L’image a été acquise avec la plus grande caméra au monde. Elle dispose d’un capteur de 3,2 milliards de pixels (en fait une mosaïque de 189 capteurs CCD), soit 100 fois plus qu’un appareil photo classique. Cette débauche de pixels permet de couvrir un champ de vue sans précédent de 9,6 degrés carrés, soit 45 fois la taille apparente de la pleine Lune ou 35 000 fois celui de la caméra du télescope spatial Hubble. Avec cette vision large, le LSST pourra cartographier la surface totale de l’amas de la Vierge en seulement 10 clichés (l’image présentée ici ne couvre qu’une partie de l’amas), et quelques dizaines d’heures d’observations, contre quelques centaines d’heures pour le télescope Canada-France-Hawaii, avec lequel nous osions une comparaison plus haut. La taille de la caméra du LSST est digne de celle de son télescope, pourvu d’un miroir de 8,4 mètres, le plus grand au monde entièrement consacré à l’imagerie. Avec une telle machinerie, l’ensemble du ciel austral peut être observé en seulement trois jours, des performances idéales pour repérer les phénomènes transitoires du ciel, comme les supernovae ou pour découvrir des astéroïdes dont la position varie d’une image sur l’autre. Chaque nuit d’observation, les terabytes de données s’accumulent et, pendant les dix ans du sondage, les images vont être empilées pour in fine atteindre une sensibilité inégalée, mettant en jeu une chaîne de traitement complexe sans commune mesure avec celles mises en œuvre pour les sondages anciens. Cette base de données qui, comme le grand vin, se bonifie avec le temps, permettra d’effectuer des avancées dans de multiples domaines de l’astrophysique, de la physique stellaire à la cosmologie. Alors, oui, il est tout à fait légitime d’être impressionné par cette première image du LSST et par le potentiel de découvertes qu’elle dévoile. Et pour finir, il convient de rappeler que l’observatoire qui l’a acquise, installé dans le désert chilien de l’Atacama, honore par son nom l’astrophysicienne Vera Rubin, à l’origine de la découverte de la matière noire dans les galaxies. Donner un nom de femme à un projet astronomique d’envergure est aussi une première ! Pierre-Alain Duc ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche. Texte intégral 1416 mots
Parce qu’elle dévoile des astres encore inconnus ?
Parce que sa qualité optique est exceptionnelle ?
Parce qu’elle présente d’éclatantes couleurs ?
Parce qu’elle dispose de canaux de diffusion importants ?
Ce que cachent les premières images du nouveau télescope Vera-C.-Rubin et de son sondage LSST : un potentiel énorme et une prouesse technique