Blogs Le Monde - L'informatique : science et technique au coeur du numérique
29.11.2024 à 06:16
L’IA peut-elle faire de la science (au point on en est …) ?
binaire
Continuer la lecture de « L’IA peut-elle faire de la science (au point on en est …) ? »
Texte intégral (1820 mots)
A force d’imaginer l’IA* capable de tout faire, il fallait bien qu’on se pose un jour la question de savoir si cette technologie pouvait aussi faire de la science. C’est même la très sérieuse Académie nationale des sciences des Etats-Unis (NAS) qui s’interroge, à l’issue d’un séminaire dont elle a publié un compte-rendu. Charles Cuveliez et Jean-Charles Quisquater nous explique exactement tout ce qu’il ne faut pas faire ! Ikram Chraibi-Kaadoud et Thierry Viéville.
(*) L’expression IA recouvre un ensemble de concepts, d’algorithmes, de systèmes parfois très différents les uns des autres. Dans cet article, nous utilisons cette abréviation simplificatrice pour alléger la lecture.
Une IA qui voudrait faire de la science, devrait posséder certaines qualités d’un scientifique comme la créativité, la curiosité, et la compréhension au sens humain du terme. La science, c’est identifier des causes (qui expliquent les prédictions), c’est se débrouiller avec des données incomplètes, de taille trop petite, c’est faire des choix, tout ce que l’IA ne peut être programmé à faire. C’est se rendre compte des biais dans les données, alors que certains biais sont amplifiés par l’IA. Par contre, l’IA peut détecter des anomalies ou trouver des structures ou des motifs dans de très grands volumes de données, ce qui peut mener le scientifique sur des indices qu’il ne trouverait pas autrement.
Si l’IA peut contribuer à la science, c’est sans doute en automatisant et menant des expériences à la place du scientifique, plus rapidement et donc en plus grand nombre, qu’un humain ne pourrait le faire. Mais tout scientifique expérimentateur sait combien il peut être confronté à des erreurs de mesures ou de calibration. Il faut aussi pouvoir répondre en temps réel aux variations des conditions expérimentales. Un scientifique est formé pour cela. Un système d’IA répondra à des anomalies des appareils de mesure mais dans la mesure de l’apprentissage qu’il a reçu. Dans un récent article ambitieusement nommé: “The AI Scientist: Towards Fully Automated Open-Ended Scientific Discovery” (Sept 2024), leurs auteurs ont proposé un modèle qui automatise le travail d’un chercheur depuis la confrontation d’une idée à la littérature existante (est-elle nouvmaitriseelle) jusqu’à l’écriture du papier, sans doute impressionnant mais où le coup de génie a-t-il sa place dans cette production scientifique aseptisée ?
IA générative
Que peut apporter spécifiquement l’IA générative, et en son sein, les modèles LLM ? Ils sont entraînés et emmagasinent des quantités gigantesques de données de manière agnostique mais ne savent pas faire d’inférence, une autre caractéristique de la science en marche. On a l’impression que l’IA, générative ou non, a une capacité d’inférence : si on lui montre une photo d’un bus qu’elle n’a jamais vu auparavant, pour autant qu’elle ait été entraîné, elle reconnaîtra en effet qu’il s’agit d’un bus. A-t-elle pour autant une compréhension de ce qu’est un bus ? Non car un peu de bruit sur l’image lui fera rater la reconnaissance, contrairement à un humain ! En fait, il ne s’agit pas d’inférence, mais de reconnaissance.
Sans avoir de capacité de raisonnement, l’IA générative est un générateur d’idées plausibles, quitte pour le scientifique à faire le tri entre toutes les idées plausibles et celles peut-être vraies (à lui de le prouver !). L’IA générative peut étudier de large corpus de papiers scientifiques, trouver le papier qui contredit tous les autres et qui a été oublié et est peut-être l’avancée décisive que le scientifique devra déceler. Elle peut aussi résumer ce qui permettra au chercheur de gagner du temps. L’IA générative peut également générer du code informatique qui aide le scientifique. On a même évoqué l’idée de l’IA qui puisse générer des données expérimentales synthétiques, ce qui semble un peu fou mais très tentant lorsque les sujets sont des être humains. Que ne préférerait-on pas une IA générative répondre comme un humain pour des expériences en sciences sociales, sauf que c’est un perroquet stochastique qui vous répondra (Can AI Replace Human Research Participants? These Scientists See Risks, Scientific American, March 2024)
Alors, oui, vu ainsi, l’IA est un assistant pour le scientifique. Les IA n’ont pas la capacité de savoir si leurs réponses sont correctes ou non. Le scientifique oui.
Malheureusement, la foi dans l’IA peut amener les chercheurs à penser de manière moins critique et à peut-être rater des options qu’ils auraient pourtant trouvées sans IA. Il y a un problème de maîtrise de l’IA. Pour faire progresser l’utilisation de l’IA vers la science, il faudrait d’abord qu’elle ne soit plus l’apanage des seuls experts en IA mais qu’elle soit basée sur une étroite collaboration avec les scientifiques du domaine
Introduire l’utilisation de l’IA dans la science présente aussi un risque sociétal : une perte de confiance dans la science induite par le côté boite noire de l’IA.
Il faut donc bel et bien distinguer l’IA qui ferait de la science de manière autonome (elle n’existe pas) ou celle qui aide le scientifique à en faire de manière plus efficace.
Et d’ailleurs, l’IA a déjà contribué, de cette manière-là, à des avancées dans la science dans de nombreuses disciplines comme la recherche sur des matériaux, la chimie, le climat, la biologie ou la cosmologie.
Au final restera la quadrature du cercle : comment une IA peut expliquer son raisonnement pour permettre au scientifique de conseiller son IA à l’assister au mieux.
Jean-Jacques Quisquater (Ecole Polytechnique de Louvain, Université de Louvain et MIT) & Charles Cuvelliez (Ecole Polytechnique de Bruxelles, Université de Bruxelles)
Pour en savoir plus: AI for Scientific Discovery, Proceedings of a Workshop (2024), US National Academies, Medecine, Sciences, Engineering
22.11.2024 à 11:11
Qui a hacké Garoutzia ?
binaire
22.11.2024 à 06:25
Le prochain Nobel récompensera-t-il une IA ?
binaire
Continuer la lecture de « Le prochain Nobel récompensera-t-il une IA ? »
Texte intégral (2598 mots)
En mars 2016, AlphaGo écrasait le légendaire champion de du monde de Go Lee Sedol. Le monde commençait à entrevoir le potentiel extraordinaire de l’intelligence artificielle. Quand en novembre 2022, ChatGPT a été lancé, chacun d’entre nous a commencé à entamer la conversation avec ce nouveau joujou, qui de lui demander d’écrire un discours, qui de lui faire corriger ou de faire un résumé d’un article, qui de le sommer d’écrire un poème ou de lui donner des idées pour résoudre un problème. Quelques mois plus tard, ChatGPT passait avec succès des examens réputés difficiles tel que celui du barreau, écrivait du code à l’envi dans n’importe quel langage informatique ou pondait un nouveau roman dans le style de Zola. Et le monde, oscillant entre ébahissement et inquiétude, de réaliser à quel point, bien que sujets à des hallucinations manifestes, ces algorithmes d’IA générative allaient petit à petit grignoter nos emplois dans bien des domaines du service du droit ou de la médecine.
Et la science dans tout ça ? Est-ce qu’un algorithme d’IA peut aussi remplacer les cerveaux d’un éminent chercheur en physique, d’un prix Nobel de chimie ou d’un historien célèbre ?
Stockholm, le 8 octobre 2024, la vénérable académie des Nobels couronne dans le domaine de la physique, entre autres, … un informaticien, en l’occurrence Jeff Hinton, qui a partagé le prix Turing en 2019 avec Yann Lecun et Yoshua Bengio. Ce même Jeff Hinton qui a dénoncé avec véhémence les dangers de l’intelligence artificielle pour l’humanité du reste il y a quelques temps. Le lendemain, le 9 octobre 2024, cette même académie décerne un prix Nobel de chimie à deux autres informaticiens de DeepMind Demis Hassabis et John Jumper pour leurs travaux sur la structure des protéines.
Outre ces deux exemples iconiques, l’intelligence artificielle participe désormais fréquemment à des découvertes scientifiques dans de nombreux domaines comme ce nouvel algorithme de tri, domaine pourtant ô combien étudié dans la communauté algorithmique, qui émane d’un réseau de neurones en mars 2023 [1], ou encore un circuit exotique, qui de l’avis des physiciens était singulièrement inattendu, issu d’un logiciel d’IA de conceptions de dispositifs photoniques arbitraire[2], et les exemples foisonnent dans les domaines de la médecine ou de la biologie par exemple.
Au-delà de ce qu’on appelle les sciences dures, l’IA a commencé tranquillement à révolutionner aussi les sciences humaines et sociales comme l’illustre l’excellent projet ERC en philologie de J.-B. Camps[3] qui consiste à comprendre comment les cultures humaines évoluent au cours du temps en appliquant des méthodes d’intelligence artificielles utilisées dans la théorie de l’évolution en biologie aux manuscrits anciens afin de comprendre les mécanismes de transmission des textes, de leur survie et la dynamique des canons culturels qu’ ils suscitent.
Il devient donc raisonnable d’envisager une réponse par l’affirmative à la question ci-dessus : oui un prix Nobel pourrait récompenser une IA. Les algorithmes d’intelligence artificielle couplés à des infrastructures puissantes et des systèmes efficaces peuvent eux-aussi apporter leur pierre au bel édifice scientifique que nous construisons depuis la nuit des temps, et ce dans tous les domaines scientifiques.
De la créativité d’AlphaGo
En l’occurrence, AlphaGo, pour y revenir, a d’ores et déjà surpris le monde par sa créativité. AlphaGo s’est attaqué à ce jeu de stratégie d’origine chinoise inventé il y a plusieurs millions d’années qui consiste à placer des pions, appelés des pierres, sur un plateau quadrillé qu’on appelle le goban. Deux joueurs s’affrontent qui cherchent à marquer leur territoire en posant des pierres sur les intersections de la grille, pierres qui peuvent être capturées par encerclement. Je ne vais pas entrer plus en détail dans ce jeu car d’une part ce n’est pas le sujet, d’autre part je ne m’y suis jamais essayée. AlphaGo, lui est devenu champion. Au cœur d’AlphaGo, un arbre de recherche, un arbre de MonteCarlo pour être plus précis, dans lequel AlphaGo cherche son chemin en évaluant chaque coup potentiel et en simulant le jeu entier pour décider s’il doit jouer ce coup ou non. Compte tenu de la dimension de la grille, et la multitude de coups possible, bien plus élevé que le nombre d’atomes dans l’univers, autant dire qu’une exploration exhaustive est impossible. AlphaGo a alors recours à des algorithmes d’apprentissage supervisés entrainés sur des parties jouées par des humains dont la sortie est un ensemble de probabilités, le coup qui a la possibilité de gagner la partie est alors choisi. Cet algorithme est alors utilisé pour guider la recherche dans l’arbre immense des possibilités. Mais AlphaGo est allé plus loin que d’essayer d’imiter la créativité humaine en s’entrainant contre lui-même des dizaines de millions de fois puis d’utiliser ces parties pour s’entrainer ! Smart move…
C’est ainsi qu’AlphaGo a surpris tout le monde avec le fameux « Move 37 » lors de sa partie contre Lee. Ce coup que la pratique assidue depuis des milliers d’années de millions de personnes n’avait jamais considéré, cette idée saugrenue de placer un de ses pierres entre deux pierres de Lee, c’est ce coup défiant toute intuition humaine qui lui a valu la victoire. CQFD, l’IA peut être créative, voire avoir une certaine forme d’intuition au gré du hasard de ses calculs.
Est ce que l’IA peut mener à de grandes découvertes scientifiques ? Le prix Nobel de chimie 2024 en est un très bon exemple, AlphaFold a permis de découvrir les structures de protéines qui auraient demandé des siècles à de brillants chercheurs à grand renforts de manipulations expérimentales complexes et chronophages. On peut d’ailleurs voir la recherche scientifique comme l’activité qui consiste à explorer certaines branches dans une infinité de possibilités, on peut même considérer que l’intuition dont font preuve les brillants chercheurs et qui les mènent à ces moments Euréka, comme dirait Archimède, et comme les appellent Hugo Duminil-Copin, lauréat de la Médaille Fields 2022, permet de choisir les branches les plus prometteuses. Et bien c’est précisément ce que font les IAs, prédire quelles branches ont la plus forte probabilité de mener à un résultat intéressant et de les explorer à vitesse grand V.
Le paradoxe de l’IA
Oui mais voilà, une IA, cette savante combinaison d’algorithmes, de données, de systèmes et d’ordinateurs, est infiniment plus rapide qu’un humain pour effectuer ces explorations, elle est également généralement beaucoup plus fiable, ne dit-on pas que l’erreur est humaine ? En revanche, lorsqu’elle commet des erreurs, elles sont beaucoup plus importantes et se propagent beaucoup plus rapidement. Là la vigilance s’impose, qui pour le moment en tous cas reste humaine.
Certaines méthodes existent par lesquelles les algorithmes d’IA peuvent essayer de se surveiller mais cela ne peut pas aller tellement plus loin que cela. Au siècle dernier, Gödel et Turing, respectivement en 1931 et en 1936, ont montré certaines limites fondamentales en mathématique et informatique. Le théorème d’incomplétude de Gödel a révélé des limites fondamentales en mathématique. Ce théorème en particulier a montré qu’il existe des énoncés vrais dans un système, impossible à démontrer dans un système et qu’un système formel cohérent est incapable de démontrer sa propre cohérence. Dans la même veine, Turing lui s’est intéressé au problème de l’arrêt : est-ce qu’il est possible de déterminer qu’un programme informatique et des entrées, donnés, terminera son exécution ou non. En d’autres termes, peut-on construire un programme capable de de prédire si un autre programme s’arrêtera ou bouclera à l’infini ? Turing a prouvé que le problème de l’arrêt est indécidable c’est-à-dire qu’il est impossible de construire un programme universel capable de résoudre ce problème pour tous les programmes possibles. En particulier car un tel programme pourrait se contredire.
Adopter l’IA sans hésiter mais prudemment
Nos deux compères ont ainsi posé des limites intrinsèques à la puissance des algorithmes indépendamment du volume de données et du nombre de GPUs dont on peut disposer. Ainsi qu’une IA s’assure elle-même de bien fonctionner parait impossible et de manière générale une IA ne peut raisonner à son propre sujet. Est-ce pour cela qu’Alpha, selon D. Hassibis, ne pourrait jamais inventer le jeu de Go et c’est peut-être là sa limite. C’est là que l’humain peut entrer en piste. En d’autres termes, utiliser l’IA pour la découverte scientifique est d’ores et déjà possible et on aurait tort de s’en priver mais il est important de l’utiliser en respectant la démarche scientifique rigoureuse à laquelle nous, chercheurs, sommes rodés.
Les mathématiques ont été créées pour mettre le monde en équations et représenter le monde physique, l’informatique (ou l’IA) met le monde en algorithmes et en fournit des représentations vivantes qui collent si bien à la nature continue de la biologie et la physique mais aussi de bien des domaines des sciences humaine et sociales.
Ainsi, quel que soit son domaine et son pré carré, scientifique, il devient nécessaire de maitriser les fondements de l’IA pour bénéficier de ses prouesses et de son potentiel tout en vérifiant la pertinence des résultats obtenus, en questionnant les découvertes surprises qu’elle pourrait amener mais aussi en s’assurant que les données d’entrainement ne soient ni biaisées ni erronées. Si nous avons d’ores et déjà compris qu’il était temps d’introduire l’informatique dans le secondaire mais également dans beaucoup de cursus du supérieur, surtout scientifiques, il convient de poursuivre cet effort, de l’intensifier même et de l’élargir. Il est temps que l’informatique soit élevée au rang de citoyen de première-classe comme les mathématiques et la physique dans tous les cursus scientifiques. Plus encore, il est tout autant essentiel que les linguistes, les historiens, les sociologues et autres chercheurs des sciences humaines et sociales aient la possibilité d’apprendre les rudiments de l’informatique, et plus si affinité, dans leurs cursus.
Ainsi les académiques doivent s’y préparer, leurs métiers aussi vont être transformés par l’intelligence artificielle, informaticiens compris ! Ces derniers partent avec un petit avantage compétitif, celui de connaître les fondements de l’IA. À tous les autres, à vos marques, si ce n’est pas déjà fait !
Anne-Marie Kermarrec, Professeure à l’EPFL, Lausanne
[1] Mankowitz, D.J., Michi, A., Zhernov, A. et al. Faster sorting algorithms discovered using deep reinforcement learning. Nature 618, 257–263 (2023)
[2] https://nqp.stanford.edu/research/inverse-design-photonics
[3] https://www.chartes.psl.eu/gazette-chartiste/actualites/le-projet-lostma-laureat-de-lappel-du-conseil-europeen-de-la-recherche-erc
15.11.2024 à 15:24
Un référentiel de compétences pour former à la sobriété numérique
binaire
Continuer la lecture de « Un référentiel de compétences pour former à la sobriété numérique »
Texte intégral (1287 mots)
Le numérique est omniprésent dans notre quotidien et le déploiement indifférencié de ses usages semble inéluctable. Or, ses impacts environnementaux sont déjà alarmants. En 2019, il était responsable de 4% des émissions mondiales de gaz à effet de serre et son empreinte carbone risque d’augmenter de 60% en France d’ici à 2040. Le sujet est d’autant plus préoccupant que les nouveaux déploiements massifs de technologies comme l’intelligence artificielle générative, la blockchain ou les objets connectés augmentent déjà considérablement la demande en équipements numériques et en énergie.
Cette dernière devrait par exemple doubler en seulement 3 ans rien que pour alimenter les centres de données.
Afin d’envisager d’infléchir la tendance et de se diriger collectivement vers un usage plus soutenable des technologies numériques, il apparait essentiel d’activer un maximum de leviers possible, comme par exemple :
– accélérer la réduction de la consommation de ressources des produits et services numériques ;
– repenser les usages des outils et services numériques aux différentes échelles, individuelles comme collectives.
Le programme Alt Impact (https://altimpact.fr), coporté par l’ADEME, l’INRIA et le CNRS, a comme objectif de réduire les impacts environnementaux du numérique en France par le déploiement de la démarche de sobriété numérique. On définie celle-ci comme :
« Dans un contexte où les limites planétaires sont dépassées, la sobriété numérique est une démarche indispensable qui consiste, dans le cadre d’une réflexion individuelle et collective, à questionner le besoin et l’usage des produits et services numériques dans un objectif d’équité et d’intérêt général.
Cette démarche vise à concevoir, fabriquer, utiliser et traiter la fin de vie des équipements et services numériques en tenant compte des besoins sociaux fondamentaux et des limites planétaires.Pour cela il est nécessaire d’opérer des changements de politiques publiques, d’organisation, des modes de production et de consommation et plus globalement de mode de vie.
La sobriété numérique est donc complémentaire à une démarche d’efficacité qui ne peut répondre à elle seule aux enjeux cités.
Son objectif est de réduire les impacts environnementaux du numérique, de façon absolue. »
L’une des missions du programme Alt Impact est de déployer et de massifier la formation à la sobriété numérique, comme première étape essentielle du passage à l’action.
Pour accompagner les créateurs de contenus de formations, nous avons réalisé dans le cadre du programme un référentiel de compétences accessible à tous, SOBRIÉTÉ NUMÉRIQUE : Référentiel de compétences socles pour tous, en milieu professionnel (https://hal.science/hal-04752687v1).
Ce référentiel de compétences socles vise à recenser les savoirs et savoirs-faire à maîtriser en matière de sobriété numérique pour les professionnel.le.s de tous secteurs.
Il propose une approche structurée en cinq blocs de compétences, qui reposent sur :
– La capacité à situer les impacts du numérique dans une perspective systémique, en comprenant les enjeux environnementaux globaux liés au cycle de vie des équipements ;
– La nécessité de savoir estimer les impacts de ses activités professionnelles sur l’environnement ;
– L’importance de repenser ses usages et de mettre en place des actions concrètes de sobriété, que ce soit à l’échelle individuelle, collective ou organisationnelle.
Ce référentiel de compétences a été pensé pour être un outil structurant, au service de l’émergence d’usages numériques respectant les limites planétaires. Ce cadre commun est important pour mettre en œuvre une transformation à l’échelle systémique, en permettant à tous les acteurs d’accompagner la mise en place d’une dynamique collective – qu’ils soient des professionnels du secteur, des entreprises, des administrations publiques ou des citoyens. La formation est en cela un levier incontournable pour outiller les individus et les organisations, en leur permettant notamment d’identifier les freins et les ressources mobilisables dans une perspective de sobriété numérique.
Bonne lecture !
Françoise Berthoud (CNRS), Lydie Bousseau (ADEME), Chiara Giraudo (CNRS), Nadège Macé (Inria), Dylan Marivain (ADEME), Benjamin Ninassi (Inria), Jean-Marc Pierson (IRIT, Universtié de Toulouse).
08.11.2024 à 05:47
Moliverse ou la Fusion du Micromonde et de l’Univers
binaire
Continuer la lecture de « Moliverse ou la Fusion du Micromonde et de l’Univers »
Texte intégral (1575 mots)
La visualisation de données scientifiques connaît une transformation radicale depuis quelques années due à l’accroissement du volume de données et de la puissance de calcul, mais aussi grâce à la prolifération d’outils informatiques permettant l’exploration de ces données. Imaginez pouvoir vous balader dans l’immensité du cosmos, explorer aussi bien l’infiniment petit que l’infiniment grand, sans pour autant vous lever de votre chaise. Vous pourriez, par exemple, découvrir les compositions moléculaires de l’atmosphère de plusieurs planètes révélées par le télescope James Webb. C’est l’objectif ambitieux de Moliverse, un logiciel unifiant la visualisation moléculaire avec la visualisation de phénomènes astrophysiques. Mathis Brossier nous explique ici comment ce logiciel fonctionne et quels sont ces objectifs. Lonni Besançon et Pascal Guitton.
Moliverse [1] est une intégration du logiciel de visualisation moléculaire VIAMD [2] avec le logiciel d’astronomie OpenSpace [3]. Ce mariage permet de représenter des structures moléculaires en contexte avec des corps célestes. Concrètement, Moliverse vous permet de voir, par exemple, la composition gazeuse d’une atmosphère planétaire ou les structures moléculaires dans les traînées de comètes, tout en conservant une vue d’ensemble de l’univers.
Le Contexte Scientifique
Au fil des années, les simulations de dynamique moléculaire ont atteint un niveau de réalisme impressionnant. Cependant, les outils utilisés par les chimistes et biologistes pour visualiser ces simulations restent souvent confinés à une utilisation experte. Des logiciels comme VMD [4], Avogadro [5] ou VIAMD sont essentiels pour les experts, mais manquent de fonctionnalités pour rendre ces données accessibles à un public non spécialiste.
L’idée est donc de rendre plus accessibles ces outils d’experts, pour éduquer et attiser la curiosité du grand public [6, 7]. En combinant la puissance de ces outils avec des environnements immersifs comme les planétariums ou les écrans interactifs, on peut créer des expositions éducatives spectaculaires.
Les Défis Techniques
L’un des défis majeurs de Moliverse est de gérer les échelles extrêmes. Une simple molécule est incroyablement petite, mesurant à peine quelques ångströms (de l’ordre de 0,1 nanomètre), tandis que l’univers observable s’étend sur des millions d’années-lumière (c’est-à-dire des dizaines de milliards de milliards (oui, deux fois) de kilomètres). Il est alors très difficile de percevoir la différence d’échelle entre une molécule et un corps céleste.
Moliverse résout ce problème en utilisant des techniques innovantes de transition d’échelle. Plutôt que de passer de manière linéaire d’une échelle à l’autre, ce qui serait impraticable, Moliverse utilise des encadrements illustratifs qui aident à séparer visuellement les différentes échelles.
De gauche à droite: ① Atmosphère de la Terre à 10km d’altitude ② Nuage de méthane sur Titan ③ Comparaison de molécules organiques ④ Visualisation dans un planétarium.
Application et Impact
L’objectif principal de Moliverse réside dans son application comme outil pédagogique. Imaginez-vous dans un planétarium, où l’on vous montre d’abord les planètes, les étoiles, les galaxies et leurs compositions. Ensuite, la caméra zoome jusqu’à la surface d’une planète, révélant la composition moléculaire de son atmosphère, et la plaçant directement dans le contexte de sa découverte. En changeant de point de vue, on peut voir comment la densité et la composition des gaz changent à différentes altitudes et sur différentes planètes. Par exemple, l’atmosphère terrestre est dense et principalement composée d’azote et d’oxygène, tandis que celle de Mars est beaucoup plus fine et dominée par le dioxyde de carbone.
Un autre usage intéressant de Moliverse est de permettre aux scientiques de visualiser leurs données et leurs simulation de dynamiques moléculaires dans plusieurs environnements, allant de l’ordinateur personnel pour leurs travaux de recherche à des larges écrans ou des planétariums pour de l’enseignement tout en incluant des espaces d’analyses collaboratifs.
Moliverse ouvre la voie à une nouvelle forme de communication scientifique. Les enseignants, chercheurs et vulgarisateurs scientifiques disposent désormais d’un outil pour expliquer des concepts complexes de manière visuelle et immersive. Avec l’arrivée du télescope James Webb et les découvertes qu’il promet, la capacité de Moliverse à montrer des compositions chimiques d’exoplanètes en contexte sera particulièrement précieuse. Pour améliorer cet outil, il convient maintenant d’explorer comment permettre une interaction fluide, naturelle, et efficace [8] entre toutes ces échelles, autant pour les chercheurs lorsqu’ils effectuent leurs recherches, que pour le public lors de démonstrations.
Références
[1] M. Brossier et al., “Moliverse???: Contextually embedding the microcosm into the universe,” Computers & Graphics, vol. 112, pp. 22–30, May 2023, doi: 10.1016/j.cag.2023.02.006.
[2] R. Skånberg, I. Hotz, A. Ynnerman, and M. Linares, “VIAMD: a Software for Visual Interactive Analysis of Molecular Dynamics,” J. Chem. Inf. Model., vol. 63, no. 23, pp. 7382–7391, Dec. 2023, doi: 10.1021/acs.jcim.3c01033.
[3] A. Bock et al., “OpenSpace: A System for Astrographics,” IEEE Trans. Visual. Comput. Graphics, pp. 1–1, 2019, doi: 10.1109/TVCG.2019.2934259.
[4] W. Humphrey, A. Dalke, and K. Schulten, “VMD: visual molecular dynamics,” J Mol Graph, vol. 14, no. 1, pp. 33–38, 27–28, Feb. 1996, doi: 10.1016/0263-7855(96)00018-5.
[5] M. D. Hanwell, D. E. Curtis, D. C. Lonie, T. Vandermeersch, E. Zurek, and G. R. Hutchison, “Avogadro: an advanced semantic chemical editor, visualization, and analysis platform,” J Cheminform, vol. 4, p. 17, Aug. 2012, doi: 10.1186/1758-2946-4-17.
[6] A. Ynnerman, P. Ljung, and A. Bock, “Reaching Broad Audiences from a Science Center or Museum Setting,” in Foundations of Data Visualization, M. Chen, H. Hauser, P. Rheingans, and G. Scheuermann, Eds., Cham: Springer International Publishing, 2020, pp. 341–364. doi: 10.1007/978-3-030-34444-3_19.
[7] S. Schwan, A. Grajal, and D. Lewalter, “Understanding and Engagement in Places of Science Experience: Science Museums, Science Centers, Zoos, and Aquariums,” Educational Psychologist, vol. 49, no. 2, pp. 70–85, Apr. 2014, doi: 10.1080/00461520.2014.917588.
[8] L. Besançon, A. Ynnerman, D. F. Keefe, L. Yu, and T. Isenberg, “The State of the Art of Spatial Interfaces for 3D Visualization,” Computer Graphics Forum, vol. 40, no. 1, pp. 293–326, Feb. 2021, doi: 10.1111/cgf.14189.
01.11.2024 à 06:33
L’Art de la Conception Électronique : Sûreté de fonctionnement, Fiabilité et Sécurité
binaire
Texte intégral (2174 mots)
La confiance et le numérique responsable reposent tout deux, entre autres, sur la nécessité de développer des systèmes fiables et sûrs. Cette exigence concerne à la fois la conception hardware (ex : IOT, robotique, cobotique) et celle du software (ex: IA, jumeaux numériques, modélisation numérique). A l’heure où les objets connectés font partie inhérente de nos quotidiens en tant que consommateurs lambda, industriels ou chercheurs, il semble important de questionner les concepts de fiabilité et sécurité dans la conception électronique des objets qui nous entourent. Sébastien SALAS, Chef de projet d’un pôle d’innovation digitale (DIH, Digital Innovation Hub) et directeur de formation au sein du programme CAP’TRONIC dédié à l’expertise des systèmes électroniques pour l’innovation et l’industrie manufacturière, de JESSICA France, nous partage son éclairage sur ce sujet. Ikram Chraibi-Kaadoud et Chloé Mercier.
La conception électronique hardware
Dans l’industrie, un système embarqué est constitué a minima d’une carte avec un microcontrôleur, qui est programmée spécifiquement pour gérer les tâches de l’appareil dans lequel elle s’insère.
Nous interagissons avec des systèmes embarqués tous les jours, souvent sans même nous en rendre compte. Par exemple, la machine à laver qui règle ses cycles de nettoyage selon la charge et le type de linge, le micro-ondes qui chauffe le repas à la perfection avec juste quelques pressions sur des boutons, ou encore le système de freinage dans la voiture qui assure la sécurité en calculant continuellement la pression nécessaire pour arrêter le véhicule efficacement, etc …
Ces systèmes sont « embarqués » car ils font partie intégrante des appareils qu’ils contrôlent. Ils sont souvent compacts, rapides, et conçus pour exécuter leur tâche de manière autonome avec une efficacité maximale et une consommation d’énergie minimale.
C’est le rôle du technicien et ingénieur conception du bureau d’étude de concevoir ce système dit embarqué avec une partie hardware et une partie software.
La conception électronique hardware moderne est un métier très exigeant techniquement qui nécessite une solide compréhension des évolutions technologiques des composants, des besoins des utilisateurs mais aussi de son écosystème technologique. De la conception, au déploiement, au dépannage, à la maintenance, ce métier nécessite de suivre les progrès réalisés dans le domaine de la technologie numérique qui englobe électronique et informatique.
En conception de systèmes embarqués industriels, la prise en compte des notions de Fiabilité – Maintenabilité – Disponibilité – Sécurité, noté aussi sous le sigle FMDS incluant la Sûreté de Fonctionnement (SdF) et la sécurité fonctionnelle est de plus en plus partie intégrante des exigences clients. Intégrer de tels concepts dans les produits peut se passer en douceur si l’entreprise y est bien préparée.
Ces notions représentent les fondamentaux qui assurent la pérennité et l’efficacité des produits une fois en cours d’utilisation. La mise en œuvre de ces notions permet de garantir le meilleur niveau de performance et de satisfaction utilisateur. Comprendre leur implication tout en reconnaissant leur interdépendance est crucial pour les ingénieurs et concepteurs qui visent l’excellence dans la création de produits électroniques pour l’industrie.
Sécurité fonctionnelle
Définition
La sécurité fonctionnelle est une facette critique de la sûreté de fonctionnement centrée sur l’élimination ou la gestion des risques liés aux défaillances potentielles des systèmes électroniques. Elle concerne la capacité d’un système à rester ou à revenir dans un état sûr en cas de défaillance. La sécurité fonctionnelle est donc intrinsèquement liée à la conception et à l’architecture du produit, nécessitant une approche méthodique pour identifier, évaluer et atténuer les risques de défaillance. Cela inclut des mesures telles que les systèmes de détection d’erreurs, les mécanismes de redondance, et les procédures d’arrêt d’urgence.
L’importance de la sécurité fonctionnelle
À l’ère des objets connectés (aussi connus sous le sigle de IoT pour Internet Of Things) et des systèmes embarqués, la sécurité fonctionnelle est devenue un enjeu majeur, en particulier dans des secteurs critiques tels que l’automobile, l’aéronautique, et la santé, où une défaillance peut avoir des conséquences graves. Chaque secteur propose sa propre norme qui a le même objectif, assurer non seulement la protection des utilisateurs mais contribuer également à la confiance et à la crédibilité du produit sur le marché. La sécurité fonctionnelle est garante d’un fonctionnement sûr même en présence de défaillances. Cette dernière requiert une attention particulière dès les premières étapes de conception pour intégrer des stratégies et des mécanismes qui préviennent les incidents.
Que surveiller pour une sécurité fonctionnelle optimale ?
Il existe de nombreux paramètres à surveiller et de nombreuses méthodes à mettre en place pour une sécurité fonctionnelle optimale. Ici deux seront soulignés : La fiabilité et la cybersécurité.
> La fiabilité : La fiabilité mesure la probabilité qu’un produit performe ses fonctions requises, sans faille, sous des conditions définies, pour une période spécifique. C’est la quantification de la durabilité et de la constance d’un produit. Dans la conception hardware, cela se traduit par des choix de composants de haute qualité, des architectures robustes et surtout des tests rigoureux. On aborde ici des notions comme le taux de défaillance, ou encore le calcul de temps moyen entre pannes ou durée moyenne entre pannes, souvent désigné par son sigle anglais MTBF (Mean Time Between Failures) et qui correspond à la moyenne arithmétique du temps de fonctionnement entre les pannes d’un système réparable.
La fiabilité des composants électroniques contribue aux démarches de sûreté de fonctionnement et de sécurité fonctionnelle essentielle dans des domaines où le temps de fonctionnement est critique. Ce sont les disciplines complémentaires à connaître pour anticiper et éviter les défaillances des systèmes. Pour les produits électroniques, il est important de comprendre les calculs de fiabilité et de savoir les analyser.
> La (cyber)sécurité : C’est la protection contre les menaces malveillantes ou les accès non autorisés qui pourraient compromettre les fonctionnalités du produit. Dans le domaine de l’électronique, cela implique la mise en place de barrières physiques (ex: un serveur dans une salle fermée à clé) et logicielles (ex: des mots de passe ou l’obligation d’un VPN) pour protéger les données et les fonctionnalités des appareils. La sécurité est particulièrement pertinente dans le contexte actuel de connectivité accrue, où les risques de cyberattaques et de violations de données sont omniprésents. Ce sujet a été abordé avec Jean Christophe Marpeau, référent cybersécurité chez #CAPTRONIC.
Conclusion
La conception électronique hardware moderne est un équilibre délicat entre sûreté de fonctionnement, fiabilité et sécurité. Ces concepts, bien que distincts, travaillent de concert pour créer des produits non seulement performants mais aussi dignes de confiance et sûrs. Les professionnels de l’électronique ont pour devoir d’harmoniser ces aspects pour répondre aux attentes croissantes en matière de qualité et de sécurité dans notre société connectée.
Sébastien SALAS est chef de projet d’un pôle d’innovation digitale (DIH, Digital Innovation Hub) et directeur de formation au sein du programme CAP’TRONIC de JESSICA France. Il s’attelle à proposer des formations pour les entreprises au croisement des dernières innovations technologiques et des besoins des métiers du numérique et de l’électronique en particulier, pour les aider à développer leurs compétences et leur maturité technologique. |
- Persos A à L
- Mona CHOLLET
- Anna COLIN-LEBEDEV
- Julien DEVAUREIX
- Cory DOCTOROW
- EDUC.POP.FR
- Marc ENDEWELD
- Michel GOYA
- Hubert GUILLAUD
- Gérard FILOCHE
- Alain GRANDJEAN
- Hacking-Social
- Samuel HAYAT
- Dana HILLIOT
- François HOUSTE
- Tagrawla INEQQIQI
- Infiltrés (les)
- Clément JEANNEAU
- Paul JORION
- Michel LEPESANT
- Frédéric LORDON
- Blogs persos du Diplo
- LePartisan.info
- Persos M à Z
- Henri MALER
- Christophe MASUTTI
- Romain MIELCAREK
- Richard MONVOISIN
- Corinne MOREL-DARLEUX
- Fabrice NICOLINO
- Timothée PARRIQUE
- Emmanuel PONT
- VisionsCarto
- Yannis YOULOUNTAS
- Michaël ZEMMOUR
- Numérique
- Binaire [Blogs Le Monde]
- Christophe DESCHAMPS
- Louis DERRAC
- Olivier ERTZSCHEID
- Olivier EZRATY
- Framablog
- Francis PISANI
- Pixel de Tracking
- Irénée RÉGNAULD
- Nicolas VIVANT
- Collectifs
- Arguments
- Bondy Blog
- Dérivation
- Dissidences
- Mr Mondialisation
- Palim Psao
- Paris-Luttes.info
- ROJAVA Info
- Créatifs / Art / Fiction
- Nicole ESTEROLLE
- Julien HERVIEUX
- Alessandro PIGNOCCHI
- XKCD