Big browser Liberté Egalité Sexualité Pixels
BINAIRE
L'informatique : science et technique au coeur du numérique - avec la Société Informatique de France
Publié le 22.11.2024 à 06:25
Le prochain Nobel récompensera-t-il une IA ?
En mars 2016, AlphaGo écrasait le légendaire champion de du monde de Go Lee Sedol. Le monde commençait à entrevoir le potentiel extraordinaire de l’intelligence artificielle. Quand en novembre 2022, ChatGPT a été lancé, chacun d’entre nous a commencé à entamer la conversation avec ce nouveau joujou, qui de lui demander d’écrire un discours, qui de lui faire corriger ou de faire un résumé d’un article, qui de le sommer d’écrire un poème ou de lui donner des idées pour résoudre un problème. Quelques mois plus tard, ChatGPT passait avec succès des examens réputés difficiles tel que celui du barreau, écrivait du code à l’envi dans n’importe quel langage informatique ou pondait un nouveau roman dans le style de Zola. Et le monde, oscillant entre ébahissement et inquiétude, de réaliser à quel point, bien que sujets à des hallucinations manifestes, ces algorithmes d’IA générative allaient petit à petit grignoter nos emplois dans bien des domaines du service du droit ou de la médecine.
Et la science dans tout ça ? Est-ce qu’un algorithme d’IA peut aussi remplacer les cerveaux d’un éminent chercheur en physique, d’un prix Nobel de chimie ou d’un historien célèbre ?
Stockholm, le 8 octobre 2024, la vénérable académie des Nobels couronne dans le domaine de la physique, entre autres, … un informaticien, en l’occurrence Jeff Hinton, qui a partagé le prix Turing en 2019 avec Yann Lecun et Yoshua Bengio. Ce même Jeff Hinton qui a dénoncé avec véhémence les dangers de l’intelligence artificielle pour l’humanité du reste il y a quelques temps. Le lendemain, le 9 octobre 2024, cette même académie décerne un prix Nobel de chimie à deux autres informaticiens de DeepMind Demis Hassabis et John Jumper pour leurs travaux sur la structure des protéines.
Outre ces deux exemples iconiques, l’intelligence artificielle participe désormais fréquemment à des découvertes scientifiques dans de nombreux domaines comme ce nouvel algorithme de tri, domaine pourtant ô combien étudié dans la communauté algorithmique, qui émane d’un réseau de neurones en mars 2023 [1], ou encore un circuit exotique, qui de l’avis des physiciens était singulièrement inattendu, issu d’un logiciel d’IA de conceptions de dispositifs photoniques arbitraire[2], et les exemples foisonnent dans les domaines de la médecine ou de la biologie par exemple.
Au-delà de ce qu’on appelle les sciences dures, l’IA a commencé tranquillement à révolutionner aussi les sciences humaines et sociales comme l’illustre l’excellent projet ERC en philologie de J.-B. Camps[3] qui consiste à comprendre comment les cultures humaines évoluent au cours du temps en appliquant des méthodes d’intelligence artificielles utilisées dans la théorie de l’évolution en biologie aux manuscrits anciens afin de comprendre les mécanismes de transmission des textes, de leur survie et la dynamique des canons culturels qu’ ils suscitent.
Il devient donc raisonnable d’envisager une réponse par l’affirmative à la question ci-dessus : oui un prix Nobel pourrait récompenser une IA. Les algorithmes d’intelligence artificielle couplés à des infrastructures puissantes et des systèmes efficaces peuvent eux-aussi apporter leur pierre au bel édifice scientifique que nous construisons depuis la nuit des temps, et ce dans tous les domaines scientifiques.
De la créativité d’AlphaGo
En l’occurrence, AlphaGo, pour y revenir, a d’ores et déjà surpris le monde par sa créativité. AlphaGo s’est attaqué à ce jeu de stratégie d’origine chinoise inventé il y a plusieurs millions d’années qui consiste à placer des pions, appelés des pierres, sur un plateau quadrillé qu’on appelle le goban. Deux joueurs s’affrontent qui cherchent à marquer leur territoire en posant des pierres sur les intersections de la grille, pierres qui peuvent être capturées par encerclement. Je ne vais pas entrer plus en détail dans ce jeu car d’une part ce n’est pas le sujet, d’autre part je ne m’y suis jamais essayée. AlphaGo, lui est devenu champion. Au cœur d’AlphaGo, un arbre de recherche, un arbre de MonteCarlo pour être plus précis, dans lequel AlphaGo cherche son chemin en évaluant chaque coup potentiel et en simulant le jeu entier pour décider s’il doit jouer ce coup ou non. Compte tenu de la dimension de la grille, et la multitude de coups possible, bien plus élevé que le nombre d’atomes dans l’univers, autant dire qu’une exploration exhaustive est impossible. AlphaGo a alors recours à des algorithmes d’apprentissage supervisés entrainés sur des parties jouées par des humains dont la sortie est un ensemble de probabilités, le coup qui a la possibilité de gagner la partie est alors choisi. Cet algorithme est alors utilisé pour guider la recherche dans l’arbre immense des possibilités. Mais AlphaGo est allé plus loin que d’essayer d’imiter la créativité humaine en s’entrainant contre lui-même des dizaines de millions de fois puis d’utiliser ces parties pour s’entrainer ! Smart move…
C’est ainsi qu’AlphaGo a surpris tout le monde avec le fameux « Move 37 » lors de sa partie contre Lee. Ce coup que la pratique assidue depuis des milliers d’années de millions de personnes n’avait jamais considéré, cette idée saugrenue de placer un de ses pierres entre deux pierres de Lee, c’est ce coup défiant toute intuition humaine qui lui a valu la victoire. CQFD, l’IA peut être créative, voire avoir une certaine forme d’intuition au gré du hasard de ses calculs.
Est ce que l’IA peut mener à de grandes découvertes scientifiques ? Le prix Nobel de chimie 2024 en est un très bon exemple, AlphaFold a permis de découvrir les structures de protéines qui auraient demandé des siècles à de brillants chercheurs à grand renforts de manipulations expérimentales complexes et chronophages. On peut d’ailleurs voir la recherche scientifique comme l’activité qui consiste à explorer certaines branches dans une infinité de possibilités, on peut même considérer que l’intuition dont font preuve les brillants chercheurs et qui les mènent à ces moments Euréka, comme dirait Archimède, et comme les appellent Hugo Duminil-Copin, lauréat de la Médaille Fields 2022, permet de choisir les branches les plus prometteuses. Et bien c’est précisément ce que font les IAs, prédire quelles branches ont la plus forte probabilité de mener à un résultat intéressant et de les explorer à vitesse grand V.
Le paradoxe de l’IA
Oui mais voilà, une IA, cette savante combinaison d’algorithmes, de données, de systèmes et d’ordinateurs, est infiniment plus rapide qu’un humain pour effectuer ces explorations, elle est également généralement beaucoup plus fiable, ne dit-on pas que l’erreur est humaine ? En revanche, lorsqu’elle commet des erreurs, elles sont beaucoup plus importantes et se propagent beaucoup plus rapidement. Là la vigilance s’impose, qui pour le moment en tous cas reste humaine.
Certaines méthodes existent par lesquelles les algorithmes d’IA peuvent essayer de se surveiller mais cela ne peut pas aller tellement plus loin que cela. Au siècle dernier, Gödel et Turing, respectivement en 1931 et en 1936, ont montré certaines limites fondamentales en mathématique et informatique. Le théorème d’incomplétude de Gödel a révélé des limites fondamentales en mathématique. Ce théorème en particulier a montré qu’il existe des énoncés vrais dans un système, impossible à démontrer dans un système et qu’un système formel cohérent est incapable de démontrer sa propre cohérence. Dans la même veine, Turing lui s’est intéressé au problème de l’arrêt : est-ce qu’il est possible de déterminer qu’un programme informatique et des entrées, donnés, terminera son exécution ou non. En d’autres termes, peut-on construire un programme capable de de prédire si un autre programme s’arrêtera ou bouclera à l’infini ? Turing a prouvé que le problème de l’arrêt est indécidable c’est-à-dire qu’il est impossible de construire un programme universel capable de résoudre ce problème pour tous les programmes possibles. En particulier car un tel programme pourrait se contredire.
Adopter l’IA sans hésiter mais prudemment
Nos deux compères ont ainsi posé des limites intrinsèques à la puissance des algorithmes indépendamment du volume de données et du nombre de GPUs dont on peut disposer. Ainsi qu’une IA s’assure elle-même de bien fonctionner parait impossible et de manière générale une IA ne peut raisonner à son propre sujet. Est-ce pour cela qu’Alpha, selon D. Hassibis, ne pourrait jamais inventer le jeu de Go et c’est peut-être là sa limite. C’est là que l’humain peut entrer en piste. En d’autres termes, utiliser l’IA pour la découverte scientifique est d’ores et déjà possible et on aurait tort de s’en priver mais il est important de l’utiliser en respectant la démarche scientifique rigoureuse à laquelle nous, chercheurs, sommes rodés.
Les mathématiques ont été créées pour mettre le monde en équations et représenter le monde physique, l’informatique (ou l’IA) met le monde en algorithmes et en fournit des représentations vivantes qui collent si bien à la nature continue de la biologie et la physique mais aussi de bien des domaines des sciences humaine et sociales.
Ainsi, quel que soit son domaine et son pré carré, scientifique, il devient nécessaire de maitriser les fondements de l’IA pour bénéficier de ses prouesses et de son potentiel tout en vérifiant la pertinence des résultats obtenus, en questionnant les découvertes surprises qu’elle pourrait amener mais aussi en s’assurant que les données d’entrainement ne soient ni biaisées ni erronées. Si nous avons d’ores et déjà compris qu’il était temps d’introduire l’informatique dans le secondaire mais également dans beaucoup de cursus du supérieur, surtout scientifiques, il convient de poursuivre cet effort, de l’intensifier même et de l’élargir. Il est temps que l’informatique soit élevée au rang de citoyen de première-classe comme les mathématiques et la physique dans tous les cursus scientifiques. Plus encore, il est tout autant essentiel que les linguistes, les historiens, les sociologues et autres chercheurs des sciences humaines et sociales aient la possibilité d’apprendre les rudiments de l’informatique, et plus si affinité, dans leurs cursus.
Ainsi les académiques doivent s’y préparer, leurs métiers aussi vont être transformés par l’intelligence artificielle, informaticiens compris ! Ces derniers partent avec un petit avantage compétitif, celui de connaître les fondements de l’IA. À tous les autres, à vos marques, si ce n’est pas déjà fait !
Anne-Marie Kermarrec, Professeure à l’EPFL, Lausanne
[1] Mankowitz, D.J., Michi, A., Zhernov, A. et al. Faster sorting algorithms discovered using deep reinforcement learning. Nature 618, 257–263 (2023)
[2] https://nqp.stanford.edu/research/inverse-design-photonics
[3] https://www.chartes.psl.eu/gazette-chartiste/actualites/le-projet-lostma-laureat-de-lappel-du-conseil-europeen-de-la-recherche-erc
Publié le 15.11.2024 à 15:24
Un référentiel de compétences pour former à la sobriété numérique
Le numérique est omniprésent dans notre quotidien et le déploiement indifférencié de ses usages semble inéluctable. Or, ses impacts environnementaux sont déjà alarmants. En 2019, il était responsable de 4% des émissions mondiales de gaz à effet de serre et son empreinte carbone risque d’augmenter de 60% en France d’ici à 2040. Le sujet est d’autant plus préoccupant que les nouveaux déploiements massifs de technologies comme l’intelligence artificielle générative, la blockchain ou les objets connectés augmentent déjà considérablement la demande en équipements numériques et en énergie.
Cette dernière devrait par exemple doubler en seulement 3 ans rien que pour alimenter les centres de données.
Afin d’envisager d’infléchir la tendance et de se diriger collectivement vers un usage plus soutenable des technologies numériques, il apparait essentiel d’activer un maximum de leviers possible, comme par exemple :
– accélérer la réduction de la consommation de ressources des produits et services numériques ;
– repenser les usages des outils et services numériques aux différentes échelles, individuelles comme collectives.
Le programme Alt Impact (https://altimpact.fr), coporté par l’ADEME, l’INRIA et le CNRS, a comme objectif de réduire les impacts environnementaux du numérique en France par le déploiement de la démarche de sobriété numérique. On définie celle-ci comme :
« Dans un contexte où les limites planétaires sont dépassées, la sobriété numérique est une démarche indispensable qui consiste, dans le cadre d’une réflexion individuelle et collective, à questionner le besoin et l’usage des produits et services numériques dans un objectif d’équité et d’intérêt général.
Cette démarche vise à concevoir, fabriquer, utiliser et traiter la fin de vie des équipements et services numériques en tenant compte des besoins sociaux fondamentaux et des limites planétaires.Pour cela il est nécessaire d’opérer des changements de politiques publiques, d’organisation, des modes de production et de consommation et plus globalement de mode de vie.
La sobriété numérique est donc complémentaire à une démarche d’efficacité qui ne peut répondre à elle seule aux enjeux cités.
Son objectif est de réduire les impacts environnementaux du numérique, de façon absolue. »
L’une des missions du programme Alt Impact est de déployer et de massifier la formation à la sobriété numérique, comme première étape essentielle du passage à l’action.
Pour accompagner les créateurs de contenus de formations, nous avons réalisé dans le cadre du programme un référentiel de compétences accessible à tous, SOBRIÉTÉ NUMÉRIQUE : Référentiel de compétences socles pour tous, en milieu professionnel (https://hal.science/hal-04752687v1).
Ce référentiel de compétences socles vise à recenser les savoirs et savoirs-faire à maîtriser en matière de sobriété numérique pour les professionnel.le.s de tous secteurs.
Il propose une approche structurée en cinq blocs de compétences, qui reposent sur :
– La capacité à situer les impacts du numérique dans une perspective systémique, en comprenant les enjeux environnementaux globaux liés au cycle de vie des équipements ;
– La nécessité de savoir estimer les impacts de ses activités professionnelles sur l’environnement ;
– L’importance de repenser ses usages et de mettre en place des actions concrètes de sobriété, que ce soit à l’échelle individuelle, collective ou organisationnelle.
Ce référentiel de compétences a été pensé pour être un outil structurant, au service de l’émergence d’usages numériques respectant les limites planétaires. Ce cadre commun est important pour mettre en œuvre une transformation à l’échelle systémique, en permettant à tous les acteurs d’accompagner la mise en place d’une dynamique collective – qu’ils soient des professionnels du secteur, des entreprises, des administrations publiques ou des citoyens. La formation est en cela un levier incontournable pour outiller les individus et les organisations, en leur permettant notamment d’identifier les freins et les ressources mobilisables dans une perspective de sobriété numérique.
Bonne lecture !
Françoise Berthoud (CNRS), Lydie Bousseau (ADEME), Chiara Giraudo (CNRS), Nadège Macé (Inria), Dylan Marivain (ADEME), Benjamin Ninassi (Inria), Jean-Marc Pierson (IRIT, Universtié de Toulouse).
Publié le 08.11.2024 à 05:47
Moliverse ou la Fusion du Micromonde et de l’Univers
La visualisation de données scientifiques connaît une transformation radicale depuis quelques années due à l’accroissement du volume de données et de la puissance de calcul, mais aussi grâce à la prolifération d’outils informatiques permettant l’exploration de ces données. Imaginez pouvoir vous balader dans l’immensité du cosmos, explorer aussi bien l’infiniment petit que l’infiniment grand, sans pour autant vous lever de votre chaise. Vous pourriez, par exemple, découvrir les compositions moléculaires de l’atmosphère de plusieurs planètes révélées par le télescope James Webb. C’est l’objectif ambitieux de Moliverse, un logiciel unifiant la visualisation moléculaire avec la visualisation de phénomènes astrophysiques. Mathis Brossier nous explique ici comment ce logiciel fonctionne et quels sont ces objectifs. Lonni Besançon et Pascal Guitton.
Moliverse [1] est une intégration du logiciel de visualisation moléculaire VIAMD [2] avec le logiciel d’astronomie OpenSpace [3]. Ce mariage permet de représenter des structures moléculaires en contexte avec des corps célestes. Concrètement, Moliverse vous permet de voir, par exemple, la composition gazeuse d’une atmosphère planétaire ou les structures moléculaires dans les traînées de comètes, tout en conservant une vue d’ensemble de l’univers.
Le Contexte Scientifique
Au fil des années, les simulations de dynamique moléculaire ont atteint un niveau de réalisme impressionnant. Cependant, les outils utilisés par les chimistes et biologistes pour visualiser ces simulations restent souvent confinés à une utilisation experte. Des logiciels comme VMD [4], Avogadro [5] ou VIAMD sont essentiels pour les experts, mais manquent de fonctionnalités pour rendre ces données accessibles à un public non spécialiste.
L’idée est donc de rendre plus accessibles ces outils d’experts, pour éduquer et attiser la curiosité du grand public [6, 7]. En combinant la puissance de ces outils avec des environnements immersifs comme les planétariums ou les écrans interactifs, on peut créer des expositions éducatives spectaculaires.
Les Défis Techniques
L’un des défis majeurs de Moliverse est de gérer les échelles extrêmes. Une simple molécule est incroyablement petite, mesurant à peine quelques ångströms (de l’ordre de 0,1 nanomètre), tandis que l’univers observable s’étend sur des millions d’années-lumière (c’est-à-dire des dizaines de milliards de milliards (oui, deux fois) de kilomètres). Il est alors très difficile de percevoir la différence d’échelle entre une molécule et un corps céleste.
Moliverse résout ce problème en utilisant des techniques innovantes de transition d’échelle. Plutôt que de passer de manière linéaire d’une échelle à l’autre, ce qui serait impraticable, Moliverse utilise des encadrements illustratifs qui aident à séparer visuellement les différentes échelles.
De gauche à droite: ① Atmosphère de la Terre à 10km d’altitude ② Nuage de méthane sur Titan ③ Comparaison de molécules organiques ④ Visualisation dans un planétarium.
Application et Impact
L’objectif principal de Moliverse réside dans son application comme outil pédagogique. Imaginez-vous dans un planétarium, où l’on vous montre d’abord les planètes, les étoiles, les galaxies et leurs compositions. Ensuite, la caméra zoome jusqu’à la surface d’une planète, révélant la composition moléculaire de son atmosphère, et la plaçant directement dans le contexte de sa découverte. En changeant de point de vue, on peut voir comment la densité et la composition des gaz changent à différentes altitudes et sur différentes planètes. Par exemple, l’atmosphère terrestre est dense et principalement composée d’azote et d’oxygène, tandis que celle de Mars est beaucoup plus fine et dominée par le dioxyde de carbone.
Un autre usage intéressant de Moliverse est de permettre aux scientiques de visualiser leurs données et leurs simulation de dynamiques moléculaires dans plusieurs environnements, allant de l’ordinateur personnel pour leurs travaux de recherche à des larges écrans ou des planétariums pour de l’enseignement tout en incluant des espaces d’analyses collaboratifs.
Moliverse ouvre la voie à une nouvelle forme de communication scientifique. Les enseignants, chercheurs et vulgarisateurs scientifiques disposent désormais d’un outil pour expliquer des concepts complexes de manière visuelle et immersive. Avec l’arrivée du télescope James Webb et les découvertes qu’il promet, la capacité de Moliverse à montrer des compositions chimiques d’exoplanètes en contexte sera particulièrement précieuse. Pour améliorer cet outil, il convient maintenant d’explorer comment permettre une interaction fluide, naturelle, et efficace [8] entre toutes ces échelles, autant pour les chercheurs lorsqu’ils effectuent leurs recherches, que pour le public lors de démonstrations.
Références
[1] M. Brossier et al., “Moliverse???: Contextually embedding the microcosm into the universe,” Computers & Graphics, vol. 112, pp. 22–30, May 2023, doi: 10.1016/j.cag.2023.02.006.
[2] R. Skånberg, I. Hotz, A. Ynnerman, and M. Linares, “VIAMD: a Software for Visual Interactive Analysis of Molecular Dynamics,” J. Chem. Inf. Model., vol. 63, no. 23, pp. 7382–7391, Dec. 2023, doi: 10.1021/acs.jcim.3c01033.
[3] A. Bock et al., “OpenSpace: A System for Astrographics,” IEEE Trans. Visual. Comput. Graphics, pp. 1–1, 2019, doi: 10.1109/TVCG.2019.2934259.
[4] W. Humphrey, A. Dalke, and K. Schulten, “VMD: visual molecular dynamics,” J Mol Graph, vol. 14, no. 1, pp. 33–38, 27–28, Feb. 1996, doi: 10.1016/0263-7855(96)00018-5.
[5] M. D. Hanwell, D. E. Curtis, D. C. Lonie, T. Vandermeersch, E. Zurek, and G. R. Hutchison, “Avogadro: an advanced semantic chemical editor, visualization, and analysis platform,” J Cheminform, vol. 4, p. 17, Aug. 2012, doi: 10.1186/1758-2946-4-17.
[6] A. Ynnerman, P. Ljung, and A. Bock, “Reaching Broad Audiences from a Science Center or Museum Setting,” in Foundations of Data Visualization, M. Chen, H. Hauser, P. Rheingans, and G. Scheuermann, Eds., Cham: Springer International Publishing, 2020, pp. 341–364. doi: 10.1007/978-3-030-34444-3_19.
[7] S. Schwan, A. Grajal, and D. Lewalter, “Understanding and Engagement in Places of Science Experience: Science Museums, Science Centers, Zoos, and Aquariums,” Educational Psychologist, vol. 49, no. 2, pp. 70–85, Apr. 2014, doi: 10.1080/00461520.2014.917588.
[8] L. Besançon, A. Ynnerman, D. F. Keefe, L. Yu, and T. Isenberg, “The State of the Art of Spatial Interfaces for 3D Visualization,” Computer Graphics Forum, vol. 40, no. 1, pp. 293–326, Feb. 2021, doi: 10.1111/cgf.14189.
Publié le 01.11.2024 à 06:33
L’Art de la Conception Électronique : Sûreté de fonctionnement, Fiabilité et Sécurité
La confiance et le numérique responsable reposent tout deux, entre autres, sur la nécessité de développer des systèmes fiables et sûrs. Cette exigence concerne à la fois la conception hardware (ex : IOT, robotique, cobotique) et celle du software (ex: IA, jumeaux numériques, modélisation numérique). A l’heure où les objets connectés font partie inhérente de nos quotidiens en tant que consommateurs lambda, industriels ou chercheurs, il semble important de questionner les concepts de fiabilité et sécurité dans la conception électronique des objets qui nous entourent. Sébastien SALAS, Chef de projet d’un pôle d’innovation digitale (DIH, Digital Innovation Hub) et directeur de formation au sein du programme CAP’TRONIC dédié à l’expertise des systèmes électroniques pour l’innovation et l’industrie manufacturière, de JESSICA France, nous partage son éclairage sur ce sujet. Ikram Chraibi-Kaadoud et Chloé Mercier.
La conception électronique hardware
Dans l’industrie, un système embarqué est constitué a minima d’une carte avec un microcontrôleur, qui est programmée spécifiquement pour gérer les tâches de l’appareil dans lequel elle s’insère.
Nous interagissons avec des systèmes embarqués tous les jours, souvent sans même nous en rendre compte. Par exemple, la machine à laver qui règle ses cycles de nettoyage selon la charge et le type de linge, le micro-ondes qui chauffe le repas à la perfection avec juste quelques pressions sur des boutons, ou encore le système de freinage dans la voiture qui assure la sécurité en calculant continuellement la pression nécessaire pour arrêter le véhicule efficacement, etc …
Ces systèmes sont « embarqués » car ils font partie intégrante des appareils qu’ils contrôlent. Ils sont souvent compacts, rapides, et conçus pour exécuter leur tâche de manière autonome avec une efficacité maximale et une consommation d’énergie minimale.
C’est le rôle du technicien et ingénieur conception du bureau d’étude de concevoir ce système dit embarqué avec une partie hardware et une partie software.
La conception électronique hardware moderne est un métier très exigeant techniquement qui nécessite une solide compréhension des évolutions technologiques des composants, des besoins des utilisateurs mais aussi de son écosystème technologique. De la conception, au déploiement, au dépannage, à la maintenance, ce métier nécessite de suivre les progrès réalisés dans le domaine de la technologie numérique qui englobe électronique et informatique.
En conception de systèmes embarqués industriels, la prise en compte des notions de Fiabilité – Maintenabilité – Disponibilité – Sécurité, noté aussi sous le sigle FMDS incluant la Sûreté de Fonctionnement (SdF) et la sécurité fonctionnelle est de plus en plus partie intégrante des exigences clients. Intégrer de tels concepts dans les produits peut se passer en douceur si l’entreprise y est bien préparée.
Ces notions représentent les fondamentaux qui assurent la pérennité et l’efficacité des produits une fois en cours d’utilisation. La mise en œuvre de ces notions permet de garantir le meilleur niveau de performance et de satisfaction utilisateur. Comprendre leur implication tout en reconnaissant leur interdépendance est crucial pour les ingénieurs et concepteurs qui visent l’excellence dans la création de produits électroniques pour l’industrie.
Sécurité fonctionnelle
Définition
La sécurité fonctionnelle est une facette critique de la sûreté de fonctionnement centrée sur l’élimination ou la gestion des risques liés aux défaillances potentielles des systèmes électroniques. Elle concerne la capacité d’un système à rester ou à revenir dans un état sûr en cas de défaillance. La sécurité fonctionnelle est donc intrinsèquement liée à la conception et à l’architecture du produit, nécessitant une approche méthodique pour identifier, évaluer et atténuer les risques de défaillance. Cela inclut des mesures telles que les systèmes de détection d’erreurs, les mécanismes de redondance, et les procédures d’arrêt d’urgence.
L’importance de la sécurité fonctionnelle
À l’ère des objets connectés (aussi connus sous le sigle de IoT pour Internet Of Things) et des systèmes embarqués, la sécurité fonctionnelle est devenue un enjeu majeur, en particulier dans des secteurs critiques tels que l’automobile, l’aéronautique, et la santé, où une défaillance peut avoir des conséquences graves. Chaque secteur propose sa propre norme qui a le même objectif, assurer non seulement la protection des utilisateurs mais contribuer également à la confiance et à la crédibilité du produit sur le marché. La sécurité fonctionnelle est garante d’un fonctionnement sûr même en présence de défaillances. Cette dernière requiert une attention particulière dès les premières étapes de conception pour intégrer des stratégies et des mécanismes qui préviennent les incidents.
Que surveiller pour une sécurité fonctionnelle optimale ?
Il existe de nombreux paramètres à surveiller et de nombreuses méthodes à mettre en place pour une sécurité fonctionnelle optimale. Ici deux seront soulignés : La fiabilité et la cybersécurité.
> La fiabilité : La fiabilité mesure la probabilité qu’un produit performe ses fonctions requises, sans faille, sous des conditions définies, pour une période spécifique. C’est la quantification de la durabilité et de la constance d’un produit. Dans la conception hardware, cela se traduit par des choix de composants de haute qualité, des architectures robustes et surtout des tests rigoureux. On aborde ici des notions comme le taux de défaillance, ou encore le calcul de temps moyen entre pannes ou durée moyenne entre pannes, souvent désigné par son sigle anglais MTBF (Mean Time Between Failures) et qui correspond à la moyenne arithmétique du temps de fonctionnement entre les pannes d’un système réparable.
La fiabilité des composants électroniques contribue aux démarches de sûreté de fonctionnement et de sécurité fonctionnelle essentielle dans des domaines où le temps de fonctionnement est critique. Ce sont les disciplines complémentaires à connaître pour anticiper et éviter les défaillances des systèmes. Pour les produits électroniques, il est important de comprendre les calculs de fiabilité et de savoir les analyser.
> La (cyber)sécurité : C’est la protection contre les menaces malveillantes ou les accès non autorisés qui pourraient compromettre les fonctionnalités du produit. Dans le domaine de l’électronique, cela implique la mise en place de barrières physiques (ex: un serveur dans une salle fermée à clé) et logicielles (ex: des mots de passe ou l’obligation d’un VPN) pour protéger les données et les fonctionnalités des appareils. La sécurité est particulièrement pertinente dans le contexte actuel de connectivité accrue, où les risques de cyberattaques et de violations de données sont omniprésents. Ce sujet a été abordé avec Jean Christophe Marpeau, référent cybersécurité chez #CAPTRONIC.
Conclusion
La conception électronique hardware moderne est un équilibre délicat entre sûreté de fonctionnement, fiabilité et sécurité. Ces concepts, bien que distincts, travaillent de concert pour créer des produits non seulement performants mais aussi dignes de confiance et sûrs. Les professionnels de l’électronique ont pour devoir d’harmoniser ces aspects pour répondre aux attentes croissantes en matière de qualité et de sécurité dans notre société connectée.
Sébastien SALAS est chef de projet d’un pôle d’innovation digitale (DIH, Digital Innovation Hub) et directeur de formation au sein du programme CAP’TRONIC de JESSICA France. Il s’attelle à proposer des formations pour les entreprises au croisement des dernières innovations technologiques et des besoins des métiers du numérique et de l’électronique en particulier, pour les aider à développer leurs compétences et leur maturité technologique. |
Publié le 25.10.2024 à 07:56
On parle d’intelligences artificielles génératives, qui produisent en quelques secondes du texte, des images et du contenu audio. Ce sont de vraies prouesses techniques, de gigantesques calculs statistiques. Bien utilisées, ce sont des outils utiles dans de nombreux domaines, y compris de la vie des ados. Mal comprises, elles font peur. Mal utilisées, elles conduisent à de nombreuses erreurs.
Voici un guide malin et bienveillant pour découvrir comment fonctionne l’IA et à quoi elle sert, comment l’utiliser pour booster sa créativité. Il n’ignore pas les dangers de l’IA (fake news, deep fakes, etc.) et propose des pistes pour en garder le contrôle.
Un exemple ? Alors … plus besoin de faire ces devoirs avec l’IA ?
C’est une des premières choses que les élèves essayent et cela marche… mal ! D’abord, on reconnaît assez facilement que la façon de répondre n’est pas celle d’un·e élève, ensuite les réponses peuvent être absurdes comme on l’expérimente. Et surtout… eh bien on perd son temps ! Les devoirs sont faits pour acquérir des compétences alors les faire faire par un humain ou un algorithme, ça se paye ensuite. En fait, quelque chose a changé profondément : avec ces algorithmes, il faut apprendre à faire ses devoirs autrement. C’est ce que nous explique ce joli livre très chouettement illustré.
On le trouve partout y compris chez son éditeur.
Date de parution: 05 septembre 2024.
Editeur Nathan.
Collection C’est pas moi
Nombre de pages: 128
Auteurs: Pierre-Yves Oudeyer, Didier Roy, Clémentine Latron.
Ikram Chraibi-Kaadoud et Thierry Viéville.
Publié le 18.10.2024 à 08:35
Ils utilisent la lumière pour faire du calcul quantique
Un nouvel entretien autour de l’informatique.
Pascale Senellart est physicienne, directrice de recherche au Laboratoire de photonique et nanostructures du CNRS de l’Université Paris-Saclay, professeure chargée de cours à l’École polytechnique. Ses travaux se concentrent sur les interactions lumière-matière avec des boîtes quantiques semi-conductrices dans des cavités optiques. Elle a reçu la médaille d’argent du CNRS (en 2014) parmi de nombreuses distinctions scientifiques.
En 2017, Pascale a cofondé avec Valérian Giesz et Niccolo Somaschi la startup Quandela, d’abord pour commercialiser une source de photons uniques s’appuyant sur ses travaux de recherche au C2N, puis pour développer un ordinateur quantique à base de photons.
Jean Senellart est informaticien, pionnier de la traduction automatique. Il a longtemps dirigé la R&D de Systran. Sous son impulsion, Systran a construit un des premiers moteurs de traduction basés sur un réseau de neurones et le framework opensource OpenNMT. Il a rejoint Quandela pour contribuer à son logiciel quantique.
Binaire : Pouvez-vous nous raconter votre parcours ?
Pascale Senellart : je suis directrice de recherche au CNRS, au centre de nanosciences et de nanotechnologies depuis 2002. Physicienne des semi-conducteurs, mon objectif était de reproduire dans ces matériaux des expériences fondamentales de la physique théorique. Cela avait été fait par Serge Haroche et d’autres avec des atomes, et je voulais le faire avec des outils de microélectronique. Il s’agit de développements technologiques basés sur l’étude des même matériaux que ceux étudiés pour réaliser de nombreux composants comme les pointeurs lasers. Mon équipe a ainsi développé de petits composants semi-conducteurs similaires à des LED, mais qui sont des composants émettant des photons un par un.
Vers 2013, j’ai commencé à être contactée par des personnes souhaitant construire des ordinateurs quantiques. La technologie de mon équipe, bien qu’imparfaite, était dix fois plus efficace que ce dont ils disposaient. Idéalement, pour obtenir un photon, il devrait suffire d’appuyer sur un bouton ; l’efficacité de leurs outils était de 1 photon pour 100 essais ; nous en sommes maintenant à 60 photons pour 100.
Pour coder de l’information, on peut utiliser la polarisation du photon (suivant le sens de son champ électrique) ou sa couleur (par exemple bleue ou rouge) ou sa direction (suivant qu’il aille à droite ou à gauche). C’est donc un bit d’information. Mais on peut faire mieux en utilisant le fait qu’une particule peut être en deux endroits en même temps. Par exemple, le photon peut aller à la fois à droite et à gauche. C’est à la base du bit d’information quantique, appelé qubit.
Vers 2016, nous disposions de composants qui intéressaient énormément, en particulier, les laboratoires universitaires. En 2017, nous avons créé une startup, Quandela, pour les commercialiser. Au début, nos clients appartenaient au monde académique ; puis avec le boom international sur le quantique, nous avons eu comme clients des startups. Un spécialiste de l’algorithmique quantique, Shane Mansfield a rejoint l’aventure en 2020 pour porter aussi l’effort dans la direction de l’ordinateur quantique. Il y avait un gouffre entre le monde des algorithmes quantiques, des composants semiconducteurs et celui de l’informatique traditionnelle. L’arrivée de Jean en 2022 a permis de faire un pont entre ces trois mondes.
Jean Senellart : J’ai fait une thèse en informatique linguistique avec Maurice Gross au LADL (Laboratoire d’Automatique Documentaire et Linguistique). Je travaillais sur les aspects formels, puis j’ai fait de la traduction automatique et du développement logiciel industriel. Chez Systran, nous avons utilisé l’intelligence artificielle pour le traitement de la langue naturelle, et développé les premiers traducteurs automatiques basés sur des réseaux de neurones. Ensuite, nous avons même mis des transformers (une architecture d’apprentissage profond introduite par Google) en open source. Le domaine de la traduction automatique a beaucoup progressé, et il est aujourd’hui plutôt dans une phase de perfectionnement. C’est ce qui m’a poussé à chercher de nouveaux défis. L’informatique quantique m’est apparue comme un domaine prometteur où mes compétences en algorithmique et en traitement de données complexes pouvaient être valorisées d’une nouvelle manière. C’est ainsi que j’ai décidé de rejoindre le projet de Quandela de construire et de contrôler un ordinateur quantique.
Binaire : Qu’est-ce qu’un ordinateur quantique ? Qu’est-ce que ça pourrait changer ?
PS : L’ordinateur classique repose notamment sur des composants comme des transistors, qui exploitent déjà des propriétés de la physique quantique. Mais l’ordinateur quantique utilise un concept beaucoup plus puissant et fragile, à savoir, la « superposition quantique » : un photon peut être à droite et à gauche en même temps. Mais, dès que je fais une mesure, le photon est soit à droite soit à gauche, de manière aléatoire, avec la même probabilité alors qu’il était, avant la mesure, aux deux endroits en superposition. Et puis, un autre phénomène est essentiel : « l’intrication ». Si on lance deux pièces de monnaie en l’air, elles tombent chacune sur pile ou face ; en quantique, on peut créer un état intriqué des deux pièces ; elles tomberont toujours de manière aléatoire, mais toutes les deux sur pile, ou toutes les deux sur face et même toutes les deux sur la tranche mais exactement de la même façon. Deux photons, peut-être distants l’un de l’autre, peuvent ainsi être intriqués.
Grâce à la superposition et l’intrication, la physique quantique permet ainsi d’explorer plusieurs possibilités en même temps. Supposons que l’on cherche la sortie d’un labyrinthe. Quand on trouve un branchement, on peut explorer la branche de gauche puis l’autre. On pourrait trouver la sortie beaucoup plus vite si on explorait les deux en même temps. Du point de vue de l’information, on arrive à coder avec n particules une information qui correspondrait à un nombre exponentiel en n de bits.
Je travaille sur le hardware et la vraie difficulté à laquelle nous sommes confrontés est de garder les propriétés de superposition et d’intrication. Pour poursuivre avec l’analogie du labyrinthe, si je demande à l’explorateur du labyrinthe où il est, je perds la superposition et donc tout l’avantage apporté par le calcul quantique. Je fais donc en sorte de ne pas lui demander directement, mais si par exemple des cailloux se trouvent dans le labyrinthe et font trébucher l’explorateur, ces cailloux ont en quelque sorte « interrogé » l’explorateur et feront qu’il ne sera plus dans un état superposé mais uniquement à cet endroit du chemin. Ce phénomène illustre ce qu’on appelle la « décohérence » qui va être source d’erreur dans le calcul quantique. Cet exemple montre aussi que quand on veut programmer avec le quantique, on est conduit à penser différemment, à concevoir d’autres algorithmes – car on ne peut pas interroger le système en cours de calcul comme on le fait couramment avec un ordinateur classique. C’est un vrai défi.
Binaire : Comment programme-t-on un ordinateur quantique ?
JS : Il vaut mieux ne pas être physicien [rire]. Il faut voir l’ordinateur quantique comme un moyen nouveau d’accélérer les calculs. Sur le plan théorique, on dispose de qubits (avec la superposition et l’intrication) qu’on doit pouvoir initialiser (créer des superpositions) et faire des opérations logiques (fabriquer l’intrication) et mesurer. Di Vincenzo d’IBM a ainsi défini les calculateurs quantiques. La première difficulté est de programmer le système physique qui permet de réaliser tout cela au travers de différentes couches logicielles.
En utilisant le photon pour fabriquer un ordinateur quantique, on va pouvoir utiliser les outils de la photonique intégrée pour créer la superposition et l’intrication. On va par exemple utiliser des puces où des guides d’onde qui dirigent les photons dans différentes directions. En changeant localement la température, on peut modifier l’indice de propagation de la lumière dans le verre et programmer la superposition de la particule qui passe à cet endroit-là. En montant en niveau, on va faire en sorte que deux photons se croisent sur la puce à divers endroits pour créer l’intrication. À un niveau supérieur, on utilise cette intrication pour réaliser des analogues quantiques des portes logiques qu’on trouve dans les ordinateurs classiques. Au-dessus de ce niveau, on implémente des algorithmes comme l’algorithme de Shor qui permet, avec un ordinateur quantique très sophistiqué, de décomposer un nombre en facteurs premiers.
Nous avons mis en place un petit ordinateur sur le cloud, avec 10 qubits aujourd’hui. Si nous arrivions à une centaine de qubits, nous pourrions réaliser des calculs actuellement plus vite que les supercalculateurs. Il nous manque donc juste un ordre de grandeur. Mais il ne faut pas sous-estimer la difficulté de passer de 10 à une centaine. Il ne suffit pas d’ajouter des qubits comme on rajoute des processeurs, il faut aussi être capable de les intriquer et ne pas ajouter de la décohérence quand on ajoute des qubits.
Avec quelques qubits, nous avons déjà réalisé de l’apprentissage machine (machine learning) quantique, ou calculé le niveau d’énergie de l’hydrogène avec une précision chimique. Ainsi, nous avons également classifié des images d’iris avec seulement 3 qubits. Le fait qu’avec 3 qubits nous puissions réaliser l’équivalent de ce que nous ferions avec un petit réseau d’une centaine de neurones classiques montre la puissance du calcul quantique en termes de complexité.
Binaire : Le but est de réaliser des calculs encore hors de notre portée. Et, y a-t-il d’autres possibilités pour le calcul quantique ?
PS : Oui, l’objectif est de réaliser des calculs qui ne sont pas accessibles aux ordinateurs classiques actuels. Un autre apport de l’ordinateur quantique pourrait être une consommation d’énergie moindre. En effet, on atteint des limites des ordinateurs classiques non seulement du fait de la taille des transistors qu’on ne peut plus réduire, mais aussi par leur production de chaleur. La dissipation de cette chaleur est un obstacle majeur pour aller vers plus de puissance de calcul. D’un point de vue fondamental, ce n’est pas le cas pour le calcul quantique, qui ne génère pas de chaleur au niveau le plus bas. Alors, il est vrai qu’aujourd’hui, on ne connaît pas de technologie de calcul quantique qui effectue des calculs à température ambiante. Pour générer nos photons, nous travaillons à 4 Kelvin, et cela demande de l’énergie pour faire descendre à cette température notre machine. Mais cette énergie initiale est très faible par rapport à l’économie d’énergie que l’utilisation de la superposition et de l’intrication quantique permet.
Binaire : OVH vous a acheté une machine. Qu’en font-ils ?
PS : Ils génèrent des nombres aléatoires certifiés. Actuellement, les processus de génération de nombres aléatoires en informatique classique sont en fait pseudo-aléatoires (pas vraiment aléatoires), tandis qu’en informatique quantique, nous pouvons générer de véritables nombres aléatoires pour lesquels nous pouvons démontrer qu’il n’y a pas d’information cachée. On a par exemple besoin de vrais nombres aléatoires en cryptographie.
Binaire : Peut-on simuler les ordinateurs quantiques ?
JS : Aujourd’hui, nous pouvons simuler jusqu’à environ 25 qubits photoniques avec des ordinateurs classiques. En utilisant les plus puissants supercalculateurs, il serait possible d’atteindre au maximum une centaine de qubits. Au-delà, comme la puissance de calcul quantique est exponentielle en nombre de qubits, les meilleurs supercalculateurs ne peuvent plus rien faire. Ces simulations sont cruciales pour le développement et la validation d’algorithmes quantiques, et leurs limitations souligne aussi l’importance de construire de véritables ordinateurs quantiques. En effet, dès que nous dépasserons la barre des 100-200 qubits avec des ordinateurs quantiques réels, nous entrerons dans un domaine où la simulation classique devient impossible, ouvrant la voie à de véritables avancées en calcul quantique.
Binaire : Peut-on s’attendre à une révolution avec l’informatique quantique ?
PS : De mon point de vue, nous sommes déjà au cœur d’une révolution technologique. Nous réalisons des avancées dans les laboratoires auxquelles nous n’aurions pas cru il y a 5 ans. Les progrès sont spectaculaires et rapides. Du point de vue des applications, nous en sommes encore aux prémices de l’histoire. Jusqu’à présent, cela restait essentiellement une affaire à des physiciens. Mais maintenant les informaticiens nous rejoignent.
C’est la construction de matériel qui prend du temps. Mais on y arrive. Le passage à l’informatique quantique est pour moi inévitable. Cela va se produire.
Binaire : Doit-on imaginer des machines qui seront uniquement quantiques ou un mélange ?
JS : Cela sera forcément un mélange des deux – tout comme on a ajouté des GPU aux ordinateurs actuels pour gagner en puissance de calcul sur certains problèmes. De la même façon, le quantique accélère certains types de problèmes, mais pas tous. Par exemple, la simulation de molécules complexes ou l’optimisation de grands systèmes sont des domaines où le quantique pourra apporter un avantage significatif. D’ailleurs, suivant les applications, certaines plateformes quantiques sont plus adaptées que d’autres selon les principes sur lesquels elles se fondent. Par exemple, les ordinateurs quantiques à base de qubits supraconducteurs ou de photons uniques ont chacun leurs forces pour différents types de calculs quantiques.
Binaire : Y a-t-il des besoins en matériaux spécifiques ?
PS : Dans les plateformes avec des qubits de silicium, il faut un silicium extrêmement pur, et très peu de pays dans le monde savent produire du silicium à ce degré de pureté. Dans les plateformes avec des photons, comme celle sur laquelle nous travaillons, pas tant que ça. C’est d’ailleurs le type de plateforme le mieux financé au niveau international. Les financements sont énormes aux États-Unis et en Chine, plus modestes en France et en Europe.
Les équipes chinoises du professeur Jan Wei Pan ont réalisé des démonstrations avec des plateformes à photons et ont effectué des calculs inaccessibles au monde classique.
Binaire : Que pouvez-vous dire à ceux qui ne croient pas en l’ordinateur quantique ?
PS : Certains scientifiques voient tous les défis technologiques qu’il faut résoudre pour obtenir un ordinateur quantique très puissant et sont dubitatifs. Pour moi, dire que ce n’est pas possible, ce n’est pas un point de vue scientifique. Regardons ce qui s’est passé sur la première révolution technologique du 20e siècle qui exploitait les concepts de base de la mécanique quantique. Qui aurait pu penser au début du transistor – quand celui-ci faisait la taille d’une ampoule – que ce composant permettrait de révolutionner notre quotidien ? Nous sommes dans une situation analogue – avec des composants permettant d’exploiter des concepts quantiques beaucoup plus puissants.
JS : Aujourd’hui, il est à la fois possible de démontrer théoriquement que certains algorithmes quantiques permettront de résoudre des problèmes que nous ne pouvons qu’approximer avec n’importe quel ordinateur actuel classique aussi puissant soit-il, et à la fois possible de démontrer pratiquement que ces algorithmes fonctionnent déjà à une petite échelle. Il n’est plus possible de ne plus croire au quantique, et ce n’est plus qu’une question de temps.
Binaire : Pascale, quand comptes-tu retourner à la recherche ?
PS : Je n’ai jamais autant fait de recherche. Je suis officiellement à 30% dans Quandela. Et même ma contribution à Quandela, c’est aussi de la recherche.
Binaire : Et toi Jean, les problèmes informatiques que tu rencontres sont-ils aussi intéressants que ceux que tu adressais avant, en apprentissage automatique ?
JS : L’algorithmique a toujours été ma passion. Tout comme ce qui s’est passé avec l’arrivée des réseaux de neurones à grande échelle, le quantique nous permet de revisiter des problèmes classiques avec un outil nouveau, et qui défie souvent l’intuition. Pour chaque problème considéré, trouver la manière de l’aborder avec des primitives quantiques est donc un défi chaque fois renouvelé : il faut être créatif en permanence. De plus, même si on a l’algorithme, la manière de l’exécuter sur un ordinateur quantique particulier est aussi souvent un problème ouvert à part entière, donc oui : les problèmes informatiques existants et à venir sont tout aussi passionnants et stimulants intellectuellement que ceux que j’ai pu rencontrer dans le monde de l’apprentissage automatique et du traitement de la langue.
Serge Abiteboul, Inria et ENS, Paris, Claire Mathieu, CNRS et Université Paris Cité
Pour aller plus loin
Quandela, quand le quantique rencontre le HPC…, Vie des entreprises, novembre 2022, P. Senellart et J. Senellart.
Les entretiens autour de l’informatique
Publié le 11.10.2024 à 07:47
Michel LEDUC a participé à la création d’une des premiers ordinateurs personnels en France. En plus des foyers, cet ordinateur a aussi pénétré les écoles ce qui fait que ce petit TO7 est un peu connu. Michel nous narre cette histoire à l’occasion de la sortie d’un livre sur cette aventure. Pierre Paradinas et Benjamin Ninassi.
Binaire : Comment es tu entré chez Thomson dans les années 1970 ?
Michel LEDUC : Diplômé de l’ESEO en 1973, je recherche du travail à la fin de mon service militaire pendant l’été 1974. Après CV et lettres de motivations, je passe un entretien à Paris pour un poste à Thomson Moulins. Ce fut, un entretien original avec une visite du LCR de Corbeville (le laboratoire de recherche du groupe Thomson) où je suis ébloui par la démonstration d’une maquette de vidéodisque et je suis séduit par l’équipe de chercheurs à l’origine de cette merveilleuse lampe d’Aladin qui permettait d’obtenir une image vidéo à partir d’un bout de plastique avec des milliards de micro-cuvettes ! Ce vidéodisque était la version Thomson du disque optique qui a vu le jour dans le grand public sous le nom de Laservision porté par l’alliance Sony Philips. La version de Thomson portait sur un disque transparent et souple alors que Philips défendait une version réflective sur un disque d’1mm d’épaisseur . L’absence de protection des micro cuvettes du disque Thomson a causé sa perte ainsi que la stratégie de Thomson mais le système de lecture étant similaire, c’est avec les brevets que Thomson a gagné beaucoup d’argent sur tous les lecteurs de CD et de DVD vendus dans le monde. Ma mission était de récupérer le savoir-faire de l’équipe parisienne et de transformer leur maquette en un produit grand public pour la partie électronique. L’arrêt du projet de vidéodisque grand public m’amènera de manière fortuite à la création du TO7.
Binaire: Thomson à l’époque, c’est quelle entreprise ?
ML : Thomson-Houston est déjà un grand groupe alliant électronique grand public (radio, électrophone, machine à laver, réfrigérateurs…), électronique professionnelle et militaire (Thomson CSF). Le LCR où naîtra le vidéodisque est le laboratoire de recherches de l’ensemble du groupe. La division grand public a de nombreuses usines en France : Angers et Saint Pierre Montlimart pour la télévision, Moulins pour l’audio, la Roche sur Yon (machine à laver le linge) et bien d’autres. Le groupe comprend plus de 40 000 personnes à l’époque et détient même une majorité des parts de CII-Honeywell. La situation évoluera avec la nationalisation du groupe en 1982.
Binaire: Peux tu nous décrire le paysage de la micro informatique en France à cette époque ?
ML : Quand on me demande en 1979 de choisir le micro-ordinateur que le groupe va revendre, je m’adresse aux fabricants américains car il n’existe pas de marché en France mais on commence à entendre parler d’Apple, de Commodore, d’Atari… Les dirigeants de Thomson et les équipes marketing ont entendu parler du phénomène qui se développe aux US avec l’arrivée de l’ordinateur individuel dans les foyers américains. L‘objectif principal était de suivre ce qui se passait aux Etats-Unis et d’être présent sur ce marché qui apparaissait prometteur aux US. Quand nous arrivons avec le TO7. Quand le TO7 sortira, près de trois ans après, de nombreux concurrents se sont déjà positionnés sur le marché français mais le TO7 trouvera sa place grâce à son orientation éducative et les accords avec VIFI Nathan qui permettront au TO7 de passer la barrière habituelle que le public français crée à l’arrivée d’une nouvelle technologie ! Ce choix judicieux pour le marché français constituera un obstacle infranchissable pour adresser les autres marchés !
Binaire: On fait comment pour fabriquer un PC dans les années 70 ?
ML : À la fin du vidéodisque grand public, mon patron moulinois m’a proposé de rechercher un micro-ordinateur pour le revendre dans le réseau Thomson. La recherche se solda par un échec et poussé par l’équipe grenobloise de Thomson semi-conducteurs, nous avons proposé d’en fabriquer un ! Je partais de rien. Je me suis appuyé sur les conseils et la volonté de l’équipe de Grenoble de Thomson semi-conducteurs qui me poussaient vers les puces 6800 pour le microprocesseur et vers les chips de TV Antiope pour la vidéo. Ensuite faute d’expertise en logiciel, on a embauché José Henrard, chercheur en sociologie au CNRS, qui bricolait dans le labo de Mr Dupuis à Jussieu et qui avait développé une maquette basée sur un microprocesseur 4 bits. Il avait conçu le moniteur pour la faire fonctionner. Avec ces deux éléments, on a réalisé la première maquette wrappée du T07 avec un microprocesseur 6800, et une interface vidéo réalisée avec 70 circuits TTL. Le tout fonctionnait avec un moniteur et un crayon optique conçu que j’avais conçu. Inutile de dire que cela n’a pas fonctionné du premier coup, mais à force de travail acharné de toute l’équipe on a pu réaliser une démonstration à la direction générale dans des conditions assez rocambolesques !
Binaire: quels rôles pour l’ADI, le centre mondial de l’informatique et l’éducation nationale dans cette aventure ?
ML : Je suis mal placé pour juger du rôle du centre mondial de l’informatique car c’est plutôt José, situé à la SIMIV à Paris, qui avait les relations avec le monde politique. Tout ce que je sais c’est que les relations n’étaient pas les meilleures car JJSS poussait plus pour les produits Apple que vers les TO/MO. Il a, avec quelques autres acteurs du monde éducatif savonner la planche du plan informatique pour tous et a surtout œuvré pour qu’Apple soit l’ordinateur du plan IPT. Je pense qu’il y a eu un apport positif avec Seymour Papert et Logo que l’on utilisé sur le TO7.
Binaire: quel est l’un de tes plus beau souvenir ?
ML : J’en citerai plusieurs :
- l’apparition de la première image sur l’écran et le pilotage par le crayon optique
- le passage de la première pub (les rois mages) à la TV juste avant Noël
Binaire: quelle est ta plus grande fierté ?
ML : Il est clair que ma plus grande fierté a été de voir les TO7 dans les écoles et de pouvoir en faire bénéficier les élèves des classes de mes enfants. De voir les yeux émerveillés des enfants dans la classe de mon fils quand ils faisaient du dessin avec le logiciel PICTOR et le crayon optique. C’est aussi de savoir que de nombreuses personnes sont devenus informaticiens ou tout au moins se sont initiés à l’informatique grâce à ces produits.
Le plus étonnant est de voir encore les fans (nombreux) jouer sur ces produits (ou émulateurs), créer de nouveaux jeux , faire des compétitions! Depuis la sortie du livre des témoignages touchants me racontent avec émotion la place qu’avait pris les TO7 dans leur enfance. Utilisations originales : accord avec Légo pour piloter les moteurs de constructions Légo, pilotage d’outils de laboratoire via l’interface IEEE, la tortue Logo…..
Binaire: des regrets ?
ML : Au niveau stratégique, de ne pas avoir su commuter au bon moment vers le domaine du jeu (tant au niveau hardware que bien sûr logiciel) et ainsi de nous permettre de mieux nous positionner sur le marché européen, et d’avoir été un acteur, malgré moi, des premières délocalisations avec le transfert de la fabrication du TO8 vers la Corée et vers Daewoo!
Pour aller plus loin:
- à propos du CMI : https://www.ina.fr/ina-eclaire-actu/video/cab8300029601/centre-mondial-informatique
- le livre « Le Thomson T07, succès controversé de la microinformatique française« , chez L’écritoire
Publié le 04.10.2024 à 07:39
La plus grande panne informatique de tous les temps, en attendant la prochaine
Qui mieux que Rachid Guerraoui, un ami de binaire, pour nous parler de la grande panne informatique. Rachid est professeur d’informatique à l’École Polytechnique Fédérale de Lausanne (EPFL) et membre du comité de pilotage du Collège of Computing à l’UM6P. Il a été chercheur aux laboratoires Hewlett Packard de la Silicon Valley et professeur invité au MIT et au Collège de France. Serge Abiteboul et Pierre Paradinas.
Dans le film La Grande Vadrouille, Bourvil vole un uniforme de colonel allemand dans le hammam de la mosquée de Paris pour sauver un pilote britannique caché à l’opéra. Lors d’une représentation de Berlioz dirigée par De Funès devant les hauts gradés allemands, Bourvil, vêtu de son uniforme, accède aux coulisses sans être inquiété. La réalité dépasse parfois la fiction. En avril 2024, des malfrats ont dévalisé les habitants d’une petite commune française grâce à un stratagème ingénieux : l’un d’eux se faisait passer pour un plombier venu vérifier des fuites d’eau, puis ses complices, déguisés en policiers, prétendaient enquêter sur ce faux plombier pour accéder aux coffres des victimes.
Le monde numérique, lui, nous réserve des scénarios encore plus incroyables. Le vendredi 19 juillet 2024, des « policiers » virtuels ont pris la relève de leurs prédécesseurs pour mieux protéger les systèmes informatiques : aéroports, banques, hôpitaux, médias, administrations et entreprises. Leur mission : détecter d’éventuels intrus et les bloquer. Mais ces nouveaux « policiers », une fois introduits dans le cœur des systèmes, les ont bloqués au lieu de les protéger. Près de dix millions d’ordinateurs se sont arrêtés, entraînant un chaos mondial. Avant de tirer les leçons de cette panne informatique sans précédent, posons-nous quelques questions : Qui sont ces « policiers » ? Qui les a envoyés ? Pourquoi ont-ils remplacé les anciens systèmes qui semblaient fonctionner correctement ? Comment ont-ils pu pénétrer le cœur des systèmes et les bloquer à une telle échelle ?
Ces « policiers » sont des segments de programmes envoyés par des messages Internet aux systèmes Windows de Microsoft. Grâce à sa solution Office 365 (Word, Excel, PowerPoint, Outlook, Skype, Teams, etc.), Microsoft est le leader mondial de la bureautique, équipant plus d’un milliard d’utilisateurs. Windows, son système d’exploitation, fait tourner la majorité des ordinateurs de la planète. Les segments de programmes visent à renforcer la sécurité de Windows en s’intégrant au système existant pour contrôler son exécution.
Les messages contenant ces programmes sont envoyés automatiquement par le logiciel Falcon Sensor, hébergé sur le cloud pour le compte de Crowdstrike, un leader mondial de la cybersécurité. Crowdstrike s’est forgé une réputation grâce à ses enquêtes sur des cyberattaques majeures. Son logiciel Falcon Sensor analyse et bloque les attaques informatiques en s’adaptant de manière autonome aux nouvelles menaces, sans intervention humaine, ce qui a séduit Microsoft.
Ces mécanismes de défense jouissent de droits élevés (sous forme de « signatures »), et aucun autre logiciel ne peut les stopper. Ils s’introduisent au cœur du système Windows et s’exécutent avant les autres applications. Toutefois, le mécanisme envoyé le 19 juillet était défaillant. Une « erreur logique » dans un fichier de configuration critique a provoqué une « erreur physique » : des adresses mémoire ont été calculées incorrectement et affectées sans vérification, conduisant Windows à lancer sa procédure de blocage (« Blue Screen Of Death ») sur plus de 8 millions d’ordinateurs.
La panne a coûté plus d’un milliard de dollars. Elle aurait pu être pire, seulement 1 % des machines Windows ont été touchées, et l’envoi du mécanisme a été stoppé après 88 minutes. De nombreux vols ont été annulés, et des interventions médicales reportées, mais heureusement, aucune perte humaine n’est à déplorer.
Deux fausses bonnes idées ont été proposées par certains médias au lendemain de la panne :
- Revenir au crayon et au papier pour se passer du numérique. C’est juste est irréaliste parce que le numérique fait désormais partie intégrante de notre quotidien.
- La souveraineté numérique n’aurait pas prévenu la panne. Les États-Unis, très autonomes dans ce domaine, ont été touchés. Le fait que certains pays, comme la Chine et la Russie, s’en soient mieux sortis tient simplement à ce qu’ils n’utilisent pas Windows et Crowdstrike.
Par contre, je retiendrais au moins trois leçons de la panne :
- Le numérique est un ensemble : les données, l’IA, les réseaux, les systèmes d’exploitation, la sécurité, etc., sont interconnectés et doivent être traités de manière globale. La conception d’un logiciel doit être vérifiée de bout en bout avec des méthodes de génie logiciel. Ajouter des segments de programmes à un logiciel certifié, sans revalider l’ensemble, est une faute grave.
- La probabilité d’erreur n’est jamais nulle, même avec des tests et vérifications. Il ne faut donc pas dépendre d’une seule infrastructure. Ici, des millions de machines cruciales étaient toutes sous le même système d’exploitation et logiciel de sécurité. Espérons que les infrastructures informatiques ne dépendront plus uniquement de Microsoft et Crowdstrike à l’avenir.
- Les architectures ouvertes et décentralisées sont essentielles. La plateforme blockchain de Bitcoin, attaquée régulièrement, fonctionne sans accroc majeur depuis 2009. Bien que le code soit accessible et modifiable par tous, il ne peut être déployé que s’il est accepté par la communauté, contrairement au code fermé de Falcon Sensor, déployé de manière non transparente.
En résumé, un logiciel devrait être considéré dans son intégralité et il faudrait vérifier ses algorithmes et tester sa mise en œuvre de bout en bout ; on ne doit pas dépendre d’un seul type de logiciel pour une infrastructure. critique ; et il faudrait privilégier les architectures ouvertes et décentralisées. Le législateur pourrait imposer aux sociétés informatiques d’ouvrir leurs logiciels et d’offrir des interfaces standards pour diversifier les fournisseurs. La résilience de l’infrastructure DNS, grâce à la diversité de ses implémentations, prouve que cet objectif est réalisable.
Rachid Guerraoui, EPFL