mercredi, novembre 20, 2024

Frapper les livres : pourquoi l’IA ne prendra pas nos emplois en cosmologie

Le problème avec l’étude de l’univers qui nous entoure est qu’il est tout simplement trop grand. Les étoiles au-dessus de nos têtes restent trop éloignées pour interagir directement, nous sommes donc relégués à tester nos théories sur la formation des galaxies sur la base de données observables.

La simulation de ces corps célestes sur des ordinateurs s’est avérée extrêmement utile pour comprendre la nature de la réalité et, comme l’explique Andrew Pontzen dans son nouveau livre, L’univers en boîte : simulations et quête pour coder le cosmos, les progrès récents de la technologie des supercalculateurs révolutionnent encore notre capacité à modéliser les complexités du cosmos (sans parler de la myriade de défis terrestres) à plus petite échelle. Dans l’extrait ci-dessous, Pontzen examine l’émergence récente de systèmes d’IA axés sur l’astronomie, ce qu’ils sont capables d’accomplir sur le terrain et pourquoi il n’est pas trop inquiet de perdre son emploi.

Livres Riverhead

Adapté de THE UNIVERSE IN A BOX: Simulations and the Quest to Code the Cosmos par Andrew Pontzen publié le 13 juin 2023 par Riverhead, une empreinte de Penguin Publishing Group, une division de Penguin Random House LLC. Copyright © 2023 Andrew Pontzen.


En tant que cosmologiste, je passe une grande partie de mon temps à travailler avec des superordinateurs, à générer des simulations de l’univers à comparer avec les données de vrais télescopes. Le but est de comprendre l’effet de substances mystérieuses comme la matière noire, mais aucun humain ne peut digérer toutes les données détenues sur l’univers, ni tous les résultats des simulations. Pour cette raison, l’intelligence artificielle et l’apprentissage automatique sont un élément clé du travail des cosmologistes.

Considérez l’observatoire Vera Rubin, un télescope géant construit au sommet d’une montagne chilienne et conçu pour photographier à plusieurs reprises le ciel au cours de la prochaine décennie. Il ne se contentera pas de construire une image statique : il recherchera notamment des objets qui bougent (astéroïdes et comètes), ou qui changent de luminosité (étoiles scintillantes, quasars et supernovae), dans le cadre de notre campagne continue pour comprendre le cosmos en constante évolution. L’apprentissage automatique peut être formé pour repérer ces objets, ce qui permet de les étudier avec d’autres télescopes plus spécialisés. Des techniques similaires peuvent même aider à passer au crible la luminosité changeante d’un grand nombre d’étoiles pour trouver des signes révélateurs des planètes hôtes, contribuant ainsi à la recherche de la vie dans l’univers. Au-delà de l’astronomie, les applications scientifiques ne manquent pas : la filiale d’intelligence artificielle de Google, DeepMind, a par exemple construit un réseau capable de surpasser toutes les techniques connues pour prédire la forme des protéines à partir de leur structure moléculaire, une étape cruciale et difficile pour comprendre de nombreuses processus.

Ces exemples illustrent pourquoi l’excitation scientifique autour de l’apprentissage automatique s’est développée au cours de ce siècle, et il y a eu de fortes affirmations selon lesquelles nous assistons à une révolution scientifique. Dès 2008, Chris Anderson a écrit un article pour Filaire magazine qui a déclaré la méthode scientifique, dans laquelle les humains proposent et testent des hypothèses spécifiques, obsolète : « Nous pouvons arrêter de chercher des modèles. Nous pouvons analyser les données sans émettre d’hypothèses sur ce qu’elles pourraient révéler. Nous pouvons jeter les chiffres dans les plus grands clusters informatiques que le monde ait jamais vus et laisser les algorithmes statistiques trouver des modèles là où la science ne le peut pas.

Je pense que cela va trop loin. L’apprentissage automatique peut simplifier et améliorer certains aspects des approches scientifiques traditionnelles, en particulier lorsque le traitement d’informations complexes est requis. Ou il peut digérer du texte et répondre à des questions factuelles, comme illustré par des systèmes comme ChatGPT. Mais il ne peut pas entièrement supplanter le raisonnement scientifique, car il s’agit de la recherche d’une meilleure compréhension de l’univers qui nous entoure. Trouver de nouveaux modèles dans les données ou reformuler des faits existants ne sont que des aspects étroits de cette recherche. Il reste un long chemin à parcourir avant que les machines puissent faire de la science significative sans aucune surveillance humaine.

Pour comprendre l’importance du contexte et de la compréhension en science, considérons le cas de l’expérience OPERA qui, en 2011, a apparemment déterminé que les neutrinos voyagent plus vite que la vitesse de la lumière. L’affirmation est proche d’un blasphème physique, car la relativité devrait être réécrite ; la limite de vitesse fait partie intégrante de sa formulation. Compte tenu de l’énorme poids des preuves expérimentales qui soutiennent la relativité, remettre en cause ses fondements n’est pas une étape à prendre à la légère.

Sachant cela, les physiciens théoriciens ont fait la queue pour rejeter le résultat, soupçonnant que les neutrinos devaient en fait se déplacer plus lentement que les mesures indiquées. Pourtant, aucun problème avec la mesure n’a pu être trouvé – jusqu’à ce que, six mois plus tard, OPERA annonce qu’un câble s’était desserré pendant leur expérience, ce qui expliquait l’écart. Les neutrinos ne voyageaient pas plus vite que la lumière ; les données suggérant le contraire étaient erronées.

Des données surprenantes peuvent conduire à des révélations dans les bonnes circonstances. La planète Neptune a été découverte lorsque les astronomes ont remarqué quelque chose d’anormal avec les orbites des autres planètes. Mais lorsqu’une affirmation est en contradiction avec les théories existantes, il est beaucoup plus probable qu’il y ait un défaut avec les données ; c’est le sentiment auquel les physiciens se sont fiés lorsqu’ils ont vu les résultats d’OPERA. Il est difficile de formaliser une telle réaction en une simple règle de programmation dans une intelligence informatique, car elle se situe à mi-chemin entre les mondes du rappel de connaissances et de la recherche de modèles.

Les éléments humains de la science ne seront pas reproduits par les machines à moins qu’elles ne puissent intégrer leur traitement flexible des données à un corpus de connaissances plus large. Il y a une explosion d’approches différentes vers cet objectif, motivées en partie par le besoin commercial d’intelligences informatiques pour expliquer leurs décisions. En Europe, si une machine prend une décision qui vous concerne personnellement – refuser votre demande de prêt hypothécaire, peut-être, ou augmenter vos primes d’assurance, ou vous écarter dans un aéroport – vous avez le droit légal de demander une explication. Cette explication doit nécessairement sortir du monde étroit des données pour se connecter à un sens humain de ce qui est raisonnable ou déraisonnable.

De manière problématique, il n’est souvent pas possible de générer un compte rendu complet de la manière dont les systèmes d’apprentissage automatique parviennent à une décision particulière. Ils utilisent de nombreuses informations différentes, les combinant de manière complexe ; la seule description vraiment précise consiste à écrire le code informatique et à montrer comment la machine a été entraînée. C’est précis mais pas très explicatif. À l’autre extrême, on pourrait souligner un facteur évident qui a dominé la décision d’une machine : vous êtes peut-être un fumeur de longue date, et d’autres fumeurs de longue date sont morts jeunes, vous avez donc été refusé pour l’assurance-vie. C’est une explication plus utile, mais qui n’est peut-être pas très précise : d’autres fumeurs ayant des antécédents professionnels et un dossier médical différents ont été acceptés, alors quelle est précisément la différence ? Expliquer les décisions de manière fructueuse nécessite un équilibre entre précision et compréhensibilité.

Dans le cas de la physique, l’utilisation de machines pour créer des explications digestes et précises qui sont ancrées dans les lois et les cadres existants est une approche à ses débuts. Cela commence par les mêmes exigences que l’intelligence artificielle commerciale : la machine ne doit pas seulement indiquer sa décision (qu’elle a trouvé une nouvelle supernova, par exemple), mais également donner une petite quantité d’informations digestibles sur les raisons pour lesquelles elle a pris cette décision. De cette façon, vous pouvez commencer à comprendre ce qu’il y a dans les données qui a conduit à une conclusion particulière, et voir si cela correspond à vos idées et théories existantes sur les causes et les effets. Cette approche a commencé à porter ses fruits, produisant des informations simples mais utiles sur la mécanique quantique, la théorie des cordes et (à partir de mes propres collaborations) la cosmologie.

Ces applications sont encore toutes encadrées et interprétées par des humains. Pourrions-nous imaginer plutôt que l’ordinateur élabore ses propres hypothèses scientifiques, équilibre les nouvelles données avec le poids des théories existantes, et continue à expliquer ses découvertes en écrivant un article scientifique sans aucune aide humaine ? Ce n’est pas la vision d’Anderson de l’avenir sans théorie de la science, mais un objectif plus excitant, plus perturbateur et beaucoup plus difficile : que les machines construisent et testent de nouvelles théories au sommet de centaines d’années de perspicacité humaine.

Tous les produits recommandés par Engadget sont sélectionnés par notre équipe éditoriale, indépendante de notre maison mère. Certaines de nos histoires incluent des liens d’affiliation. Si vous achetez quelque chose via l’un de ces liens, nous pouvons gagner une commission d’affiliation. Tous les prix sont corrects au moment de la publication.

Source-145

- Advertisement -

Latest