L’image d’hier montrant le trou noir supermassif au centre de notre galaxie, la Voie lactée, doit son existence à l’ingéniosité humaine – et à notre vieil ami, le CPU. Réalisé grâce à un partenariat et à des recherches de cinq ans entre le réseau Event Horizon Telescope (EHT), le supercalculateur Frontera du Texas Advanced Computing Center (TACC) et l’Open Science Grid de la NSF. L’image du Sagittaire A* (prononcer A-star) et sa lumière piégée ravivent les rêves et les merveilles de notre univers. Tout cela est à 27 000 années-lumière de la Terre et montre une image d’un trou noir si supermassif qu’on estime qu’il est quatre millions de fois plus massif que le soleil.
La tâche au niveau galactique a nécessité environ 100 millions d’heures CPU et les efforts concertés de plus de 300 chercheurs pour se fondre dans l’image publiée. Mais comment « voir » un trou noir si massif que ses forces gravitiques piègent même les particules se déplaçant à la vitesse de la lumière ? Eh bien, on peut réellement voir les contours du trou noir en prêtant attention à la quantité relativement infime de lumière qui parvient réellement à s’échapper de son horizon des événements. Pour le créer, les chercheurs ont utilisé l’interférométrie, la puissance de balayage basée sur les ondes radio du réseau EHT, qui comprend huit radiotélescopes déployés dans le monde entier. Mais la numérisation de corps célestes incroyablement éloignés s’accompagne d’un certain nombre de mises en garde, telles que le temps d’exposition (dans ce cas, l’équivalent cosmique de photographier un arbre avec une vitesse d’obturation d’une seconde par temps venteux) et d’autres éléments tels que le bruit des données, l’interférence des particules et corps célestes. Tout cela doit être comptabilisé.
Pour cet effort, les chercheurs ont créé une bibliothèque de simulation de trous noirs qui a tiré parti des propriétés physiques connues des trous noirs, de la relativité générale et d’un certain nombre d’autres domaines scientifiques. L’idée était que cette bibliothèque pouvait analyser l’énorme quantité de données capturées par le tableau EHT en une image réelle et visible – mais pour ce faire, une énorme quantité de puissance et de calcul n’était pas seulement nécessaire – c’était obligatoire.
« Nous avons produit une multitude de simulations et les avons comparées aux données. Le résultat est que nous avons un ensemble de modèles qui expliquent presque toutes les données », a déclaré Charles Gammie, chercheur à l’Université de l’Illinois à Urbana-Champaign. « C’est remarquable parce qu’il explique non seulement les données d’Event Horizon, mais aussi les données prises par d’autres instruments. C’est un triomphe de la physique computationnelle.
La grande majorité des heures de calcul requises – environ 80 millions – ont été exécutées sur le système Frontera de TACC, un système Dell basé sur CentOS Linux 7 de 23,5 pétaflops et actuellement classé 13e sur la liste Top500 du supercalcul. Frontera exploite 448 448 cœurs de processeur grâce à 16 016 unités de puces Xeon Platinum 8280 d’Intel, un processeur de classe Broadwell exploitant 28 cœurs Intel fonctionnant à 2,7 GHz. Les 20 millions d’heures de simulation restantes ont été calculées sur la grille scientifique ouverte de la NSF, qui exploite les cycles de processeur inutilisés de manière informatique distribuée pour débloquer les capacités de calcul sans avoir besoin de déployer des supercalculateurs coûteux et l’infrastructure associée.
« Nous avons été stupéfaits de voir à quel point la taille de l’anneau correspondait aux prédictions de la théorie de la relativité générale d’Einstein », a ajouté Geoffrey Bower, scientifique du projet EHT à l’Institut d’astronomie et d’astrophysique de Taipei. « Ces observations sans précédent ont considérablement amélioré notre compréhension de ce qui se passe au centre même de notre galaxie et offrent de nouvelles informations sur la façon dont ces trous noirs géants interagissent avec leur environnement. »
Les efforts des chercheurs ne manqueront pas de redoubler après le succès de l’entreprise, et ils prévoient maintenant de faire quelque chose d’encore plus extraordinaire : plutôt qu’une seule image fixe, la prochaine étape consiste à filmer le trou noir pendant une période de temps, en capturant le danse des photons à la fois ondulatoires et ressemblant à des particules pour mettre en valeur la dynamique du trou noir. On ne peut que se demander combien de millions d’heures CPU cet effort prendra.