De nouvelles recherches aux frontières de l’ingénierie des matériaux promettent une amélioration des performances vraiment étonnante pour les appareils informatiques. Une équipe de recherche dirigée par Markus Hellbrand et al. et associé à l’Université de Cambridge pense que le nouveau matériau, à base de couches d’oxyde d’hafnium tunnelisées par des pointes de baryum à changement de tension, fusionne les propriétés de la mémoire et des matériaux liés au traitement. Cela signifie que les appareils pourraient fonctionner pour le stockage de données, offrant de 10 à 100 fois la densité des supports de stockage existants, ou ils pourraient être utilisés comme unité de traitement.
Publiée dans la revue Science Advances, la recherche nous donne une voie par laquelle nous pourrions terminer avec une densité, des performances et une efficacité énergétique bien supérieures dans nos appareils informatiques. À tel point, en fait, qu’une clé USB typique basée sur la technologie (qui s’appelle gamme continue) pourraient contenir entre 10 et 100 fois plus d’informations que celles que nous utilisons actuellement.
Avec la RAM doublant de densité tous les quatre ans, comme l’a souligné le JEDEC, il faudrait des décennies aux fabricants de RAM pour finalement atteindre le même niveau de densité que cette technologie a montré aujourd’hui.
L’appareil est aussi une lumière au tunnel de l’informatique neuromorphique. Comme les neurones de notre cerveau, le matériau (connu sous le nom de mémoire de commutation résistive) promet de fonctionner à la fois comme support de stockage et de traitement. C’est quelque chose qui ne se produit tout simplement pas dans notre technologie actuelle des semi-conducteurs : les arrangements de conception des transistors et des matériaux sont si différents entre ce dont vous avez besoin pour une cellule mémoire et ce dont vous avez besoin pour une cellule de traitement (principalement en termes d’endurance, comme dans, la capacité de ne pas subir de dégradations de performances) qu’il n’y a actuellement aucun moyen de les fusionner.
Cette incapacité à les fusionner signifie que les informations doivent circuler en permanence entre le système de traitement et ses différents caches (en pensant à un CPU moderne), ainsi que son pool de mémoire externe (en vous regardant, les meilleurs kits DDR5 du marché). en informatique, c’est ce qu’on appelle le goulot d’étranglement de von Neumann, ce qui signifie qu’un système avec des capacités de mémoire et de traitement séparées sera fondamentalement limité par la bande passante entre les deux (ce que l’on appelle généralement le bus). C’est pourquoi toutes les sociétés de conception de semi-conducteurs (d’Intel à AMD, Nvidia et bien d’autres) conçoivent du matériel dédié qui accélère cet échange d’informations, comme Infinity Fabric et NVLink.
Le problème est que cet échange d’informations a un coût énergétique, et ce coût énergétique limite actuellement la borne supérieure des performances atteignables. N’oubliez pas que lorsque l’énergie circule, il y a aussi des pertes inhérentes, qui entraînent une augmentation de la consommation d’énergie (une limite stricte actuelle sur nos conceptions matérielles et une priorité croissante dans la conception des semi-conducteurs) ainsi que de la chaleur – encore une autre limite stricte qui a conduit au développement de solutions de refroidissement de plus en plus exotiques pour essayer de permettre à la loi de Moore de continuer à boiter pendant un certain temps encore. Bien sûr, il y a aussi le facteur de durabilité : on s’attend à ce que l’informatique consomme jusqu’à 30 % des besoins énergétiques mondiaux dans un avenir pas si lointain.
« Dans une large mesure, cette explosion de la demande énergétique est due aux lacunes des technologies actuelles de mémoire informatique », a déclaré le premier auteur, le Dr Markus Hellenbrand, du département des sciences des matériaux et de la métallurgie de Cambridge. « Dans l’informatique conventionnelle, il y a la mémoire d’un côté et le traitement de l’autre, et les données sont redistribuées entre les deux, ce qui prend à la fois de l’énergie et du temps. »
Les avantages de la fusion de la mémoire et du traitement sont assez spectaculaires, comme vous pouvez l’imaginer. Alors que la mémoire conventionnelle n’est capable que de deux états (un ou zéro, la cause de la nomenclature « binaire »), un dispositif de mémoire à commutation résistive peut changer sa résistance à travers une gamme d’états. Cela lui permet de fonctionner à des variétés de tensions accrues, ce qui permet à son tour de coder plus d’informations. À un niveau suffisamment élevé, c’est à peu près le même processus qui se produit dans le domaine NAND, avec des augmentations de bits par cellule correspondant à un nombre plus élevé d’états de tension possibles déverrouillés dans la conception de la cellule mémoire.
Une façon de différencier le traitement du stockage consiste à dire que le traitement signifie que l’information subit des écritures et des réécritures (additions ou soustractions, transformations ou réorganisations) aussi rapidement que son cycle de commutation est demandé. Le stockage signifie que les informations doivent être statiques pendant une période plus longue, peut-être parce qu’elles font partie des noyaux Windows ou Linux, par exemple.
Pour construire ces dispositifs de synapse, comme l’article s’y réfère, l’équipe de recherche a dû trouver un moyen de faire face à un goulot d’étranglement de l’ingénierie des matériaux connu sous le nom de problème d’uniformité. Parce que l’oxyde d’hafnium (HfO2) ne possède aucune structure au niveau atomique, les atomes d’hafnium et d’oxygène qui peuvent faire ou défaire ses propriétés isolantes se déposent au hasard. Cela limite son application à la conduction des électrons (énergie électrique) ; plus la structure atomique est ordonnée, moins la résistance sera causée, donc plus la vitesse et l’efficacité sont élevées. Mais l’équipe a découvert que le dépôt de baryum (Ba) dans les couches minces d’oxyde d’hafnium non structuré entraînait des ponts (ou pointes) de baryum hautement ordonnés. Et parce que leurs atomes sont plus structurés, ces ponts peuvent mieux permettre la circulation des électrons.
Mais le plaisir a commencé lorsque l’équipe de recherche a découvert qu’elle pouvait modifier dynamiquement la hauteur des pointes de baryum, permettant un contrôle précis de leur conductivité électrique. Ils ont découvert que les pointes pouvaient offrir des capacités de commutation à un taux d’environ 20 ns, ce qui signifie qu’elles pouvaient changer leur état de tension (et donc contenir des informations différentes) dans cette fenêtre. Ils ont trouvé des endurances de commutation de> 10 ^ 4 cycles, avec une fenêtre de mémoire> 10. Cela signifie que même si le matériau est rapide, le nombre maximum de changements d’état de tension qu’il peut actuellement supporter est d’environ 10 000 cycles – un résultat pas terrible, mais pas étonnant.
C’est l’équivalent de l’endurance disponible avec la technologie MLC (Multi-Level Cell), ce qui limitera naturellement son application – l’utilisation de ce matériau comme support de traitement (où les états de tension sont rapidement modifiés afin de conserver une mémoire des calculs et de leurs résultats intermédiaires).
En faisant quelques calculs approximatifs, la commutation de ~ 20 ns conduit à une fréquence de fonctionnement de 50 MHz (convertie en cycles par nanoseconde). Avec le système traitant différents états à pleine vitesse (fonctionnant comme un GPU ou un CPU, par exemple), cela signifie que les ponts de baryum cesseraient de fonctionner (atteindraient leur limite d’endurance) à environ 0,002 seconde (rappelez-vous, il ne fonctionne qu’à 50 MHz). Cela ne semble pas être assez performant pour une unité de traitement.
Mais pour le stockage ? Eh bien, c’est là qu’intervient la clé USB qui est « 10 à 100 fois plus dense » en termes de capacité de mémoire. Ces dispositifs de synapse peuvent accéder à beaucoup plus d’états de tension intermédiaires que même la technologie NAND la plus dense des clés USB les plus spacieuses d’aujourd’hui – par un facteur de 10 ou 100.
Qui n’aimerait pas avoir une clé « USB 7 » de 10 TeraByte ou même 100 TeraByte entre les mains ?
Il y a du travail à faire en termes d’endurance et de vitesse de commutation des ponts de baryum, mais il semble que la conception soit déjà une preuve de concept alléchante. Mieux encore, l’industrie des semi-conducteurs travaille déjà avec de l’oxyde d’hafnium, il y a donc moins de cauchemars d’outillage et de logistique à combattre.
Mais voici une possibilité de produit particulièrement ingénieuse : imaginez que la technologie s’améliore au point qu’elle est fabriquée et utilisable pour concevoir un GPU AMD ou Nvidia (qui fonctionnent aujourd’hui à environ 2 GHz). Il y a un monde où cette carte graphique est livrée avec un état d’usine réinitialisé où elle fonctionne entièrement comme mémoire (imaginez maintenant une carte graphique avec 10 To, la même que notre hypothétique clé USB).
Imaginez un monde où ce qu’AMD et Nvidia offraient étaient essentiellement des GPU programmables, avec des matrices GPU basées sur une gamme continue empilée en termes de capacité de stockage maximale (rappelez-vous les 10 à 100 plus denses que l’USB actuel). Si vous êtes un aficionado de l’IA et que vous essayez de créer votre propre grand modèle de langage (LLM), vous pouvez programmer votre GPU de manière à ce que la bonne quantité de ces dispositifs synthétiques, ces transistors neuromorphiques, exécute des fonctions de traitement.
Pouvoir dicter si les transistors de votre carte graphique sont utilisés exactement comme mémoire ou exactement comme amplificateurs pour les yeux pour augmenter les paramètres graphiques jusqu’à onze, cela dépend entièrement de l’utilisateur final ; du joueur occasionnel à l’installateur de calcul haute performance (HPC). Même si cela signifiait une diminution mesurée de la longévité de certaines parties de notre puce.
Nous les mettons toujours à niveau de toute façon, n’est-ce pas ?
Mais ne nous précipitons pas. Même si ce n’est pas un problème aussi dangereux que le développement de l’IA et sa réglementation, il n’y a pas grand-chose à gagner à rêver si loin. Comme toute technologie, elle viendra – quand elle sera prête. si jamais c’est le cas.