Nvidia est l’un des principaux concepteurs de puces utilisées pour l’accélération de l’intelligence artificielle (IA) et de l’apprentissage automatique (ML). Il est donc normal qu’il semble être l’un des pionniers dans l’application de l’IA à la conception de puces. Aujourd’hui, il a publié un article (s’ouvre dans un nouvel onglet) et article de blog (s’ouvre dans un nouvel onglet) révélant comment son système AutoDMP peut accélérer la planification moderne des puces en utilisant l’optimisation AI/ML accélérée par GPU, ce qui entraîne une accélération de 30 fois par rapport aux méthodes précédentes.
AutoDMP est l’abréviation de Automated DREAMPlace-based Macro Placement. Il est conçu pour se connecter à un système d’automatisation de la conception électronique (EDA) utilisé par les concepteurs de puces, afin d’accélérer et d’optimiser le processus fastidieux de recherche d’emplacements optimaux pour les blocs de construction des processeurs. Dans l’un des exemples d’AutoDMP au travail de Nvidia, l’outil a tiré parti de son IA pour déterminer une disposition optimale de 256 cœurs RSIC-V, représentant 2,7 millions de cellules standard et 320 macros de mémoire. AutoDMP a pris 3,5 heures pour trouver une disposition optimale sur une seule Nvidia DGX Station A100.
Le placement des macros a un impact significatif sur le paysage de la puce, « affectant directement de nombreuses métriques de conception, telles que la surface et la consommation d’énergie », note Nvidia. L’optimisation des emplacements est une tâche de conception clé pour optimiser les performances et l’efficacité de la puce, ce qui affecte directement le client.
En ce qui concerne le fonctionnement d’AutoDMP, Nvidia indique que son placer analytique « formule le problème de placement comme un problème d’optimisation de la longueur du fil sous une contrainte de densité de placement et le résout numériquement ». Les algorithmes accélérés par GPU offrent une accélération jusqu’à 30 fois supérieure à celle des méthodes de placement précédentes. De plus, AutoDMP prend en charge les cellules de tailles mixtes. Dans l’animation du haut, vous pouvez voir AutoDMP placer des macros (rouge) et des cellules standard (grises) pour minimiser la longueur de fil dans une zone restreinte.
Nous avons parlé des avantages de vitesse de conception de l’utilisation d’AutoDMP, mais nous n’avons pas encore abordé les avantages qualitatifs. Dans la figure ci-dessus, vous pouvez voir que par rapport à sept conceptions alternatives existantes pour une puce de test, la puce optimisée pour AutoDMP offre des avantages évidents en termes de longueur de fil, de puissance, de pire mou négatif (WNS) et de mou négatif total (TNS). Les résultats au-dessus de la ligne sont une victoire d’AutoDMP contre les différents modèles rivaux.
AutoDMP est open source, avec le code publié sur GitHub.
Nvidia n’est pas le premier concepteur de puces à tirer parti de l’IA pour des mises en page optimales ; en février dernier, nous avions rendu compte de Synopsys et de son outil d’automatisation DSO.ai, qui a déjà été utilisé pour 100 tape-outs commerciaux. Synopsys a décrit sa solution comme un « ingénieur expert dans une boîte ». Il a ajouté que DSO.ai convenait parfaitement aux conceptions de silicium multi-puces à la mode, et que son utilisation libérerait les ingénieurs du travail itératif ennuyeux, afin qu’ils puissent orienter leurs talents vers plus d’innovation.