Nvidia Tech utilise l’IA pour optimiser les conceptions de puces jusqu’à 30 fois plus rapidement

Nvidia est l’un des principaux concepteurs de puces utilisées pour l’accélération de l’intelligence artificielle (IA) et de l’apprentissage automatique (ML). Il est donc normal qu’il semble être l’un des pionniers dans l’application de l’IA à la conception de puces. Aujourd’hui, il a publié un article (s’ouvre dans un nouvel onglet) et article de blog (s’ouvre dans un nouvel onglet) révélant comment son système AutoDMP peut accélérer la planification moderne des puces en utilisant l’optimisation AI/ML accélérée par GPU, ce qui entraîne une accélération de 30 fois par rapport aux méthodes précédentes.

AutoDMP est l’abréviation de Automated DREAMPlace-based Macro Placement. Il est conçu pour se connecter à un système d’automatisation de la conception électronique (EDA) utilisé par les concepteurs de puces, afin d’accélérer et d’optimiser le processus fastidieux de recherche d’emplacements optimaux pour les blocs de construction des processeurs. Dans l’un des exemples d’AutoDMP au travail de Nvidia, l’outil a tiré parti de son IA pour déterminer une disposition optimale de 256 cœurs RSIC-V, représentant 2,7 millions de cellules standard et 320 macros de mémoire. AutoDMP a pris 3,5 heures pour trouver une disposition optimale sur une seule Nvidia DGX Station A100.

AutoDMP fournit un plan de placement très similaire aux experts utilisant les derniers outils de conception de mise en page EDA. La similitude est quelque peu rassurante et indique que l’IA est un gain de temps raisonnable plutôt qu’un changement révolutionnaire. (Crédit image : Nvidia)

(Crédit image : Nvidia)

Le placement des macros a un impact significatif sur le paysage de la puce, « affectant directement de nombreuses métriques de conception, telles que la surface et la consommation d’énergie », note Nvidia. L’optimisation des emplacements est une tâche de conception clé pour optimiser les performances et l’efficacité de la puce, ce qui affecte directement le client.

Nvidia AutoDMP

(Crédit image : Nvidia)

En ce qui concerne le fonctionnement d’AutoDMP, Nvidia indique que son placer analytique « formule le problème de placement comme un problème d’optimisation de la longueur du fil sous une contrainte de densité de placement et le résout numériquement ». Les algorithmes accélérés par GPU offrent une accélération jusqu’à 30 fois supérieure à celle des méthodes de placement précédentes. De plus, AutoDMP prend en charge les cellules de tailles mixtes. Dans l’animation du haut, vous pouvez voir AutoDMP placer des macros (rouge) et des cellules standard (grises) pour minimiser la longueur de fil dans une zone restreinte.

(Crédit image : Nvidia)

Nous avons parlé des avantages de vitesse de conception de l’utilisation d’AutoDMP, mais nous n’avons pas encore abordé les avantages qualitatifs. Dans la figure ci-dessus, vous pouvez voir que par rapport à sept conceptions alternatives existantes pour une puce de test, la puce optimisée pour AutoDMP offre des avantages évidents en termes de longueur de fil, de puissance, de pire mou négatif (WNS) et de mou négatif total (TNS). Les résultats au-dessus de la ligne sont une victoire d’AutoDMP contre les différents modèles rivaux.

Source-138