Les processus de conception de puces modernes nécessitent beaucoup de performances de calcul. Dans un communiqué de presse de Google Cloud via PR Newswire, nous apprenons que dans le but d’étendre les capacités de ses propres centres de données, AMD utilisera Google Cloud pour exécuter certaines de ses charges de travail d’automatisation de la conception électronique (EDA). Parmi les instances qu’AMD prévoit d’utiliser, il y aura l’instance de machine virtuelle C2D optimisée pour le calcul qui est alimentée par les propres processeurs EPYC d’AMD. Pendant ce temps, les autres instances qu’AMD utilisera ne semblent pas être alimentées par AMD.
Les ingénieurs d’AMD conçoivent des dizaines de puces en parallèle, ce qui nécessite des capacités de calcul redoutables mais cela ne nécessite pas cette puissance tout le temps. L’ajout de machines supplémentaires aux centres de données sur site est une option, mais si elles ne sont pas nécessaires, elles sont inefficaces d’un point de vue énergétique et financier. En prêtant la puissance CPU de Google Cloud, AMD obtient la bonne quantité de performances de calcul pour ses projets à court terme, sans affecter l’allocation des serveurs pour les projets à long terme. AMD contrôle également ses investissements.
Il existe d’autres avantages qu’AMD obtient en travaillant avec Google Cloud. En plus de l’instance de machine virtuelle C2D optimisée pour le calcul, AMD prévoit d’utiliser les capacités de mise en réseau, de stockage, d’intelligence artificielle (IA) et d’apprentissage automatique (ML) de Google Cloud. Peut-être que l’IA et le ML sont des éléments aussi importants des annonces que la machine virtuelle C2D.
Aujourd’hui, il faut des années pour développer une nouvelle architecture CPU ou GPU. La mise en œuvre physique de la puce (plan d’étage de la puce, disposition, placement, routage, etc.) peut prendre 24 mois supplémentaires ou plus pour la conception. Chaque aspect de l’implémentation de la puce doit être évalué et simulé. L’évaluation de centaines d’options de conception et l’exploration de la faisabilité de toutes les combinaisons potentielles ne peuvent pas être effectuées par des ingénieurs humains dans un délai raisonnable et c’est là que l’IA et le ML entrent en jeu.
Synopsys a présenté l’année dernière sa plate-forme DSO.ai qui utilise l’IA pour déterminer la meilleure configuration de lieu et d’itinéraire possible en termes de performances, de puissance et de surface (PPA) sans effectuer de longues simulations. Samsung a été la première entreprise à adopter la plate-forme Synopsys DSO.ai pour la conception de puces, Google et Nvidia l’utilisent également. Bien que nous ne puissions pas dire si AMD utilise l’IA d’optimisation de l’espace de conception de Synopsys, la plate-forme Cerebrus ML de Cadence, ou s’il a sa propre façon d’exploiter l’IA et le ML pour la conception de puces, nous pouvons certainement dire que l’IA et le ML deviennent des facteurs importants dans les flux de conception de puces ces jours-ci. .
« Dans l’environnement actuel des semi-conducteurs, la vitesse, l’échelle et la sécurité du cloud libèrent une flexibilité indispensable », a déclaré Sachin Gupta, directeur général et vice-président, Infrastructure, chez Google Cloud. « Nous sommes ravis de fournir l’infrastructure nécessaire pour répondre aux besoins de performances de calcul d’AMD et d’équiper l’entreprise de nos solutions d’IA pour continuer à concevoir des puces innovantes. »