Le spécialiste israélien de l’apprentissage en profondeur et de l’intelligence artificielle (IA) Deci a annoncé cette semaine qu’il avait atteint des « performances d’apprentissage en profondeur révolutionnaires » en utilisant des processeurs. Les GPU ont traditionnellement été le choix naturel pour l’apprentissage en profondeur et le traitement de l’IA. Cependant, avec l’amélioration 2x revendiquée par Deci apportée à des solutions de traitement CPU uniquement moins chères, il semble que la pression sur le marché des GPU pourrait être atténuée.
Les DeciNets sont les modèles innovants de classification d’images de pointe de Deci, actuellement optimisés pour une utilisation sur les processeurs Intel Cascade Lake. Ils utilisent la technologie exclusive AutoNAC (Automated Neural Architecture Construction) de Deci et, fonctionnant sur des processeurs, ils sont plus de deux fois plus rapides et plus précis que les EfficientNets développés par Google.
« En tant que praticiens de l’apprentissage en profondeur, notre objectif n’est pas seulement de trouver les modèles les plus précis, mais de découvrir les modèles les plus économes en ressources qui fonctionnent de manière transparente en production – cette combinaison d’efficacité et de précision constitue le » Saint Graal « de l’apprentissage en profondeur » a déclaré Yonatan Geifman, co-fondateur et PDG de Deci. « AutoNAC crée les meilleurs modèles de vision par ordinateur à ce jour, et maintenant, la nouvelle classe de DeciNets peut être appliquée et exécuter efficacement des applications d’IA sur des processeurs. »
La classification et la reconnaissance d’images, telles qu’abordées par DeciNets, sont l’une des principales tâches auxquelles les systèmes d’apprentissage en profondeur et d’IA sont appliqués de nos jours. Ces tâches sont des technologies importantes destinées aux consommateurs, telles que Google Photos, Facebook et les systèmes d’assistance à la conduite. Cependant, il est également essentiel pour les applications industrielles, médicales, gouvernementales et autres.
Supposons que DeciNets puisse réellement « réduire l’écart de manière significative entre les performances du GPU et du CPU » pour exécuter des réseaux de neurones convolutifs, avec une meilleure précision, et qu’ils puissent fonctionner sur des systèmes moins chers et plus économes en énergie. Dans ce cas, nous pourrions assister à un changement majeur dans l’industrie des centres de données. Une industrie aussi importante qui s’éloigne de la nécessité de serveurs de conditionnement multi-GPU coûteux pour le traitement de l’IA pourrait réduire la pression sur le marché des GPU.
Notamment, Deci travaille avec Intel pour optimiser l’inférence d’apprentissage en profondeur sur les processeurs Intel Architecture (IA) depuis près d’un an. Entre-temps, il indique que plusieurs clients ont déjà adopté sa technologie AutoNAC dans les industries de production.
Il est important de rappeler que des entreprises comme Deci sont naturellement pleines d’optimisme pour leurs nouvelles technologies et cela transparaît dans leurs communiqués de presse. Cependant, bien que les déclarations de performance et d’efficacité puissent être exactes, les industries établies ont une énorme inertie, ce qui allonge le temps nécessaire pour s’éloigner des solutions éprouvées.
En avril 2021, nous avons rendu compte d’un nouvel algorithme, développé par la Brown School of Engineering de Rice, qui pourrait rendre les processeurs encore plus rapides que les GPU dans certaines applications d’apprentissage en profondeur. Les scientifiques ont démontré leurs avancées avec un cas d’utilisation spécialisé. En comparaison, Deci semble avoir ciblé une tâche de traitement d’apprentissage en profondeur / IA très demandée (classification et reconnaissance d’images), nous devrions donc voir un intérêt plus large de la part de l’industrie technologique.