Avant le MWC 2022, Intel a publié une nouvelle version de la distribution Intel de la boîte à outils OpenVINO qui induit des mises à niveau majeures pour accélérer les performances d’inférence de l’IA.
Depuis le lancement d’OpenVINO en 2018, le géant des puces a permis à des centaines de milliers de développeurs d’accélérer les performances de l’inférence de l’IA en commençant à la périphérie et en s’étendant à la fois aux entreprises et aux clients.
Cette dernière version comprend de nouvelles fonctionnalités basées sur trois ans et demi de commentaires des développeurs et comprend également une plus grande sélection de modèles d’apprentissage en profondeur, plus de choix de portabilité des appareils et des performances d’inférence plus élevées avec moins de modifications de code.
Vice-président des outils de développement OpenVINO au sein du groupe réseau et bord d’Intel, Adam Burns a fourni des informations supplémentaires sur cette dernière version de la distribution de la boîte à outils OpenVINO par la société dans un communiqué de presse, en disant :
« La dernière version d’OpenVINO 2022.1 s’appuie sur plus de trois ans d’apprentissage de centaines de milliers de développeurs pour simplifier et automatiser les optimisations. La dernière mise à niveau ajoute la découverte automatique du matériel et l’optimisation automatique, afin que les développeurs de logiciels puissent obtenir des performances optimales sur chaque plate-forme. Ce logiciel, associé au silicium Intel, offre un avantage significatif sur le retour sur investissement de l’IA et se déploie facilement dans les solutions basées sur Intel de votre réseau.
Construit sur la base de oneAPI, le kit d’outils Intel Distribution of OpenVINO est une suite d’outils pour un apprentissage en profondeur hautes performances visant à permettre des résultats réels plus rapides et plus précis déployés en production de la périphérie au cloud. Les nouvelles fonctionnalités de la dernière version permettent aux développeurs d’adopter, de maintenir, d’optimiser et de déployer facilement du code sur une gamme étendue de modèles d’apprentissage en profondeur.
La dernière version de la boîte à outils Intel Distribution of OpenVINO propose une API mise à jour et plus propre qui nécessite moins de modifications de code lors de la transition à partir d’un autre framework. Dans le même temps, les paramètres de l’API de Model Optimizer ont été réduits pour minimiser la complexité.
Intel a également inclus une prise en charge plus large des modèles de programmation en langage naturel (NLP) pour des cas d’utilisation tels que la synthèse vocale et la reconnaissance vocale. En termes de performances, le mode de périphérique AUTO découvre désormais automatiquement la capacité d’inférence système disponible en fonction des exigences du modèle, de sorte que les applications n’ont plus besoin de connaître leur environnement de calcul pour avancer.
Enfin, Intel a ajouté la prise en charge de l’architecture hybride dans les processeurs Intel Core de 12e génération afin d’offrir des améliorations pour une inférence haute performance à la fois sur le processeur et le GPU intégré.