Il y a environ un an, Google a annoncé le lancement de Vertex AI, une plateforme d’IA gérée conçue pour aider les entreprises à accélérer le déploiement de modèles d’IA. Pour marquer l’anniversaire du service et le lancement du sommet Applied ML de Google, Google a annoncé ce matin de nouvelles fonctionnalités destinées à Vertex, notamment un serveur dédié à la formation au système d’IA et des explications « basées sur des exemples ».
« Nous avons lancé Vertex AI il y a un an dans le but de permettre à une nouvelle génération d’IA qui permette aux data scientists et aux ingénieurs de faire un travail épanouissant et créatif », a déclaré Henry Tappen, chef de produit du groupe Google Cloud, à TechCrunch par e-mail. « Les nouvelles fonctionnalités de Vertex AI que nous lançons aujourd’hui continueront d’accélérer le déploiement de modèles d’apprentissage automatique dans les organisations et de démocratiser l’IA afin que davantage de personnes puissent déployer des modèles en production, surveiller en permanence et générer un impact commercial avec l’IA.
Comme Google l’a toujours présenté, l’avantage de Vertex est qu’il rassemble les services Google Cloud pour l’IA sous une interface utilisateur et une API unifiées. Des clients tels que Ford, Seagate, Wayfair, Cashapp, Cruise et Lowe’s utilisent le service pour créer, former et déployer des modèles d’apprentissage automatique dans un environnement unique, affirme Google, faisant passer les modèles de l’expérimentation à la production.
Vertex est en concurrence avec les plates-formes d’IA gérées de fournisseurs de cloud comme Amazon Web Services et Azure. Techniquement, il s’inscrit dans la catégorie des plates-formes connues sous le nom de MLOps, un ensemble de meilleures pratiques permettant aux entreprises d’exécuter l’IA. Deloitte prévoit que le marché des MLOps atteindra 4 milliards de dollars en 2025, soit une croissance de près de 12 fois depuis 2019.
Gartner prévoit que l’émergence de services gérés comme Vertex entraînera une croissance du marché du cloud de 18,4 % en 2021, le cloud devant représenter 14,2 % des dépenses informatiques mondiales totales. « Alors que les entreprises augmentent leurs investissements dans la mobilité, la collaboration et d’autres technologies et infrastructures de travail à distance, la croissance du cloud public [will] être maintenu jusqu’en 2024 », a écrit Gartner dans une étude de novembre 2020.
Nouvelles capacités
Parmi les nouvelles fonctionnalités de Vertex figure le AI Training Reduction Server, une technologie qui, selon Google, optimise la bande passante et la latence de la formation distribuée multisystème sur les GPU Nvidia. Dans l’apprentissage automatique, la «formation distribuée» fait référence à la répartition du travail de formation d’un système sur plusieurs machines, GPU, processeurs ou puces personnalisées, réduisant ainsi le temps et les ressources nécessaires pour terminer la formation.
« Cela réduit considérablement le temps de formation requis pour les charges de travail linguistiques volumineuses, comme BERT, et permet en outre la parité des coûts entre différentes approches », a déclaré Andrew Moore, vice-président et directeur général de l’IA cloud chez Google, dans un article publié aujourd’hui sur le blog Google Cloud. « Dans de nombreux scénarios commerciaux critiques, un cycle de formation raccourci permet aux scientifiques des données de former un modèle avec des performances prédictives plus élevées dans les limites d’une fenêtre de déploiement. »
En avant-première, Vertex propose également désormais des flux de travail tabulaires, qui visent à apporter une plus grande personnalisation au processus de création de modèles. Comme l’a expliqué Moore, Tabular Workflows permet aux utilisateurs de choisir les parties du flux de travail qu’ils souhaitent que la technologie « AutoML » de Google gère par rapport aux parties qu’ils souhaitent concevoir eux-mêmes. AutoML, ou apprentissage automatique automatisé – qui n’est pas unique à Google Cloud ou Vertex – englobe toute technologie qui automatise les aspects du développement de l’IA et peut aborder les étapes de développement depuis le début avec un ensemble de données brutes jusqu’à la création d’un modèle d’apprentissage automatique prêt à être déployé. AutoML peut faire gagner du temps, mais ne peut pas toujours battre une touche humaine, en particulier lorsque la précision est requise.
« Des éléments de flux de travail tabulaires peuvent également être intégrés dans vos pipelines Vertex AI existants », a déclaré Moore. « Nous avons ajouté de nouveaux algorithmes gérés, y compris des modèles de recherche avancés comme TabNet, de nouveaux algorithmes pour la sélection de fonctionnalités, la distillation de modèles et… plus. »
Allié aux pipelines de développement, Vertex gagne également une intégration (en avant-première) avec Spark sans serveur, la version sans serveur du moteur d’analyse open source maintenu par Apache pour le traitement des données. Désormais, les utilisateurs de Vertex peuvent lancer une session Spark sans serveur pour développer du code de manière interactive.
Ailleurs, les clients peuvent analyser les caractéristiques des données dans la plate-forme de Neo4j, puis déployer des modèles à l’aide de Vertex grâce à un nouveau partenariat avec Neo4j. Et – grâce à une collaboration entre Google et Labelbox – il est désormais plus facile d’accéder aux services d’étiquetage de données de Labelbox pour les images, le texte, les données audio et vidéo à partir du tableau de bord Vertex. Les étiquettes sont nécessaires pour que la plupart des modèles d’IA apprennent à faire des prédictions ; les modèles s’entraînent à identifier les relations entre les étiquettes, également appelées annotations, et des exemples de données (par exemple, la légende « grenouille » et une photo d’une grenouille).
Dans le cas où les données seraient mal étiquetées, Moore propose des explications basées sur des exemples comme solution. Disponibles en avant-première, les nouvelles fonctionnalités de Vertex s’appuient sur des explications « basées sur des exemples » pour aider à diagnostiquer et à traiter les problèmes liés aux données. Bien sûr, aucune technique d’IA explicable ne peut détecter toutes les erreurs ; Le linguiste informatique Vagrant Gautam met en garde contre une confiance excessive dans les outils et les techniques utilisés pour expliquer l’IA.
« Google a une documentation sur les limitations et un livre blanc plus détaillé sur l’IA explicable, mais rien de tout cela n’est mentionné nulle part [today’s Vertex AI announcement]», ont-ils déclaré à TechCrunch par e-mail. « L’annonce souligne que » la maîtrise des compétences ne devrait pas être le critère de déclenchement de la participation « et que les nouvelles fonctionnalités qu’elles fournissent peuvent » faire évoluer l’IA pour les non-experts en logiciels « . Ma préoccupation est que les non-experts ont plus confiance en l’IA et en l’explicabilité de l’IA qu’ils ne le devraient et maintenant divers clients de Google peuvent créer et déployer des modèles plus rapidement sans s’arrêter pour demander s’il s’agit d’un problème qui nécessite une solution d’apprentissage automatique en premier lieu, et qualifiant leurs modèles d’explicables (et donc dignes de confiance et bons) sans connaître toute l’étendue des limites qui les entourent pour leurs cas particuliers.
Pourtant, Moore suggère que les explications basées sur des exemples peuvent être un outil utile lorsqu’elles sont utilisées en tandem avec d’autres pratiques d’audit de modèles.
« Les scientifiques des données ne devraient pas avoir besoin d’être des ingénieurs d’infrastructure ou des ingénieurs d’exploitation pour maintenir des modèles précis, explicables, évolutifs, résistants aux catastrophes et sécurisés, dans un environnement en constante évolution », a ajouté Moore. « Nos clients exigent des outils pour gérer et maintenir facilement les modèles d’apprentissage automatique. »