Snowflake a établi des plans pour aider à démocratiser l’accès aux ressources d’apprentissage automatique (ML) en éliminant les complexités pour les clients non experts.
Lors de sa conférence annuelle des utilisateurs, Snowflake Summit, le base de données La société a fait un certain nombre d’annonces destinées à faciliter l’adoption de l’apprentissage automatique. Au premier rang desquels, un meilleur soutien aux Python (le langage dans lequel de nombreux produits ML sont écrits) et un nouveau marché d’applications qui permet aux partenaires de monétiser leurs modèles.
« Notre objectif est de permettre aux clients d’exploiter aussi facilement que possible des modèles ML avancés sans avoir à créer à partir de zéro, car cela nécessite une énorme expertise », a déclaré Tal Shaked, qui dirige ML chez Snowflake.
« Grâce à des projets comme Snowflake Marketplace, nous voulons donner aux clients un moyen d’exécuter ce type de modèles sur leurs données, à la fois à grande échelle et de manière sécurisée. »
Accès pour tous
Bien que l’apprentissage automatique soit un concept vieux de plusieurs décennies, ce n’est qu’au cours des dernières années que les progrès en matière de calcul, de stockage, de logiciels et d’autres technologies ont ouvert la voie à une adoption généralisée.
Et même encore, la majorité de l’innovation et de l’expertise est mise en commun de manière disproportionnée entre une petite minorité d’entreprises, comme Google et Meta.
L’ambition de Snowflake est d’ouvrir l’accès aux opportunités disponibles à la pointe de l’apprentissage automatique grâce à une approche axée sur le partenariat et l’écosystème.
Shaked, qui a travaillé sur une gamme de projets d’apprentissage automatique chez Google avant de rejoindre Snowflake, a expliqué que les clients auront accès aux ressources fondamentales, en plus desquelles ils pourront effectuer de petites optimisations pour leurs cas d’utilisation spécifiques.
Par exemple, un modèle sophistiqué de traitement du langage naturel (NLP) développé par OpenAI pourrait servir de base à usage général pour un client de restauration rapide cherchant à développer un système de commande alimenté par ML, a-t-il suggéré. Dans ce scénario, le client n’est impliqué dans aucune des étapes de formation et de réglage du modèle sous-jacent, mais il récolte tout de même tous les avantages de la technologie.
Plus de Snowflake Summit
« Il y a tellement d’innovations dans le domaine du ML et nous voulons les intégrer à Snowflake sous la forme d’intégrations », a-t-il déclaré. Tech Radar Pro. « Il s’agit de se demander comment nous pouvons nous intégrer à ces fournisseurs afin que nos clients puissent effectuer les ajustements sans avoir besoin d’embaucher un tas de docteurs. »
Ce sentiment a été repris plus tôt dans la journée par Benoit Dageville, co-fondateur de Snowflake, qui a parlé de l’importance du partage de l’expertise au sein de l’écosystème des clients et des partenaires.
« La démocratisation du ML est un aspect important de ce que nous essayons de faire. Nous devenons une plate-forme ML, mais pas seulement là où vous l’avez construite et l’utilisez pour vous-même ; la révolution est dans le partage de l’expertise.
« Ce ne sont plus seulement les Google et Meta de ce monde qui utilisent cette technologie, car nous facilitons le partage. »
Clause de non-responsabilité: Nos vols et hébergements pour le Snowflake Summit 2022 ont été financés par Snowflake, mais l’organisation n’avait aucun contrôle éditorial sur le contenu de cet article.