Amazon jette son chapeau dans le cercle de l’IA générative. Mais plutôt que de créer des modèles d’IA entièrement par lui-même, il recrute des tiers pour héberger des modèles sur AWS.
AWS a dévoilé aujourd’hui Amazon Bedrock, qui offre un moyen de créer des applications génératives alimentées par l’IA via des modèles préformés de startups telles que AI21 Labs, Anthropic et Stability AI. Disponible dans un « aperçu limité », Bedrock offre également un accès aux Titan FM (modèles de base), une famille de modèles formés en interne par AWS.
« Appliquer l’apprentissage automatique au monde réel – résoudre de vrais problèmes commerciaux à grande échelle – est ce que nous faisons de mieux », a déclaré Vasi Philomin, vice-président de l’IA générative chez AWS, à TechCrunch lors d’un entretien téléphonique. « Nous pensons que chaque application peut être repensée avec l’IA générative. »
Les débuts de Bedrock ont été quelque peu télégraphiés par les partenariats récemment signés d’AWS avec des startups d’IA génératives au cours des derniers mois, en plus de ses investissements croissants dans la technologie nécessaire pour créer des applications d’IA génératives.
En novembre dernier, Stability AI a sélectionné AWS comme fournisseur de cloud préféré, et en mars, Hugging Face et AWS ont collaboré pour intégrer les modèles de génération de texte du premier sur la plate-forme AWS. Plus récemment, AWS a lancé un accélérateur d’IA génératif pour les startups et a déclaré qu’il travaillerait avec Nvidia pour créer une infrastructure de « nouvelle génération » pour la formation de modèles d’IA.
Socle rocheux et modèles personnalisés
Bedrock est le jeu le plus puissant d’Amazon à ce jour pour le marché de l’IA générative, qui pourrait valoir près de 110 milliards de dollars d’ici 2030, selon les estimations de Grand View Research.
Avec Bedrock, les clients d’AWS peuvent choisir d’exploiter les modèles d’IA de différents fournisseurs, y compris AWS, via une API. Les détails sont un peu flous – Amazon n’a pas annoncé de prix officiels, pour commencer. Mais la société a fait soulignent que Bedrock s’adresse aux grands clients qui créent des applications d’IA «à l’échelle de l’entreprise», ce qui le différencie de certains des services d’hébergement de modèles d’IA, comme Replicate (ainsi que les concurrents en place Google Cloud et Azure).
On suppose que les fournisseurs de modèles d’IA générative ont été incités par la portée d’AWS ou le partage potentiel des revenus à rejoindre Bedrock. Amazon n’a cependant pas révélé les termes des contrats de licence ou d’hébergement du modèle.
Les modèles tiers hébergés sur Bedrock incluent la famille Jurassic-2 d’AI21 Labs, qui sont multilingues et peuvent générer du texte en espagnol, français, allemand, portugais, italien et néerlandais. Claude, le modèle d’Anthropic sur Bedrock, peut effectuer une gamme de tâches de conversation et de traitement de texte. Pendant ce temps, la suite de modèles hébergés par Bedrock de Stability AI, y compris Stable Diffusion, peut générer des images, des illustrations, des logos et des conceptions graphiques.
En ce qui concerne les offres sur mesure d’Amazon, la famille Titan FM comprend actuellement deux modèles, avec probablement d’autres à venir dans le futur : un modèle de génération de texte et un modèle d’intégration. Le modèle de génération de texte, semblable au GPT-4 d’OpenAI (mais pas nécessairement à la hauteur des performances), peut effectuer des tâches telles que la rédaction d’articles de blog et d’e-mails, la synthèse de documents et l’extraction d’informations à partir de bases de données. Le modèle d’incorporation traduit les entrées de texte comme les mots et les phrases en représentations numériques, appelées incorporations, qui contiennent la signification sémantique du texte. Philomin affirme qu’il est similaire à l’un des modèles qui alimente les recherches sur Amazon.com.
Les clients d’AWS peuvent personnaliser n’importe quel modèle Bedrock en pointant le service vers quelques exemples étiquetés dans Amazon S3, le plan de stockage dans le cloud d’Amazon — seulement 20 suffisent. Aucune donnée client n’est utilisée pour former les modèles sous-jacents, explique Amazon.
« Chez AWS… nous avons joué un rôle clé dans la démocratisation de l’apprentissage automatique et le rendre accessible à tous ceux qui souhaitent l’utiliser », a déclaré Philomin. « Amazon Bedrock est le moyen le plus simple de créer et de mettre à l’échelle des applications d’IA génératives avec des modèles de base. »
Bien sûr, étant donné les questions juridiques sans réponse entourant l’IA générative, on se demande exactement combien de clients vont mordre.
Microsoft a connu le succès avec sa suite de modèles d’IA générative, Azure OpenAI Service, qui regroupe des modèles OpenAI avec des fonctionnalités supplémentaires destinées aux entreprises clientes. En mars, plus de 1 000 clients utilisaient Azure OpenAI Service, a déclaré Microsoft dans un article de blog.
Mais il y a plusieurs poursuites en cours concernant la technologie d’IA générative d’entreprises telles que OpenAI et Stability AI, intentées par des plaignants qui allèguent que des données protégées par le droit d’auteur, principalement de l’art, ont été utilisées sans autorisation pour former les modèles génératifs. (Les modèles d’IA générative « apprennent » à créer de l’art, du code et plus encore en « s’entraînant » sur des exemples d’images et de texte, généralement extraits sans discernement du Web.) Une autre affaire qui fait son chemin devant les tribunaux cherche à établir si les modèles générateurs de code qui ne ne pas donner d’attribution ou de crédit peut en fait être commercialisé, et un maire australien a menacé de poursuites en diffamation contre OpenAI pour les inexactitudes jaillies par son modèle génératif ChatGPT.
Philomin n’a pas inspiré beaucoup de confiance, franchement, refusant de dire sur quelles données exactement la famille Titan FM d’Amazon a été formée. Au lieu de cela, il a souligné que les modèles Titan ont été conçus pour détecter et supprimer le contenu « préjudiciable » dans les données fournies par les clients d’AWS pour la personnalisation, rejeter les entrées de contenu « inapproprié » des utilisateurs et filtrer les sorties contenant des discours de haine, des grossièretés et de la violence.
Bien sûr, même les meilleurs systèmes de filtrage peuvent être contournés, comme le démontre ChatGPT. Les soi-disant attaques par injection rapide contre ChatGPT et des modèles similaires ont été utilisées pour écrire des logiciels malveillants, identifier des exploits dans le code open source et générer des contenus horriblement sexistes, racistes et désinformatifs. (Les modèles d’IA générative ont tendance à amplifier les biais dans les données d’entraînement ou, s’ils manquent de données d’entraînement pertinentes, inventent simplement les choses.)
Mais Philomin a balayé ces inquiétudes.
« Nous nous engageons à utiliser de manière responsable ces technologies », a-t-il déclaré. « Nous surveillons le paysage réglementaire là-bas… nous avons beaucoup d’avocats qui nous aident à déterminer quelles données nous pouvons utiliser et celles que nous ne pouvons pas utiliser. »
Mis à part les tentatives d’assurance de Philomin, les marques pourraient ne pas vouloir être responsables de tout ce qui pourrait mal tourner. (En cas de poursuite, il n’est pas tout à fait clair si les clients d’AWS, AWS lui-même ou le créateur du modèle incriminé seraient tenus responsables.) Mais les clients individuels pourraient le faire, en particulier s’il n’y a pas de frais pour le privilège.
Lancement de CodeWhisperer, Trainium et Inferentia2 en GA
Sur le sujet et coïncidant avec sa grande poussée d’IA générative aujourd’hui, Amazon a créé CodeWhisperer, son service de génération de code alimenté par l’IA, gratuitement pour les développeurs sans aucune restriction d’utilisation.
Cette décision suggère que CodeWhisperer n’a pas vu l’adoption qu’Amazon espérait. Son principal rival, le copilote de GitHub, comptait plus d’un million d’utilisateurs en janvier, dont des milliers d’entreprises clientes. CodeWhisperer a du terrain à rattraper, sûrement – ce qu’il vise à faire du côté de l’entreprise avec le lancement simultané de CodeWhisperer Professional Tier. CodeWhisperer Professional Tier ajoute une authentification unique avec l’intégration d’AWS Identity and Access Management, ainsi que des limites plus élevées pour l’analyse des vulnérabilités de sécurité.
CodeWhisperer a été lancé fin juin dans le cadre des extensions AWS IDE Toolkit et AWS Toolkit IDE en réponse, en quelque sorte, au copilote susmentionné. Formé sur des milliards de lignes de code open source accessible au public et sur la propre base de code d’Amazon, ainsi que sur la documentation et le code sur les forums publics, CodeWhisperer peut compléter automatiquement des fonctions entières dans des langages comme Java, JavaScript et Python en se basant uniquement sur un commentaire ou quelques frappes.
CodeWhisperer prend désormais en charge plusieurs langages de programmation supplémentaires – en particulier Go, Rust, PHP, Ruby, Kotlin, C, C++, les scripts Shell, SQL et Scala – et, comme auparavant, met en évidence et filtre éventuellement la licence associée aux fonctions qu’il suggère qui ressemblent. aux extraits existants trouvés dans ses données de formation.
La mise en évidence est une tentative de conjurer les défis juridiques auxquels GitHub est confronté avec Copilot. Le temps dira si c’est réussi.
« Les développeurs peuvent devenir beaucoup plus productifs avec ces outils », a déclaré Philomin. « Il est difficile pour les développeurs d’être à jour sur tout… des outils comme celui-ci les aident à ne pas avoir à s’en soucier. »
Dans un territoire moins controversé, Amazon a annoncé aujourd’hui qu’il lancement des instances Elastic Cloud Compute (EC2) Inf2 en disponibilité générale, alimentées par les puces AWS Inferentia2 de la société, qui ont été présentées en avant-première l’année dernière lors de la conférence re:Invent d’Amazon. Les instances Inf2 sont conçues pour accélérer les temps d’exécution de l’IA, offrant un débit apparemment meilleur et une latence plus faible pour une meilleure performance globale des prix d’inférence.
De plus, les instances Amazon EC2 Trn1n optimisées par AWS Trainium, la puce conçue sur mesure par Amazon pour la formation à l’IA, est également généralement disponible pour les clients à partir d’aujourd’hui, a annoncé Amazon. Ils offrent jusqu’à 1600 Gbit/s de bande passante réseau et sont conçus pour offrir des performances jusqu’à 20 % supérieures à celles de Trn1 pour les grands modèles gourmands en réseau, selon Amazon.
Inf2 et Trn1n sont tous deux en concurrence avec des offres concurrentes de Google et Microsoft, comme les puces TPU de Google pour la formation à l’IA.
« AWS offre l’infrastructure cloud la plus efficace pour l’IA générative », a déclaré Philomin avec confiance. « L’un des besoins des clients est le juste coût de traitement de ces modèles… C’est l’une des raisons pour lesquelles de nombreux clients n’ont pas mis ces modèles en production. »
Leurs mots de combat – la croissance de l’IA générative aurait mis Azure à genoux. Amazon subira-t-il le même sort ? C’est à déterminer.