Intel et d’autres s’engagent à créer des outils d’IA générative ouverts pour l’entreprise

L’IA générative conçue pour l’entreprise (par exemple, l’IA qui remplit automatiquement les rapports, les formules de feuilles de calcul, etc.) peut-elle un jour être interopérable ? Aux côtés d’une coterie d’organisations dont Cloudera et Intel, la Linux Foundation – l’organisation à but non lucratif qui soutient et maintient un nombre croissant d’efforts open source – vise à le découvrir.

La Linux Foundation a annoncé mardi le lancement de l’Open Platform for Enterprise AI (OPEA), un projet visant à favoriser le développement de systèmes d’IA générative ouverts, multi-fournisseurs et composables (c’est-à-dire modulaires). Sous la responsabilité de l’organisation LF AI and Data de la Linux Foundation, qui se concentre sur les initiatives de plates-formes liées à l’IA et aux données, l’objectif de l’OPEA sera d’ouvrir la voie à la sortie de systèmes d’IA génératifs « renforcés » et « évolutifs » qui « exploitent la meilleure innovation open source de tout l’écosystème », a déclaré Ibrahim Haddad, directeur exécutif de LF AI and Data, dans un communiqué de presse.

« L’OPEA ouvrira de nouvelles possibilités en matière d’IA en créant un cadre détaillé et composable qui se situe à l’avant-garde des piles technologiques », a déclaré Haddad. « Cette initiative témoigne de notre mission de stimuler l’innovation et la collaboration open source au sein des communautés de l’IA et des données dans le cadre d’un modèle de gouvernance neutre et ouvert. »

Outre Cloudera et Intel, OPEA – l’un des projets Sandbox de la Linux Foundation, une sorte de programme d’incubation – compte parmi ses membres des poids lourds de l’entreprise comme Intel, Red Hat, propriété d’IBM, Hugging Face, Domino Data Lab, MariaDB et VMware.

Alors, que pourraient-ils construire ensemble exactement ? Haddad fait allusion à quelques possibilités, telles que la prise en charge « optimisée » des chaînes d’outils et des compilateurs d’IA, qui permettent aux charges de travail d’IA de s’exécuter sur différents composants matériels, ainsi que des pipelines « hétérogènes » pour la génération augmentée par récupération (RAG).

RAG devient de plus en plus populaire dans les applications d’entreprise d’IA générative, et il n’est pas difficile de comprendre pourquoi. Les réponses et les actions de la plupart des modèles d’IA génératifs sont limitées aux données sur lesquelles ils sont formés. Mais avec RAG, la base de connaissances d’un modèle peut être étendue à des informations extérieures aux données d’entraînement d’origine. Les modèles RAG font référence à ces informations extérieures – qui peuvent prendre la forme de données exclusives de l’entreprise, d’une base de données publique ou d’une combinaison des deux – avant de générer une réponse ou d’effectuer une tâche.

Un diagramme expliquant les modèles RAG. Crédits images : Intel

Intel a fourni quelques détails supplémentaires dans son propre communiqué de presse :

Les entreprises sont confrontées au défi d’une approche de bricolage [to RAG] car il n’existe pas de normes de facto entre les composants qui permettent aux entreprises de choisir et de déployer des solutions RAG ouvertes et interopérables et qui les aident à commercialiser rapidement. L’OPEA a l’intention de résoudre ces problèmes en collaborant avec l’industrie pour normaliser les composants, notamment les cadres, les plans d’architecture et les solutions de référence.

L’évaluation sera également un élément clé des activités menées par l’OPEA.

Dans son référentiel GitHub, OPEA propose une rubrique pour évaluer les systèmes d’IA générative selon quatre axes : performances, fonctionnalités, fiabilité et préparation « de niveau entreprise ». Performance Comme le définit l’OPEA, il s’agit de références « boîte noire » issues de cas d’utilisation réels. Caractéristiques est une évaluation de l’interopérabilité d’un système, des choix de déploiement et de la facilité d’utilisation. Fiabilité s’intéresse à la capacité d’un modèle d’IA à garantir « robustesse » et qualité. Et préparation de l’entreprise se concentre sur les conditions requises pour qu’un système soit opérationnel sans problèmes majeurs.

Rachel Roumeliotis, directrice de la stratégie open source chez Intel, déclare qu’OPEA travaillera avec la communauté open source pour proposer des tests basés sur la rubrique, ainsi que pour fournir des évaluations et une notation des déploiements d’IA générative sur demande.

Les autres projets de l’OPEA sont un peu en suspens pour le moment. Mais Haddad a évoqué le potentiel du développement de modèles ouverts sur le modèle de la famille Llama en expansion de Meta et du DBRX de Databricks. À cette fin, dans le référentiel OPEA, Intel a déjà contribué à des implémentations de référence pour un chatbot, un résumé de documents et un générateur de code alimentés par l’IA générative optimisés pour ses matériels Xeon 6 et Gaudi 2.

Désormais, les membres de l’OPEA sont très clairement investis (et intéressés, d’ailleurs) dans la création d’outils pour l’IA générative d’entreprise. Cloudera a récemment lancé des partenariats pour créer ce qu’elle présente comme un « écosystème d’IA » dans le cloud. Domino propose une suite d’applications pour créer et auditer une IA générative orientée entreprise. Et VMware – orienté vers l’infrastructure de l’IA d’entreprise – a lancé en août dernier de nouveaux produits de calcul « IA privée ».

La question est de savoir si ces fournisseurs en fait travailler ensemble pour créer des outils d’IA intercompatibles sous OPEA.

Il y a un avantage évident à le faire. Les clients seront heureux de faire appel à plusieurs fournisseurs en fonction de leurs besoins, de leurs ressources et de leur budget. Mais l’histoire a montré qu’il est trop facile de s’en remettre à un fournisseur exclusif. Espérons que ce ne soit pas le résultat final ici.

Source-146