Comment le fiasco d’OpenAI pourrait renforcer Meta et le mouvement « Open AI »

Ces quatre jours ont été un véritable tourbillon pour OpenAI, l’enfant emblématique de l’IA générative derrière le succès ChatGPT.

Apparemment sorti de nulle part, le conseil d’administration d’OpenAI a évincé le PDG et co-fondateur Sam Altman et rétrogradé le président et co-fondateur Greg Brockman, qui a ensuite démissionné, ouvrant la voie à ce qui ressemblait à une mutinerie du personnel insistant pour que les fondateurs soient réintégrés en toute hâte. À ce moment-là, Microsoft avait déjà embauché Altman et Brockman pour diriger une nouvelle unité interne d’IA, mais, au fil des événements, rien n’avait encore été signé, des rumeurs suggérant que les dirigeants évincés pourraient finalement revenir à OpenAI – dans une certaine mesure. , au moins.

La situation reste fluide et de nombreuses issues potentielles restent encore sur la table. Mais toute cette débâcle a mis en lumière les forces qui contrôlent la révolution naissante de l’IA, ce qui amène beaucoup à se demander ce qui se passe si vous faites tapis sur un lecteur propriétaire centralisé, et que se passe-t-il si les choses tournent mal ?

« Le drame OpenAI/Microsoft souligne l’un des grands risques à court terme liés à l’IA : que cette prochaine vague technologique soit contrôlée par le même petit groupe d’acteurs qui ont façonné la dernière ère d’Internet », Mark Surman, président et directeur général. directeur de la Fondation Mozilla, a déclaré à TechCrunch. « Nous pourrions avoir une chance d’éviter cela si GPT-X était open source responsable, donnant aux chercheurs et aux startups une chance de rendre cette technologie plus sûre, plus utile et plus fiable pour les gens du monde entier. »

Ouvre et ferme

Dans une lettre ouverte publiée par Mozilla il y a quelques semaines, Yann LeCun, scientifique en chef de l’IA chez Meta, s’est joint à quelque 70 autres signataires pour appeler à plus d’ouverture dans le développement de l’IA, bien que cette lettre ait depuis recueilli plus de 1 700 signatures. En toile de fond, les grandes entreprises technologiques telles qu’OpenAI et DeepMind de Google appellent à davantage de réglementation et mettent en garde contre les conséquences catastrophiques si les leviers de l’IA tombent entre de mauvaises mains. En d’autres termes, elles soutiennent que l’IA propriétaire est plus sûre que l’open source.

LeCun et coll. être en désaccord.

« Oui, les modèles librement disponibles comportent des risques et des vulnérabilités : les modèles d’IA peuvent être abusés par des acteurs malveillants ou déployés par des développeurs mal équipés », reconnaît la lettre. « Cependant, nous avons constaté à maintes reprises qu’il en va de même pour les technologies propriétaires – et que l’augmentation de l’accès et de la surveillance du public rend la technologie plus sûre, et non plus dangereuse. L’idée selon laquelle un contrôle strict et exclusif des modèles fondamentaux d’IA est le seul moyen de nous protéger des dommages à l’échelle de la société est au mieux naïve, au pire dangereuse.

Sur le plan personnel, LeCun a accusé les grands acteurs de l’IA tentent d’assurer « la capture réglementaire de l’industrie de l’IA » en faisant pression contre la R&D ouverte sur l’IA. Et au niveau de l’entreprise, Meta fait tout ce qui est en son pouvoir pour encourager la collaboration et « l’ouverture », en s’associant récemment à Hugging Face pour lancer un nouvel accélérateur de startups conçu pour stimuler l’adoption de modèles d’IA open source.

Mais OpenAI était – du moins jusqu’à la semaine dernière – toujours le chouchou de l’IA avec lequel tout le monde voulait danser. D’innombrables startups et scale-ups ont bâti des entreprises sur les grands modèles de langage (LLM) GPT-X exclusifs d’OpenAI, et au cours du week-end, des centaines de clients d’OpenAI auraient commencé à contacter les concurrents d’OpenAI, parmi lesquels Anthropic, Google et Cohere, craignant que leurs propres entreprises puissent être impacté si OpenAI devait se désintégrer du jour au lendemain.

Excès de confiance

La panique est palpable. Mais il existe des précédents ailleurs dans le domaine technologique, notamment celui du secteur du cloud computing, devenu célèbre pour la façon dont il enfermait les entreprises dans des silos centralisés ressemblant à des vortex.

« Une partie de la frénésie autour de l’avenir d’OpenAI est due au fait que trop de startups s’appuient trop sur leurs modèles propriétaires », a déclaré Luis Ceze, professeur d’informatique à l’Université de Washington et PDG d’OctoML, à TechCrunch dans une déclaration envoyée par courrier électronique. « Il est dangereux de mettre toutes ses puces dans le même panier – nous l’avons constaté dès les débuts du cloud, ce qui a conduit les entreprises à se tourner vers des environnements multi-cloud et hybrides.

En apparence, Microsoft apparaît actuellement comme le plus grand gagnant de la tourmente d’OpenAI, car il cherchait déjà apparemment à réduire sa dépendance à l’égard d’OpenAI, même s’il reste l’un de ses principaux actionnaires. Mais la société mère de Facebook, Meta, pourrait également en bénéficier, à mesure que les entreprises poursuivent des stratégies ou des modèles multimodaux intégrant une philosophie plus « ouverte ».

« L’Open Source offre aujourd’hui une grande variété de modèles permettant aux entreprises de se diversifier », a ajouté Ceze. « Ce faisant, ces startups peuvent rapidement pivoter et minimiser les risques. Il existe également un avantage majeur : nombre de ces modèles surpassent déjà ceux d’OpenAI en termes de performances. [of] rapport qualité-prix et rapidité.

Une note interne divulguée par Google plus tôt cette année semblait exprimer la crainte que, malgré les énormes progrès réalisés par les modèles LLM propriétaires comme OpenAI, l’IA open source ne finisse par les surpasser tous. « Nous n’avons pas de fossé, et OpenAI non plus », note le document.

Le mémo en question faisait référence à un modèle de langage de base initialement divulgué par Meta en mars, et qui a pris beaucoup d’ampleur en peu de temps. Cela a mis en évidence la puissance et l’évolutivité d’une approche plus ouverte du développement de l’IA : elle permet la collaboration et l’expérimentation à un niveau qui n’est pas si facile à reproduire avec des modèles fermés.

Il convient de noter ici que malgré les affirmations de Meta, sa famille de LLM de marque Llama n’est pas aussi « open source » qu’elle voudrait que les gens le croient. Oui, ils sont disponibles à la fois pour des cas d’utilisation de recherche et commerciaux, mais il interdit aux développeurs d’utiliser Llama pour former d’autres modèles, tandis que les développeurs d’applications comptant plus de 700 millions d’utilisateurs mensuels doivent demander une licence spéciale à Meta qu’il peut accorder en fonction de son  » seule discrétion »- en gros, n’importe qui, à l’exception des frères Big Tech de Meta, peut utiliser Llama. sans autorisation.

Bien sûr, Meta n’est pas la seule entreprise à afficher son approche « ouverte » du développement de l’IA – notamment Hugging Face, Mistral AI et 01.AI, qui ont toutes levé des sommes importantes à des valorisations élevées avec des objectifs similaires en tête. Mais en tant que géant de 900 milliards de dollars avec une longue histoire de courtisation des développeurs par le biais d’efforts open source, Meta est peut-être le mieux placé pour capitaliser sur le désordre qu’OpenAI s’est créé. Sa décision de privilégier « l’ouverture » plutôt que la « fermeture » semble être bien justifiée à l’heure actuelle, et peu importe que Llama soit ou non. vraiment open source, il est probablement « suffisamment ouvert » pour la plupart des gens.

Il est encore trop tôt pour affirmer avec certitude quel impact les retombées d’OpenAI auront sur le développement et l’adoption du LLM à l’avenir. Altman et Brockman sont sans aucun doute des mains stables pour une startup commerciale d’IA, et ils pourraient même revenir pour gérer OpenAI. Mais certains diront peut-être qu’il est malsain que l’attention se porte autant sur une poignée de personnes – et il est révélateur que leur départ ait provoqué un tel chaos à grande échelle.

Source-146