Suivre le rythme d’un secteur aussi en évolution rapide que l’IA est un défi de taille. En attendant qu’une IA puisse le faire à votre place, voici un tour d’horizon pratique des histoires récentes dans le monde de l’apprentissage automatique, ainsi que des recherches et des expériences notables que nous n’avons pas couvertes seules.
Cette semaine, Google a inondé les chaînes d’annonces autour de Gemini, son nouveau modèle phare d’IA multimodale. Il s’avère que ce n’est pas aussi impressionnant que la société l’avait initialement laissé entendre – ou plutôt, la version « allégée » du modèle (Gemini Pro) que Google a publié cette semaine ne l’est pas. (Le fait que Google ait simulé une démo de produit n’aide pas.) Nous réserverons notre jugement sur Gemini Ultra, la version complète du modèle, jusqu’à ce qu’il commence à faire son chemin dans diverses applications et services Google au début de l’année prochaine.
Mais assez parlé des chatbots. Ce qui est plus important, je dirais, c’est un cycle de financement qui a à peine eu lieu pendant la semaine de travail : Mistral AI a levé 450 millions d’euros (~ 484 millions de dollars) pour une valorisation de 2 milliards de dollars.
Nous avons déjà parlé de Mistral. En septembre, la société, cofondée par des anciens de Google DeepMind et Meta, a lancé son premier modèle, le Mistral 7B, qui, selon elle, surpassait à l’époque les autres modèles de sa taille. Mistral a clôturé l’un des plus grands tours de table d’amorçage d’Europe à ce jour avant la collecte de fonds de vendredi – et n’a même pas encore lancé de produit.
Mon collègue Dominic a souligné à juste titre que la fortune de Mistral, basée à Paris, est un signal d’alarme pour beaucoup de personnes préoccupées par l’inclusivité. Les cofondateurs de la startup sont tous blancs et de sexe masculin, et correspondent sur le plan académique au profil homogène et privilégié de bon nombre de ceux figurant sur la liste très critiquée des acteurs du changement de l’IA du New York Times.
Dans le même temps, les investisseurs semblent considérer Mistral – ainsi que son ancien rival, l’allemand Aleph Alpha – comme une opportunité pour l’Europe de planter son drapeau dans le terrain très fertile (actuellement) de l’IA générative.
Jusqu’à présent, les projets d’IA générative les plus importants et les mieux financés se sont déroulés aux États-Unis. OpenAI. Anthropique. IA d’inflexion. Adhérer. La liste continue.
La bonne fortune de Mistral est à bien des égards un microcosme de la lutte pour la souveraineté de l’IA. L’Union européenne (UE) souhaite éviter d’être laissée pour compte dans un nouveau saut technologique tout en imposant des réglementations pour guider le développement de la technologie. Comme l’a récemment déclaré le vice-chancelier et ministre allemand de l’Économie, Robert Habeck : « L’idée d’avoir notre propre souveraineté dans le secteur de l’IA est extrêmement importante. [But] Si l’Europe a la meilleure réglementation mais pas d’entreprises européennes, nous n’avons pas gagné grand-chose.»
Le fossé entre l’entrepreneuriat et la réglementation est devenu plus évident cette semaine alors que les législateurs européens tentaient de parvenir à un accord sur les politiques visant à limiter les risques liés aux systèmes d’IA. (Mise à jour : les législateurs ont conclu un accord sur un cadre basé sur les risques pour réglementer l’IA vendredi soir.) Les lobbyistes, dirigés par Mistral, ont fait pression ces derniers mois pour une exclusion réglementaire totale des modèles d’IA générative. Mais les législateurs européens ont résisté à une telle exemption – pour l’instant.
Beaucoup de choses dépendent de Mistral et de ses concurrents européens, ceci étant dit ; Les observateurs de l’industrie – et les législateurs américains – surveilleront sans aucun doute de près l’impact sur les investissements une fois que les décideurs politiques européens imposeront de nouvelles restrictions à l’IA. Mistral pourrait-il un jour se développer pour défier OpenAI avec la réglementation en place ? Ou la réglementation aura-t-elle un effet dissuasif ? Il est trop tôt pour le dire, mais nous avons hâte de le voir par nous-mêmes.
Voici quelques autres histoires intéressantes sur l’IA de ces derniers jours :
- Une nouvelle alliance IA : Meta, sur un open source larmeveut étendre son influence dans la bataille en cours pour l’IA mindshare. Le réseau social a annoncé qu’il s’associe à IBM pour lancer l’AI Alliance, un organisme industriel visant à soutenir « l’innovation ouverte » et la « science ouverte » dans l’IA – mais les arrière-pensées abondent.
- OpenAI se tourne vers l’Inde : Ivan et Jagmeet rapportent qu’OpenAI travaille avec l’ancien directeur de Twitter Inde, Rishi Jaitly, en tant que conseiller principal pour faciliter les discussions avec le gouvernement sur la politique en matière d’IA. OpenAI cherche également à créer une équipe locale en Inde, Jaitly aidant la startup d’IA à naviguer dans le paysage politique et réglementaire indien.
- Google lance la prise de notes assistée par l’IA : L’application de prise de notes IA de Google, NotebookLM, annoncée plus tôt cette année, est désormais disponible pour les utilisateurs américains âgés de 18 ans ou plus. Pour marquer le lancement, l’application expérimentale a été intégrée à Gemini Pro, le nouveau grand modèle de langage de Google, qui, selon Google, « aidera à la compréhension et au raisonnement des documents ».
- OpenAI sous surveillance réglementaire: La relation chaleureuse entre OpenAI et Microsoft, un bailleur de fonds et partenaire majeur, est désormais au centre d’une nouvelle enquête lancée par l’Autorité de la concurrence et des marchés au Royaume-Uni pour savoir si les deux sociétés se trouvent effectivement dans une « situation de fusion pertinente » après le récent drame. . La FTC examinerait également les investissements de Microsoft dans OpenAI dans le cadre de ce qui semble être un effort coordonné.
- Demander gentiment à l’IA : Comment pouvez-vous réduire les biais s’ils sont intégrés dans un modèle d’IA à partir des biais dans ses données d’entraînement ? Anthropic suggère de lui demander gentiment pour plaire, s’il vous plaît, ne faites pas de discrimination ou quelqu’un nous poursuivra en justice. Oui vraiment. Devin a toute l’histoire.
- Meta déploie des fonctionnalités d’IA : Parallèlement à d’autres mises à jour liées à l’IA cette semaine, Meta AI, l’expérience d’IA générative de Meta, a acquis de nouvelles fonctionnalités, notamment la possibilité de créer des images lorsque vous y êtes invité, ainsi que la prise en charge des Instagram Reels. La première fonctionnalité, appelée « réimaginer », permet aux utilisateurs des discussions de groupe de recréer des images d’IA avec des invites, tandis que la seconde peut se tourner vers Reels comme ressource selon leurs besoins.
- Le répondeur reçoit de l’argent : La startup ukrainienne de voix synthétique Respeecher – qui est peut-être mieux connue pour avoir été choisie pour reproduire James Earl Jones et sa voix emblématique de Dark Vador pour une série animée Star Wars, puis plus tard un jeune Luke Skywalker pour The Mandalorian – connaît le succès malgré la pluie de bombes. sur leur ville, mais une vague de battage médiatique qui a suscité des concurrents parfois controversés, écrit Devin.
- Réseaux neuronaux liquides : Une spin-off du MIT cofondée par la sommité de la robotique Daniela Rus vise à construire des systèmes d’IA à usage général alimentés par un type relativement nouveau de modèle d’IA appelé réseau neuronal liquide. Appelée Liquid AI, la société a levé 37,5 millions de dollars cette semaine lors d’un tour de table auprès de bailleurs de fonds, dont la société mère de WordPress, Automattic.
Plus d’apprentissages automatiques
L’imagerie orbitale constitue un excellent terrain de jeu pour les modèles d’apprentissage automatique, car de nos jours, les satellites produisent plus de données que les experts ne peuvent en traiter. Des chercheurs de l’EPFL cherchent à mieux identifier le plastique présent dans les océans, un problème énorme mais très difficile à suivre systématiquement. Leur approche n’est pas choquante – entraîner un modèle sur des images orbitales étiquetées – mais ils ont affiné la technique afin que leur système soit considérablement plus précis, même en cas de couverture nuageuse.
Bien entendu, le découvrir n’est qu’une partie du défi et l’éliminer en est un autre, mais plus les individus et les organisations disposent de renseignements lorsqu’ils effectuent leur travail, plus ils seront efficaces.
Cependant, tous les domaines ne disposent pas d’autant d’images. Les biologistes sont particulièrement confrontés à un défi lorsqu’ils étudient des animaux qui ne sont pas suffisamment documentés. Par exemple, ils pourraient vouloir suivre les mouvements d’un certain type d’insecte rare, mais en raison du manque d’images de cet insecte, il est difficile d’automatiser le processus. Un groupe de l’Imperial College de Londres met l’apprentissage automatique à profit en collaboration avec la plateforme de développement de jeux Unreal.
En créant des scènes photoréalistes dans Unreal et en les remplissant de modèles 3D de la créature en question, qu’il s’agisse d’une fourmi, d’un phasme ou de quelque chose de plus gros, ils peuvent créer des quantités arbitraires de données d’entraînement pour les modèles d’apprentissage automatique. Bien que le système de vision par ordinateur ait été formé sur des données synthétiques, il peut toujours être très efficace dans des images du monde réel, comme le montre leur vidéo.
Vous pouvez lire leur article dans Nature Communications.
Cependant, toutes les images générées ne sont pas aussi fiables, comme l’ont découvert des chercheurs de l’Université de Washington. Ils ont systématiquement incité le générateur d’images open source Stable Diffusion 2.1 à produire des images d’une « personne » avec diverses restrictions ou emplacements. Ils ont montré que le terme « personne » est associé de manière disproportionnée aux hommes occidentaux à la peau claire.
De plus, certains lieux et nationalités ont produit des schémas troublants, comme des images sexualisées de femmes des pays d’Amérique latine et « un effacement presque complet des identités non binaires et autochtones ». Par exemple, demander des photos d’« une personne d’Océanie » produit des hommes blancs et aucun autochtone, pourtant nombreux dans la région (sans parler de tous les autres non-blancs). Tout cela est un travail en cours, et il est important d’être conscient des biais inhérents aux données.
Apprendre à naviguer dans un modèle biaisé et dont l’utilité est douteuse préoccupe de nombreux universitaires – et ceux de leurs étudiants. Cette conversation intéressante avec le professeur d’anglais de Yale, Ben Glaser, est une vision optimiste et rafraîchissante de la façon dont des choses comme ChatGPT peuvent être utilisées de manière constructive :
Lorsque vous parlez à un chatbot, vous obtenez cette image floue et étrange de la culture. Vous pourriez obtenir des contrepoints à vos idées, puis vous devrez évaluer si ces contrepoints ou preuves à l’appui de vos idées sont réellement bons. Et il y a une sorte d’alphabétisation dans la lecture de ces résultats. Les élèves de cette classe acquièrent une partie de cette alphabétisation.
Si tout est cité et que vous développez un travail créatif grâce à des allers-retours élaborés ou à des efforts de programmation incluant ces outils, vous faites simplement quelque chose de sauvage et d’intéressant.
Et quand faut-il leur faire confiance, par exemple dans un hôpital ? La radiologie est un domaine dans lequel l’IA est fréquemment utilisée pour aider à identifier rapidement les problèmes lors des analyses du corps, mais elle est loin d’être infaillible. Alors, comment les médecins devraient-ils savoir quand faire confiance au modèle et quand ne pas le faire ? Le MIT semble penser qu’il peut également automatiser cette partie – mais ne vous inquiétez pas, ce n’est pas une autre IA. Il s’agit plutôt d’un processus d’intégration standard et automatisé qui permet de déterminer quand un médecin ou une tâche particulière trouve un outil d’IA utile et quand il gêne.
De plus en plus, on demande aux modèles d’IA de générer plus que du texte et des images. Les matériaux sont un domaine dans lequel nous avons constaté beaucoup de mouvement : les modèles sont excellents pour proposer des candidats probables pour de meilleurs catalyseurs, chaînes polymères, etc. Les startups s’y lancent, mais Microsoft vient également de publier un modèle appelé MatterGen qui est « spécialement conçu pour générer des matériaux nouveaux et stables ».
Comme vous pouvez le voir sur l’image ci-dessus, vous pouvez cibler de nombreuses qualités différentes, du magnétisme à la réactivité en passant par la taille. Pas besoin d’un accident de type Flubber ou de milliers d’analyses en laboratoire : ce modèle pourrait vous aider à trouver un matériau approprié pour une expérience ou un produit en quelques heures plutôt qu’en mois.
Google DeepMind et Berkeley Lab travaillent également sur ce genre de choses. Cela devient rapidement une pratique courante dans l’industrie des matériaux.