Suivre le rythme d’un secteur aussi en évolution rapide que l’IA est un défi de taille. En attendant qu’une IA puisse le faire à votre place, voici un tour d’horizon pratique des histoires récentes dans le monde de l’apprentissage automatique, ainsi que des recherches et des expériences notables que nous n’avons pas couvertes seules.
La semaine dernière, Midjourney, la start-up d’IA qui crée des générateurs d’images (et bientôt de vidéos), a apporté une petite modification, en un clin d’œil et vous le manquerez, à ses conditions de service liées à la politique de l’entreprise en matière de litiges en matière de propriété intellectuelle. Il s’agissait principalement de remplacer le langage farfelu par des clauses plus juridiques, sans doute fondées sur la jurisprudence. Mais ce changement peut également être considéré comme le signe de la conviction de Midjourney que les fournisseurs d’IA comme lui sortiront victorieux des batailles judiciaires avec les créateurs dont les œuvres comprennent les données de formation des fournisseurs.
Les modèles d’IA générative comme celui de Midjourney sont formés sur un très grand nombre d’exemples, par exemple des images et du texte, généralement provenant de sites Web publics et de référentiels sur le Web. Les vendeurs affirment que l’usage équitable, la doctrine juridique qui autorise l’utilisation d’œuvres protégées par le droit d’auteur pour en faire une création secondaire à condition qu’elle soit transformatrice, les protège lorsqu’il s’agit de formation de modèles. Mais tous les créateurs ne sont pas d’accord – en particulier à la lumière d’un nombre croissant d’études montrant que les modèles peuvent – et le font – « régurgiter » les données d’entraînement.
Certains fournisseurs ont adopté une approche proactive, en concluant des accords de licence avec des créateurs de contenu et en établissant des programmes de « désinscription » pour les ensembles de données de formation. D’autres ont promis que, si les clients sont impliqués dans une action en justice pour droits d’auteur découlant de leur utilisation des outils GenAI d’un fournisseur, ils n’auront pas à payer de frais juridiques.
Midjourney ne fait pas partie des proactifs.
Au contraire, Midjourney a été quelque peu effronté dans son utilisation d’œuvres protégées par le droit d’auteur, en maintenant à un moment donné une liste de milliers d’artistes – y compris des illustrateurs et des designers de grandes marques comme Hasbro et Nintendo – dont les œuvres étaient, ou seraient, utilisées pour former des artistes. Les modèles de Midjourney. Une étude montre des preuves convaincantes que Midjourney a également utilisé des émissions de télévision et des franchises cinématographiques dans ses données de formation, de « Toy Story » à Star Wars », en passant par « Dune » et « Avengers ».
Maintenant, il existe un scénario dans lequel les décisions du tribunal finissent par aller dans le sens de Midjourney. Si le système judiciaire décide que l’utilisation équitable s’applique, rien n’empêchera la startup de continuer comme elle l’a été, en grattant et en s’entraînant sur des données protégées par le droit d’auteur, anciennes et nouvelles.
Mais cela semble être un pari risqué.
Midjourney bat son plein en ce moment, ayant apparemment atteint environ 200 millions de dollars de revenus sans un centime d’investissement extérieur. Mais les avocats coûtent cher. Et s’il était décidé que l’utilisation équitable ne s’applique pas dans le cas de Midjourney, cela décimerait l’entreprise du jour au lendemain.
Pas de récompense sans risque, hein ?
Voici quelques autres histoires intéressantes sur l’IA de ces derniers jours :
La publicité assistée par l’IA attire le mauvais type d’attention: Les créateurs sur Instagram s’en sont pris à un réalisateur dont la publicité réutilisait sans crédit le travail d’un autre (beaucoup plus difficile et impressionnant).
Les autorités européennes mettent en garde les plateformes d’IA avant les élections: Ils demandent aux plus grandes entreprises technologiques d’expliquer leur approche pour prévenir les manigances électorales.
Google Deepmind veut que votre partenaire de jeu coopératif soit son IA: Former un agent sur de nombreuses heures de jeu en 3D l’a rendu capable d’effectuer des tâches simples formulées en langage naturel.
Le problème des benchmarks : De très nombreux fournisseurs d’IA affirment que leurs modèles ont égalé ou battu la concurrence selon une mesure objective. Mais les mesures qu’ils utilisent sont souvent erronées.
AI2 remporte 200 millions de dollars : AI2 Incubator, issu de l’Allen Institute for AI à but non lucratif, a obtenu une manne exceptionnelle de 200 millions de dollars en calcul dont les startups participant à son programme peuvent profiter pour accélérer le développement précoce.
L’Inde exige, puis revient en arrière, l’approbation du gouvernement pour l’IA : Le gouvernement indien n’arrive pas à décider quel niveau de réglementation est approprié pour l’industrie de l’IA.
Anthropic lance de nouveaux modèles : La startup d’IA Anthropic a lancé une nouvelle famille de modèles, Claude 3, qui, selon elle, rivalise avec le GPT-4 d’OpenAI. Nous avons testé le modèle phare (Claude 3 Opus) et l’avons trouvé impressionnant – mais aussi manquant dans des domaines comme l’actualité.
Deepfakes politiques : Une étude du Center for Countering Digital Hate (CCDH), une organisation britannique à but non lucratif, examine le volume croissant de désinformation générée par l’IA – en particulier les images deepfakes relatives aux élections – sur X (anciennement Twitter) au cours de l’année écoulée.
OpenAI contre Musk : OpenAI déclare qu’elle a l’intention de rejeter toutes les allégations formulées par le PDG de X, Elon Musk, dans un récent procès, et suggère que l’entrepreneur milliardaire – qui a été impliqué dans la co-fondation de l’entreprise – n’a pas vraiment eu beaucoup d’impact sur le développement d’OpenAI. et le succès.
Examen de Rufus : Le mois dernier, Amazon a annoncé le lancement d’un nouveau chatbot basé sur l’IA, Rufus, dans l’application Amazon Shopping pour Android et iOS. Nous avons obtenu un accès anticipé – et avons été rapidement déçus par le manque de choses que Rufus peut faire (et bien faire).
Plus d’apprentissages automatiques
Molécules! Comment travaillent-ils? Les modèles d’IA ont été utiles dans notre compréhension et notre prédiction de la dynamique moléculaire, de la conformation et d’autres aspects du monde nanoscopique qui, autrement, nécessiteraient des méthodes coûteuses et complexes à tester. Bien sûr, vous devez encore vérifier, mais des choses comme AlphaFold changent rapidement le domaine.
Microsoft propose un nouveau modèle appelé ViSNet, visant à prédire ce que l’on appelle les relations structure-activité, des relations complexes entre les molécules et l’activité biologique. C’est encore assez expérimental et certainement réservé aux chercheurs, mais c’est toujours formidable de voir des problèmes scientifiques difficiles résolus par des moyens technologiques de pointe.
Les chercheurs de l’Université de Manchester cherchent spécifiquement à identifier et à prédire les variantes du COVID-19, moins à partir d’une structure pure comme ViSNet et davantage par l’analyse des très vastes ensembles de données génétiques relatives à l’évolution du coronavirus.
« La quantité sans précédent de données génétiques générées pendant la pandémie exige des améliorations de nos méthodes pour les analyser en profondeur », a déclaré le chercheur principal Thomas House. Son collègue Roberto Cahuantzi a ajouté : « Notre analyse sert de preuve de concept, démontrant l’utilisation potentielle des méthodes d’apprentissage automatique comme outil d’alerte pour la découverte précoce de variantes majeures émergentes. »
L’IA peut également concevoir des molécules, et plusieurs chercheurs ont signé une initiative appelant à la sécurité et à l’éthique dans ce domaine. Cependant, comme le note David Baker (l’un des plus grands biophysiciens computationnels au monde), « les avantages potentiels de la conception de protéines dépassent de loin les dangers à ce stade. » Eh bien, en tant que concepteur de concepteurs de protéines IA, il serait dis ça. Mais il faut tout de même se méfier d’une réglementation qui passe à côté de l’essentiel et entrave la recherche légitime tout en laissant la liberté aux mauvais acteurs.
Des scientifiques de l’atmosphère de l’Université de Washington ont fait une affirmation intéressante basée sur l’analyse par l’IA de 25 ans d’images satellite du Turkménistan. Essentiellement, l’idée reçue selon laquelle la crise économique qui a suivi la chute de l’Union soviétique a entraîné une réduction des émissions n’est peut-être pas vraie – en fait, le contraire pourrait s’être produit.
« Nous constatons que l’effondrement de l’Union soviétique semble entraîner, de manière surprenante, une augmentation des émissions de méthane », a déclaré Alex Turner, professeur à l’UW. Les grands ensembles de données et le manque de temps pour les parcourir ont fait de ce sujet une cible naturelle pour l’IA, ce qui a entraîné ce renversement inattendu.
Les grands modèles linguistiques sont en grande partie formés sur des données sources anglaises, mais cela peut affecter plus que leur facilité à utiliser d’autres langues. Des chercheurs de l’EPFL ont étudié le « langage latent » de LlaMa-2 et ont découvert que le modèle semble revenir à l’anglais en interne, même lors de la traduction entre le français et le chinois. Les chercheurs suggèrent cependant qu’il s’agit là de plus qu’un processus de traduction paresseux : en fait, le modèle a structuré tout son espace conceptuel latent autour de notions et de représentations anglaises. Est-ce que ça importe? Probablement. Nous devrions de toute façon diversifier leurs ensembles de données.