Suivre une industrie aussi rapide que l’IA est une tâche difficile. Donc, jusqu’à ce qu’une IA puisse le faire pour vous, voici un tour d’horizon pratique des histoires récentes dans le monde de l’apprentissage automatique, ainsi que des recherches et des expériences notables que nous n’avons pas couvertes par elles-mêmes.
Cette semaine dans l’IA, nous avons vu OpenAI, Anthropic, Google, Inflection, Microsoft, Meta et Amazon s’engager volontairement à poursuivre des objectifs communs de sécurité et de transparence de l’IA avant un décret exécutif prévu par l’administration Biden.
Comme l’écrit mon collègue Devin Coldewey, il n’y a pas de règle ou d’application proposée, ici – les pratiques convenues sont purement volontaires. Mais les promesses indiquent, dans les grandes lignes, les approches et politiques réglementaires en matière d’IA que chaque fournisseur pourrait trouver modifiables aux États-Unis comme à l’étranger.
Entre autres engagements, les entreprises se sont portées volontaires pour effectuer des tests de sécurité des systèmes d’IA avant leur sortie, partager des informations sur les techniques d’atténuation de l’IA et développer des techniques de filigrane qui facilitent l’identification du contenu généré par l’IA. Ils ont également déclaré qu’ils investiraient dans la cybersécurité pour protéger les données privées de l’IA et faciliter le signalement des vulnérabilités, ainsi que pour donner la priorité à la recherche sur les risques sociétaux tels que les préjugés systémiques et les problèmes de confidentialité.
Les engagements sont une étape importante, bien sûr, même s’ils ne sont pas exécutoires. Mais on se demande s’il y a des arrière-pensées de la part des soussignés.
Apparemment, OpenAI a rédigé une note de politique interne qui montre que l’entreprise soutient l’idée d’exiger des licences gouvernementales de quiconque souhaite développer des systèmes d’IA. Le PDG Sam Altman a soulevé l’idée pour la première fois lors d’une audience du Sénat américain en mai, au cours de laquelle il a soutenu la création d’une agence qui pourrait délivrer des licences pour les produits d’IA – et les révoquer si quelqu’un enfreignait les règles établies.
Dans une récente interview avec la presse, Anna Makanju, vice-présidente des affaires mondiales d’OpenAI, a insisté sur le fait qu’OpenAI ne « poussait » pas pour les licences et que la société ne prend en charge que les régimes de licence pour les modèles d’IA plus puissants que le GPT-4 actuel d’OpenAI. Mais les licences émises par le gouvernement, si elles sont mises en œuvre de la manière proposée par OpenAI, préparent le terrain pour un affrontement potentiel avec les startups et les développeurs open source qui peuvent les voir comme une tentative de rendre plus difficile pour les autres de pénétrer dans l’espace.
Devin l’a dit le mieux, je pense, quand il me l’a décrit comme « lâcher des clous sur la route derrière eux lors d’une course ». À tout le moins, cela illustre la nature à deux visages des entreprises d’IA qui cherchent à apaiser les régulateurs tout en façonnant la politique en leur faveur (dans ce cas, désavantageant les petits challengers) dans les coulisses.
C’est une situation inquiétante. Mais, si les décideurs interviennent, il y a encore de l’espoir pour des garanties suffisantes sans ingérence indue du secteur privé.
Voici d’autres histoires d’intelligence artificielle de ces derniers jours :
- Le responsable de la confiance et de la sécurité d’OpenAI démissionne : Dave Willner, un vétéran de l’industrie qui était responsable de la confiance et de la sécurité chez OpenAI, a annoncé dans un message sur LinkedIn qu’il avait quitté son emploi et qu’il était passé à un rôle de conseiller. OpenAI a déclaré dans un communiqué qu’il cherchait un remplaçant et que le CTO Mira Murati dirigerait l’équipe par intérim.
- Instructions personnalisées pour ChatGPT : Dans d’autres nouvelles d’OpenAI, la société a lancé des instructions personnalisées pour les utilisateurs de ChatGPT afin qu’ils n’aient pas à écrire les mêmes invites d’instructions au chatbot à chaque fois qu’ils interagissent avec lui.
- IA Google pour la rédaction d’actualités : Google teste un outil qui utilise l’IA pour écrire des articles d’actualité et a commencé à en faire la démonstration dans des publications, selon un nouveau rapport du New York Times. Le géant de la technologie a présenté le système d’IA au New York Times, au Washington Post et au propriétaire du Wall Street Journal, News Corp.
- Apple teste un chatbot de type ChatGPT : Apple développe l’IA pour défier OpenAI, Google et d’autres, selon un nouveau rapport de Mark Gurman de Bloomberg. Plus précisément, le géant de la technologie a créé un chatbot que certains ingénieurs appellent en interne « Apple GPT ».
- Meta sort Lama 2 : Meta a dévoilé une nouvelle famille de modèles d’IA, Llama 2, conçue pour piloter des applications sur le modèle de ChatGPT d’OpenAI, Bing Chat et d’autres chatbots modernes. Formé sur un mélange de données accessibles au public, Meta affirme que les performances de Llama 2 se sont considérablement améliorées par rapport à la génération précédente de modèles Llama.
- Les auteurs protestent contre l’IA générative : Les systèmes d’IA générative comme ChatGPT sont formés sur des données accessibles au public, y compris des livres – et tous les créateurs de contenu ne sont pas satisfaits de l’arrangement. Dans une lettre ouverte signée par plus de 8 500 auteurs de fiction, de non-fiction et de poésie, les entreprises technologiques à l’origine de grands modèles linguistiques comme ChatGPT, Bard, LLaMa et bien d’autres sont réprimandées pour avoir utilisé leur écriture sans autorisation ni compensation.
- Microsoft apporte Bing Chat à l’entreprise : Lors de sa conférence annuelle Inspire, Microsoft a annoncé Bing Chat Enterprise, une version de son chatbot alimenté par Bing Chat AI avec des contrôles de confidentialité et de gouvernance des données axés sur l’entreprise. Avec Bing Chat Enterprise, les données de chat ne sont pas enregistrées, Microsoft ne peut pas afficher les données d’employé ou d’entreprise d’un client et les données client ne sont pas utilisées pour former les modèles d’IA sous-jacents.
Plus d’apprentissages automatiques
Techniquement, c’était aussi une nouvelle, mais il convient de le mentionner ici dans la section recherche. Fable Studios, qui réalisait auparavant des courts métrages CG et 3D pour la réalité virtuelle et d’autres médias, a présenté un modèle d’IA qu’il appelle Showrunner qui (selon lui) peut écrire, diriger, jouer et éditer une émission de télévision entière – dans leur démo, c’était South Park.
Je suis partagé sur ce point. D’une part, je pense que poursuivre cela, sans parler d’une énorme grève hollywoodienne impliquant des problèmes de rémunération et d’IA, est de plutôt mauvais goût. Bien que le PDG Edward Saatchi ait déclaré qu’il croyait que l’outil met le pouvoir entre les mains des créateurs, le contraire est également discutable. En tout cas, il n’a pas été particulièrement bien accueilli par les gens de l’industrie.
D’un autre côté, si quelqu’un du côté créatif (ce qu’est Saatchi) n’explore pas et ne démontre pas ces capacités, alors elles seront explorées et démontrées par d’autres avec moins de scrupules à les utiliser. Même si les affirmations de Fable sont un peu larges pour ce qu’elles ont réellement montré (ce qui a de sérieuses limites), c’est comme le DALL-E original en ce sens qu’il a suscité des discussions et même des inquiétudes même s’il ne remplaçait pas un véritable artiste. L’IA va avoir une place dans la production médiatique d’une manière ou d’une autre, mais pour un tas de raisons, elle doit être abordée avec prudence.
Sur le plan politique, il y a peu de temps, nous avions adopté la loi sur l’autorisation de la défense nationale avec (comme d’habitude) des amendements de politique vraiment ridicules qui n’ont rien à voir avec la défense. Mais parmi eux, il y avait un ajout que le gouvernement doit organiser un événement où les chercheurs et les entreprises peuvent faire de leur mieux pour détecter le contenu généré par l’IA. Ce genre de chose approche définitivement des niveaux de « crise nationale », donc c’est probablement bien que cela se soit glissé là-dedans.
Chez Disney Research, ils essaient toujours de trouver un moyen de relier le numérique et le réel – à des fins de parc, vraisemblablement. Dans ce cas, ils ont développé un moyen de cartographier les mouvements virtuels d’un personnage ou d’une capture de mouvement (par exemple pour un chien CG dans un film) sur un robot réel, même si ce robot a une forme ou une taille différente. Il s’appuie sur deux systèmes d’optimisation informant chacun l’autre de ce qui est idéal et de ce qui est possible, un peu comme un petit moi et un surmoi. Cela devrait rendre beaucoup plus facile de faire en sorte que les chiens robots agissent comme des chiens ordinaires, mais bien sûr, cela peut également être généralisé à d’autres choses.
Et nous espérons que l’IA pourra nous aider à éloigner le monde de l’exploitation minière des minéraux au fond de la mer, car c’est définitivement une mauvaise idée. Une étude multi-institutionnelle a mis la capacité de l’IA à filtrer le signal du bruit pour prédire l’emplacement des minéraux précieux dans le monde. Comme ils l’écrivent dans le résumé :
Dans ce travail, nous embrassons la complexité et le «désordre» inhérent aux systèmes géologiques, chimiques et biologiques entrelacés de notre planète en utilisant l’apprentissage automatique pour caractériser les modèles intégrés dans la multidimensionnalité de l’occurrence et des associations minérales.
L’étude a en fait prédit et vérifié les emplacements de l’uranium, du lithium et d’autres minéraux précieux. Et que diriez-vous de ceci pour une dernière ligne: le système « améliorera notre compréhension de la minéralisation et des environnements de minéralisation sur Terre, à travers notre système solaire et à travers le temps profond. » Génial.