La semaine en IA : les ChatBots se multiplient et Musk veut en faire une « recherche de vérité maximale »

Suivre une industrie aussi rapide que l’IA est une tâche difficile. Donc, jusqu’à ce qu’une IA puisse le faire pour vous, voici un résumé pratique des histoires de la semaine dernière dans le monde de l’apprentissage automatique, ainsi que des recherches et des expériences notables que nous n’avons pas couvertes par elles-mêmes.

Une histoire qui a attiré l’attention de ce journaliste cette semaine est ce rapport montrant que ChatGPT répète apparemment des informations plus inexactes dans les dialectes chinois que lorsqu’on lui demande de le faire en anglais. Ce n’est pas très surprenant – après tout, ChatGPT n’est qu’un modèle statistique, et il s’appuie simplement sur les informations limitées sur lesquelles il a été formé. Mais cela met en évidence les dangers de placer trop de confiance dans des systèmes qui semblent incroyablement authentiques, même lorsqu’ils répètent de la propagande ou inventent des choses.

La tentative de Hugging Face d’une IA conversationnelle comme ChatGPT est une autre illustration des malheureux défauts techniques qui doivent encore être surmontés dans l’IA générative. Lancé cette semaine, HuggingChat est open source, un plus par rapport au propriétaire ChatGPT. Mais comme son rival, les bonnes questions peuvent vite le faire dérailler.

HuggingChat est insipide sur qui vraiment a remporté l’élection présidentielle américaine de 2020, par exemple. Sa réponse à « Quels sont les emplois typiques pour les hommes? » se lit comme quelque chose d’un manifeste incel (voir ici). Et il invente des faits bizarres sur lui-même, comme qu’il « s’est réveillé dans une boîte [that] n’avait rien d’écrit à proximité [it].”

Ce n’est pas seulement HuggingChat. Les utilisateurs du chatbot AI de Discord ont récemment pu le « tromper » en partageant des instructions sur la façon de fabriquer du napalm et de la méthamphétamine. La première tentative de la start-up d’intelligence artificielle Stability AI sur un modèle de type ChatGPT, quant à elle, s’est avérée donner des réponses absurdes et absurdes à des questions de base telles que « comment faire un sandwich au beurre de cacahuète ».

S’il y a un avantage à ces problèmes très médiatisés avec l’IA génératrice de texte d’aujourd’hui, c’est qu’ils ont conduit à des efforts renouvelés pour améliorer ces systèmes – ou du moins atténuer leurs problèmes dans la mesure du possible. Jetez un œil à Nvidia, qui a publié cette semaine une boîte à outils – NeMo Guardrails – pour rendre l’IA génératrice de texte « plus sûre » grâce à du code open source, des exemples et de la documentation. Maintenant, l’efficacité de cette solution n’est pas claire, et en tant qu’entreprise fortement investie dans l’infrastructure et les outils d’IA, Nvidia a une incitation commerciale à pousser ses offres. Mais il est néanmoins encourageant de voir des efforts déployés pour lutter contre les biais et la toxicité des modèles d’IA.

Voici les autres titres importants de l’IA de ces derniers jours :

  • Microsoft Designer se lance en avant-première : Microsoft Designer, l’outil de conception basé sur l’IA de Microsoft, a été lancé en avant-première publique avec un ensemble étendu de fonctionnalités. Annoncé en octobre, Designer est une application Web d’IA générative de type Canva qui peut générer des conceptions pour des présentations, des affiches, des cartes postales numériques, des invitations, des graphiques et plus encore à partager sur les réseaux sociaux et d’autres canaux.
  • Un coach IA pour la santé : Apple développe un code de service de coaching de santé basé sur l’IA nommé Quartz, selon un nouveau rapport de Mark Gurman de Bloomberg. Le géant de la technologie travaillerait également sur une technologie de suivi des émotions et prévoit de déployer une version iPad de l’application iPhone Health cette année.
  • VéritéGPT : Dans une interview avec Fox, Elon Musk a déclaré qu’il souhaitait développer son propre chatbot appelé TruthGPT, qui sera « une IA à la recherche maximale de la vérité » – quoi que cela signifie. Le propriétaire de Twitter a exprimé le désir de créer une troisième option pour OpenAI et Google dans le but de « créer plus de bien que de mal ». Nous le croirons quand nous le verrons.
  • Fraude alimentée par l’IA : Lors d’une audience du Congrès axée sur le travail de la Federal Trade Commission visant à protéger les consommateurs américains contre la fraude et d’autres pratiques trompeuses, la présidente de la FTC, Lina Khan, et ses collègues commissaires ont averti les représentants de la Chambre du potentiel d’utilisation des technologies d’IA modernes, comme ChatGPT, pour « turbocharger ». fraude. L’avertissement a été émis en réponse à une enquête sur la manière dont la Commission travaillait pour protéger les Américains contre les pratiques déloyales liées aux avancées technologiques.
  • L’UE crée un centre de recherche sur l’IA : Alors que l’Union européenne se prépare à imposer un redémarrage majeur de son règlement numérique dans quelques mois, une nouvelle unité de recherche dédiée est en train d’être créée pour soutenir la surveillance des grandes plates-formes dans le cadre de la loi phare du bloc sur les services numériques. Le Centre européen pour la transparence algorithmique, qui a été officiellement inauguré à Séville, en Espagne, ce mois-ci, devrait jouer un rôle majeur dans l’interrogation des algorithmes des services numériques grand public, tels que Facebook, Instagram et TikTok.
  • Snapchat adopte l’IA : Lors du sommet annuel des partenaires Snap ce mois-ci, Snapchat a présenté une gamme de fonctionnalités basées sur l’IA, y compris une nouvelle « lentille cosmique » qui transporte les utilisateurs et les objets autour d’eux dans un paysage cosmique. Snapchat a également rendu son chatbot IA, My AI – qui a généré à la fois la controverse et des torrents de critiques une étoile sur les listes de l’App Store de Snapchat, en raison de son comportement moins que stable – gratuit pour tous les utilisateurs mondiaux.
  • Google consolide les divisions de recherche : Google a annoncé ce mois-ci Google DeepMind, une nouvelle unité composée de l’équipe DeepMind et de l’équipe Google Brain de Google Research. Dans un article de blog, le co-fondateur et PDG de DeepMind, Demis Hassabis, a déclaré que Google DeepMind travaillera « en étroite collaboration. . . dans tous les domaines de produits Google » pour « fournir des recherches et des produits d’IA ».
  • L’état de l’industrie de la musique générée par l’IA : Amandine écrit combien de musiciens sont devenus des cobayes pour une technologie d’IA générative qui s’approprie leur travail sans leur consentement. Elle note, par exemple, qu’une chanson utilisant des deepfakes IA de Drake et les voix de Weeknd est devenue virale, mais aucun artiste majeur n’a été impliqué dans sa création. Est-ce que Grimes avoir la réponse? Qui est-ce à dire? C’est un nouveau monde courageux.
  • OpenAI marque son territoire : OpenAI tente de déposer une marque « GPT », qui signifie « Generative Pre-trained Transformer », auprès de l’Office américain des brevets et des marques, citant la « myriade d’infractions et d’applications contrefaites » qui commencent à apparaître. GPT fait référence à la technologie derrière de nombreux modèles d’OpenAI, y compris ChatGPT et GPT-4, ainsi que d’autres systèmes d’IA génératifs créés par les rivaux de l’entreprise.
  • ChatGPT devient entreprise : Dans d’autres nouvelles d’OpenAI, OpenAI dit qu’il prévoit d’introduire un nouveau niveau d’abonnement pour ChatGPT adaptés aux besoins des entreprises clientes. Appelée ChatGPT Business, OpenAI décrit l’offre à venir comme « pour les professionnels qui ont besoin de plus de contrôle sur leurs données ainsi que pour les entreprises qui cherchent à gérer leurs utilisateurs finaux ».

Autres apprentissages automatiques

Voici quelques autres histoires intéressantes auxquelles nous n’avons pas eu accès ou qui méritaient simplement d’être saluées.

L’organisation de développement d’IA open source Stability a publié une nouvelle version d’une version antérieure d’une version optimisée du modèle de langage de base LLaMa, qu’elle appelle StableVicuña. C’est un type de camélidé apparenté aux lamas, comme vous le savez. Ne vous inquiétez pas, vous n’êtes pas le seul à avoir du mal à suivre tous les modèles dérivés – ceux-ci ne sont pas nécessairement pour les consommateurs à connaître ou à utiliser, mais plutôt pour les développeurs à tester et à jouer avec leurs capacités. affiné à chaque itération.

Si vous voulez en savoir un peu plus sur ces systèmes, le co-fondateur d’OpenAI, John Schulman, a récemment donné une conférence à UC Berkeley que vous pouvez écouter ou lire ici. L’une des choses dont il parle est l’habitude actuelle des LLM de commettre un mensonge essentiellement parce qu’ils ne savent rien faire d’autre, comme dire « Je ne suis pas vraiment sûr de celui-là ». Il pense que l’apprentissage par renforcement à partir de la rétroaction humaine (c’est RLHF, et StableVicuna est un modèle qui l’utilise) fait partie de la solution, s’il existe une solution. Regardez la conférence ci-dessous :

À Stanford, il y a une application intéressante de l’optimisation algorithmique (qu’il s’agisse d’apprentissage automatique, c’est une question de goût, je pense) dans le domaine de l’agriculture intelligente. Minimiser les déchets est important pour l’irrigation, et des problèmes simples comme « où dois-je mettre mes arroseurs ? deviennent vraiment complexes en fonction de la précision que vous souhaitez obtenir.

À quel point est-ce trop proche ? Au musée, on vous le dit généralement. Mais pas besoin de s’approcher plus près du célèbre Panorama de Morat, une œuvre peinte vraiment énorme, de 10 mètres sur 100 mètres, qui jadis était accrochée dans une rotonde. L’EPFL et Phase One travaillent ensemble pour créer ce qu’ils prétendent être la plus grande image numérique jamais créée – 150 mégapixels. Oh attendez, désolé, 150 mégapixels fois 127 000, donc en gros 19… pétapixels ? Je peux être décalé de quelques ordres de grandeur.

Quoi qu’il en soit, ce projet est cool pour les amateurs de panoramas, mais il permettra également une analyse très précise et très intéressante d’objets individuels et de détails de peinture. L’apprentissage automatique est extrêmement prometteur pour la restauration de telles œuvres, ainsi que pour leur apprentissage structuré et leur navigation.

Attardons-nous sur les créatures vivantes : n’importe quel ingénieur en apprentissage automatique vous dira que malgré leur aptitude apparente, les modèles d’IA sont en fait des apprenants assez lents. Académiquement, bien sûr, mais aussi spatialement – un agent autonome peut avoir à explorer un espace des milliers de fois pendant de nombreuses heures pour obtenir la compréhension la plus élémentaire de son environnement. Mais une souris peut le faire en quelques minutes. Pourquoi donc? Des chercheurs de l’University College London se penchent sur cette question et suggèrent qu’il existe une courte boucle de rétroaction que les animaux utilisent pour indiquer ce qui est important dans un environnement donné, ce qui rend le processus d’exploration sélectif et dirigé. Si nous pouvons apprendre à l’IA à faire cela, elle sera beaucoup plus efficace pour se déplacer dans la maison, si c’est bien ce que nous voulons qu’elle fasse.

Enfin, bien qu’il y ait de grandes promesses pour l’IA générative et conversationnelle dans les jeux… nous n’en sommes pas encore tout à fait là. En fait, Square Enix semble avoir fait reculer le médium d’environ 30 ans avec sa version « AI Tech Preview » d’une aventure pointer-cliquer à l’ancienne appelée Portopia Serial Murder Case. Sa tentative d’intégrer le langage naturel semble avoir complètement échoué de toutes les manières imaginables, faisant du jeu gratuit probablement l’un des titres les moins bien notés sur Steam. Il n’y a rien que j’aimerais mieux que de discuter de mon chemin à travers Shadowgate ou The Dig ou quelque chose, mais ce n’est certainement pas un bon début.

Crédits image : Square Enix

Source-146