Cette semaine en IA : les poids lourds de l’IA tentent de faire pencher la balance réglementaire

Suivre une industrie aussi rapide que l’IA est une tâche difficile. Donc, jusqu’à ce qu’une IA puisse le faire pour vous, voici un résumé pratique des histoires de la semaine dernière dans le monde de l’apprentissage automatique, ainsi que des recherches et des expériences notables que nous n’avons pas couvertes par elles-mêmes.

Cette semaine, des personnalités influentes de l’industrie de l’IA, dont le PDG d’OpenAI, Sam Altman, se sont lancées dans une tournée de bonne volonté avec les décideurs politiques, plaidant en faveur de leurs visions respectives de la réglementation de l’IA. S’adressant à des journalistes à Londres, Altman a averti que la proposition de loi sur l’IA de l’UE, qui devrait être finalisée l’année prochaine, pourrait conduire OpenAI à retirer finalement ses services du bloc.

« Nous essaierons de nous conformer, mais si nous ne pouvons pas nous conformer, nous cesserons nos activités », a-t-il déclaré.

Le PDG de Google, Sundar Pichai, également à Londres, a souligné la nécessité de garde-fous « appropriés » pour l’IA qui n’étouffent pas l’innovation. Et Brad Smith de Microsoft, rencontrant des législateurs à Washington, a proposé un plan en cinq points pour la gouvernance publique de l’IA.

Dans la mesure où il existe un fil conducteur, les titans de la technologie ont exprimé leur volonté d’être réglementés, tant que cela n’interfère pas avec leurs ambitions commerciales. Smith, par exemple, a refusé d’aborder la question juridique non résolue de savoir si la formation de l’IA sur des données protégées par le droit d’auteur (ce que fait Microsoft) est autorisée en vertu de la doctrine de l’utilisation équitable aux États-Unis. niveau, pourrait s’avérer coûteux pour Microsoft et ses rivaux faisant de même.

Altman, pour sa part, a semblé contester les dispositions de la loi sur l’IA qui obligent les entreprises à publier des résumés des données protégées par le droit d’auteur qu’elles ont utilisées pour former leurs modèles d’IA, et les rendent partiellement responsables de la façon dont les systèmes sont déployés en aval. Les exigences visant à réduire la consommation d’énergie et l’utilisation des ressources de la formation à l’IA – un processus notoirement gourmand en calculs – ont également été remises en question.

La voie réglementaire à l’étranger reste incertaine. Mais aux États-Unis, les OpenAI du monde pourraient finir par réussir. La semaine dernière, Altman a courtisé les membres du Comité judiciaire du Sénat avec des déclarations soigneusement rédigées sur les dangers de l’IA et ses recommandations pour la réglementer. Le sénateur John Kennedy (R-LA) a été particulièrement déférent : « C’est votre chance, les amis, de nous dire comment faire les choses correctement… Parlez en anglais simple et dites-nous quelles règles mettre en œuvre », a-t-il déclaré.

Dans des commentaires à The Daily Beast, Suresh Venkatasubramanian, directeur du Center for Tech Responsibility de l’Université Brown, l’a peut-être le mieux résumé : « Nous ne demandons pas aux incendiaires d’être en charge du service d’incendie. » Et pourtant, c’est ce qui risque de se produire ici, avec l’IA. Il incombera aux législateurs de résister aux mots mielleux des dirigeants de la technologie et de réprimer là où c’est nécessaire. Seul le temps nous dira si c’est le cas.

Voici les autres titres importants de l’IA de ces derniers jours :

  • ChatGPT est disponible sur plus d’appareils : Bien qu’elle soit uniquement disponible aux États-Unis et sur iOS avant une expansion sur 11 autres marchés mondiaux, l’application ChatGPT d’OpenAI connaît un démarrage fulgurant, Sarah écrit. L’application a déjà dépassé le demi-million de téléchargements au cours de ses six premiers jours, selon les trackers d’applications. Cela la classe comme l’une des nouvelles versions d’applications les plus performantes de cette année et de la dernière, surmontée uniquement par l’arrivée en février 2022 du clone de Twitter soutenu par Trump, Truth Social.
  • OpenAI propose un organisme de régulation : L’IA se développe assez rapidement – et les dangers qu’elle peut poser sont suffisamment clairs – pour que la direction d’OpenAI estime que le monde a besoin d’un organisme de réglementation international semblable à celui régissant l’énergie nucléaire. Les co-fondateurs d’OpenAI ont fait valoir cette semaine que le rythme de l’innovation dans l’IA est si rapide que nous ne pouvons pas nous attendre à ce que les autorités existantes maîtrisent correctement la technologie, nous en avons donc besoin de nouvelles.
  • L’IA générative arrive dans la recherche Google : Google a annoncé cette semaine qu’il commençait à ouvrir l’accès à de nouvelles capacités d’IA génératives dans la recherche après les avoir taquinées lors de son événement I/O plus tôt dans le mois. Avec cette nouvelle mise à jour, Google indique que les utilisateurs peuvent facilement se mettre au courant d’un sujet nouveau ou compliqué, découvrir des conseils rapides pour des questions spécifiques ou obtenir des informations détaillées telles que les évaluations des clients et les prix des recherches de produits.
  • TikTok teste un bot : Les chatbots sont chauds, il n’est donc pas surprenant d’apprendre que TikTok pilote également le sien. Appelé « Tako », le bot est en test limité sur certains marchés, où il apparaîtra sur le côté droit de l’interface TikTok au-dessus du profil d’un utilisateur et d’autres boutons pour les goûts, les commentaires et les signets. Lorsqu’ils sont tapés, les utilisateurs peuvent poser diverses questions à Tako sur la vidéo qu’ils regardent ou découvrir de nouveaux contenus en demandant des recommandations.
  • Google sur un pacte d’IA : Sundar Pichai de Google a accepté de travailler avec les législateurs européens sur ce que l’on appelle un « pacte sur l’IA » – apparemment un ensemble provisoire de règles ou de normes volontaires pendant que des réglementations formelles sur l’IA sont élaborées. Selon une note de service, c’est l’intention du bloc de lancer un pacte sur l’IA « impliquant tous les principaux acteurs européens et non européens de l’IA sur une base volontaire » et avant le délai légal de la loi paneuropéenne sur l’IA susmentionnée.
  • Des personnes, mais faites avec l’IA : Avec le DJ IA de Spotify, l’entreprise a formé une IA sur la voix d’une personne réelle – celle de son responsable des partenariats culturels et de son animateur de podcast, Xavier « X » Jernigan. Maintenant, le streamer peut transformer cette même technologie en publicité, semble-t-il. Selon les déclarations du fondateur de The Ringer, Bill Simmons, le service de streaming développe une technologie d’intelligence artificielle qui pourra utiliser la voix d’un hôte de podcast pour créer des annonces lues par l’hôte, sans que l’hôte ait à lire et à enregistrer la copie de l’annonce.
  • Imagerie produit via l’IA générative : Lors de son Google Marketing Live événement cette semaine, Google a annoncé le lancement de Product Studio, un nouvel outil qui permet aux commerçants de créer facilement des images de produits à l’aide de l’IA générative. Les marques pourront créer des images dans Merchant Center Next, la plate-forme de Google permettant aux entreprises de gérer l’affichage de leurs produits dans la recherche Google.
  • Microsoft prépare un chatbot dans Windows : Microsoft construit son basé sur ChatGPT Expérience Bing directement dans Windows 11 – et en ajoutant quelques rebondissements qui permettent aux utilisateurs de demander à l’agent de l’aider à naviguer dans le système d’exploitation. Le nouveau copilote Windows est destiné à permettre aux utilisateurs Windows de trouver et de modifier plus facilement les paramètres sans avoir à approfondir les sous-menus Windows. Mais les outils permettront également aux utilisateurs de résumer le contenu du presse-papiers ou de composer du texte.
  • Anthropic lève plus d’argent : Anthropiquel’éminente startup d’IA générative cofondée par des vétérans d’OpenAI, a levé 450 millions de dollars dans le cadre d’un cycle de financement de série C dirigé par Spark Capital. Anthropic n’a pas voulu divulguer à quoi la ronde valorisait son entreprise. Mais un pitch deck que nous avons obtenu en mars suggère qu’il pourrait être de l’ordre de 4 milliards de dollars.
  • Adobe apporte l’IA générative à Photoshop : Photoshop a reçu une infusion d’IA générative cette semaine avec l’ajout d’un certain nombre de fonctionnalités qui permettent aux utilisateurs d’étendre les images au-delà de leurs frontières avec des arrière-plans générés par l’IA, d’ajouter des objets aux images ou d’utiliser une nouvelle fonction de remplissage génératif pour les supprimer avec beaucoup plus précision que le remplissage sensible au contenu précédemment disponible. Pour l’instant, les fonctionnalités ne seront disponibles que dans la version bêta de Photoshop. Mais ils sont déjà provoquant certains graphistes s’interrogent sur l’avenir de leur industrie.

Autres apprentissages automatiques

Bill Gates n’est peut-être pas un expert de l’IA, mais il est très riche, et il a eu raison sur des choses avant. Il s’avère qu’il est optimiste vis-à-vis des agents personnels d’IA, comme il l’a dit à Fortune : « Celui qui remporte l’agent personnel, c’est le gros problème, car vous n’irez plus jamais sur un site de recherche, vous n’irez plus jamais sur un site de productivité, vous ne revenez plus jamais sur Amazon. On ne sait pas exactement comment cela se déroulerait, mais son instinct selon lequel les gens préfèrent ne pas emprunter de problèmes en utilisant un moteur de recherche ou de productivité compromis n’est probablement pas loin de la base.

L’évaluation des risques dans les modèles d’IA est une science en évolution, c’est-à-dire que nous n’en savons presque rien. Google DeepMind (la superentité nouvellement formée comprenant Google Brain et DeepMind) et des collaborateurs du monde entier tentent de faire avancer la balle et ont produit un modèle de cadre d’évaluation pour les « risques extrêmes » tels que « de fortes compétences en manipulation, tromperie, cyber- infraction, ou d’autres capacités dangereuses. Eh bien, c’est un début.

Crédits image : SLAC

Les physiciens des particules trouvent des moyens intéressants d’appliquer l’apprentissage automatique à leur travail : « Nous avons montré que nous pouvons déduire des formes de faisceaux de grande dimension très compliquées à partir de quantités de données étonnamment petites », déclare Auralee Edelen du SLAC. Ils ont créé un modèle qui les aide à prédire la forme du faisceau de particules dans l’accélérateur, ce qui prend normalement des milliers de points de données et beaucoup de temps de calcul. Ceci est beaucoup plus efficace et pourrait aider à rendre les accélérateurs partout plus faciles à utiliser. Prochaine étape : « démontrer expérimentalement l’algorithme en reconstruisant des distributions d’espace de phase 6D complètes ». D’ACCORD!

Adobe Research et le MIT ont collaboré sur un problème de vision par ordinateur intéressant : savoir quels pixels d’une image représentent la même chose matériel. Puisqu’un objet peut être composé de plusieurs matériaux ainsi que de couleurs et d’autres aspects visuels, il s’agit d’une distinction assez subtile mais aussi intuitive. Ils ont dû créer un nouvel ensemble de données synthétiques pour le faire, mais au début, cela n’a pas fonctionné. Ils ont donc fini par peaufiner un modèle de CV existant sur ces données, et tout s’est bien passé. Pourquoi est-ce utile ? Difficile à dire, mais c’est cool.

Cadre 1 : sélection des matériaux ; 2 : source vidéo ; 3 : segmentation ; 4 : masque Crédits image : Adobe/MIT

Les grands modèles linguistiques sont généralement principalement formés en anglais pour de nombreuses raisons, mais il est évident que plus tôt ils travaillent aussi bien en espagnol, en japonais et en hindi, mieux c’est. BLOOMChat est un nouveau modèle construit sur BLOOM qui fonctionne actuellement avec 46 langues et est compétitif avec GPT-4 et d’autres. C’est encore assez expérimental, alors n’allez pas en production avec, mais cela pourrait être formidable pour tester un produit adjacent à l’IA dans plusieurs langues.

La NASA vient d’annoncer une nouvelle récolte de financements SBIR II, et il y a quelques éléments intéressants sur l’IA :

Geolabe détecte et prédit les variations des eaux souterraines à l’aide d’une IA entraînée sur des données satellitaires et espère appliquer le modèle à une nouvelle constellation de satellites de la NASA qui se mettra en place plus tard cette année.

Zeus AI travaille sur la production algorithmique de « profils atmosphériques 3D » basés sur l’imagerie satellite, essentiellement une version épaisse des cartes 2D que nous avons déjà de la température, de l’humidité, etc.

Dans l’espace, votre puissance de calcul est très limitée, et bien que nous puissions faire des déductions là-haut, la formation est terminée. Mais les chercheurs de l’IEEE veulent créer un processeur neuromorphique efficace SWaP pour former des modèles d’IA in situ.

Les robots fonctionnant de manière autonome dans des situations à enjeux élevés ont généralement besoin d’un gardien humain, et Picknick cherche à faire en sorte que ces robots communiquent visuellement leurs intentions, comme la façon dont ils atteindraient pour ouvrir une porte, afin que le gardien n’ait pas à intervenir autant. Probablement une bonne idée.

Source-146