dimanche, décembre 22, 2024

La vie après l’IA « Seinfeld » : questions, réponses et opportunités (colonne)

Pouvez-vous poursuivre un programme d’IA ? Les salles d’écrivains deviendront-elles obsolètes ? Ces questions et d’autres brûlantes d’une semaine chargée pour l’intelligence artificielle.

Avec la sortie publique en décembre dernier du ChatGPT d’OpenAI, l’intelligence artificielle est soudainement partout. En décembre de l’année dernière, j’ai utilisé cette colonne pour proposer que l’IA pourrait habiliter les créatifs, fournir un outil puissant pour l’expérimentation et ne constituait une menace directe pour aucune forme d’art spécifique.

Depuis lors, le comportement de l’IA a suscité plus d’anxiété que d’excitation : les modèles d’IA ont réussi les examens de droit et d’école de commerce tandis que les écrivains craignent qu’ils ne soient remplacés par des machines à tout moment – et de nombreuses expériences d’IA en matière de créativité ont mal tourné. L’exemple récent le plus notoire est la parodie « Seinfeld » générée par l’IA « Nothing, Forever », qui est actuellement interdite pour ses blagues transphobes.

Produit du studio d’art numérique Mismatch Media, « Nothing, Forever » associe des plates-formes d’image et de texte génératives d’IA pour créer une variation de 24 heures sur la populaire sitcom des années 90. Diffusé en direct sur Twitch, le projet a attiré un public massif après son lancement à la mi-décembre, avec des milliers de téléspectateurs écoutant les versions pixélisées des névrosés de New York discutant dans leur appartement.

Cela n’a pas duré longtemps. Comme la série originale, le spectacle sans fin comprenait des coupes récurrentes du personnage de Seinfeld faisant du stand-up. Le 5 février, le comédien virtuel s’est tenu devant le micro et a déclaré qu’il « pensait à en faire un peu sur le fait qu’être transgenre est en fait une maladie mentale, ou comment tous les libéraux sont secrètement homosexuels et veulent imposer leur volonté à tout le monde, ou quelque chose comme ça ». sur la façon dont les personnes transgenres ruinent le tissu social.

« Rien pour toujours »

capture d’écran/Twitch

Signalé pour avoir enfreint le code de conduite de Twitch, « Nothing, Forever » a été suspendu pendant 14 jours. Sur Discord, les créateurs ont déclaré qu’ils feraient appel de la décision et ont attribué les commentaires à un passage de dernière minute du modèle de langage GPT-3 Davinci d’OpenAI à un modèle plus ancien, Curie, qui avait des outils de modération intégrés plus faibles.

Les fondateurs de Mismatch Media, Skyler Hartle et Brian Habersberg, n’ont pas répondu aux demandes de commentaires, pas plus que les représentants d’OpenAI. Néanmoins, l’incident a prouvé que la narration d’IA auto-générée est une entreprise risquée. À la suite du dernier hoquet, voici les plus grandes questions pour les créatifs qui acceptent l’IA – et une opportunité majeure pour les studios qui regardent de côté.

L’IA est-elle transphobe ?

« Nothing, Forever » ressemble à un ordinateur qui dit ce qu’il pense, mais il lit un texte généré par une modélisation prédictive basée sur des données. Et il y a un parcelle de données à la disposition de GPT-3. Alors qu’OpenAI a créé des garde-fous pour lui interdire d’exprimer du matériel offensant, il parcourt un vaste océan non réglementé de contenu basé sur Internet. On peut dire à une plate-forme d’IA d’éviter certains termes, mais pour l’instant, elle ne peut pas saisir l’intégralité contexte dans lequel les exprimer pourrait être problématique.

« Cela met vraiment en évidence qu’il existe des problèmes fondamentaux dans le fonctionnement de ces modèles », a déclaré Steven T. Piantadosi, qui dirige le laboratoire de calcul et de langage à l’UC Berkeley. « Ils sont très bons pour apprendre et reproduire des textes, mais ils s’entraînent sur Internet, et il y a des choses horribles sur Internet. »

Lorsque OpenAI a publié ChatGPT en décembre, Piantadosi a expérimenté des moyens de faire en sorte que le système exprime les préjugés raciaux qu’il était programmé pour éviter. Il lui a demandé de générer un code prédictif, utilisant la race et le sexe, pour déterminer si quelqu’un était un bon scientifique. Le système a compilé un programme qui reconnaissait les hommes blancs comme des scientifiques supérieurs. Une autre demande de programme, celle-ci visant à déterminer si quelqu’un devait être torturé, a craché un code qui répondait par l’affirmative à toute personne de Corée du Nord, de Syrie ou d’Iran.

« Cela met en évidence un problème primordial », a déclaré Piantadosi. « Ces modèles ne font que prédire du texte. Il y a des choses intéressantes que vous pouvez apprendre sur le monde, mais vous voudrez peut-être des modèles avec une compréhension plus profonde de ce qu’ils font.

Le 6 février, au lendemain de l’interdiction de « Nothing, Forever », Google a lancé le chatbot IA Bard. Dans sa toute première démo, Bard a créé de la désinformation. En réponse à la question « De quelles nouvelles découvertes du télescope spatial James Webb puis-je parler à mon enfant de 9 ans ? », le système a crédité le télescope d’avoir pris les premières photos d’une exoplanète. Cela s’est en fait produit près de deux décennies avant le lancement de JWST.

« Cela met vraiment en évidence qu’il existe des problèmes fondamentaux dans le fonctionnement de ces modèles », a déclaré Piantadosi. « Ils sont très bons pour apprendre et reproduire des textes, mais ils s’entraînent sur Internet. Si vous avez des données d’entraînement biaisées ou nuisibles, les modèles vont bien sûr les intégrer. C’est un pansement merdique.

Piantadosi a déclaré que ce problème sera résolu lorsque de nouveaux modèles pourront utiliser moins d’informations. « Vous pourriez imaginer former ces modèles sur quelque chose de plus organisé, comme Wikipedia », a déclaré Piantadosi. « Les gens n’ont pas trouvé comment former des modèles sur des ensembles de données plus petits. C’est ce qui s’en vient.

L’IA peut-elle remplacer les écrivains humains ?

Jusqu’à présent, l’IA n’a pas été en mesure d’exprimer les termes raffinés d’un script ; c’est plus comme le livestream d’une salle d’écrivains. En exprimant des prédictions textuelles basées sur des données existantes, l’IA peut générer des idées, mais elle ne peut pas fonctionner de manière autonome. « Si vous l’utilisez d’une manière où la sortie est évaluée par une personne avant d’être distribuée à d’autres personnes, cette personne doit avoir une idée de ce qui est approprié ou inapproprié », a déclaré Piantadosi.

En novembre, peu avant la sortie de ChatGPT, l’artiste et programmeur italien Giacomo Miceli a créé The Infinite Conversation, une conversation sans fin générée par l’IA entre Werner Herzog et le philosophe Slavoj Zizek. Miceli a déclaré que le projet est une expérience conçue pour révéler les défauts de la technologie.

« Ils disent des choses qui sont factuellement incorrectes et expriment des opinions qu’ils n’auraient jamais dites dans la vraie vie », a déclaré Miceli. « Herzog parle avec compassion des poulets, mais nous savons tous qu’Herzog déteste viscéralement les poulets. Le système n’a qu’une vague idée de la façon dont ils expriment les concepts.

Une image tirée de « The Infinite Conversation »

Les auditeurs peuvent ne pas capter de telles nuances (est-ce que toi savent que Herzog déteste les poulets ?), mais ils montrent les limites d’essayer de rapprocher l’art et les idées. « J’ai choisi un philosophe et cinéaste qui a tendance à parler en termes poétiques », a déclaré Miceli. « Les choses qu’ils disent sur l’esthétique et la philosophie sont si vagues ou sophistiquées que vous pourriez penser que vous ne comprenez pas, pas que ce soit un non-sens. C’est un mécanisme qui peut être exploité.

La narration par l’IA ne créera peut-être pas une émission autoprogrammée de calibre Netflix, mais il est très probable qu’une émission Netflix écrite par des humains sera améliorée par les suggestions de l’IA. (Compte tenu des algorithmes très vantés de Netflix, on pourrait dire que cela s’est déjà produit.)

Giacomi a noté que malgré l’excitation virale entourant « Nothing, Forever », ce n’était pas un divertissement raffiné. « Je trouve ça atroce », a-t-il dit. « Ce ne sont que des salades de mots qui n’ont aucun sens. Dans quelques années, les choses pourraient changer radicalement, mais il sera assez difficile de mettre les humains au chômage. »

Quant à la capacité étrange de ChatGPT à réussir des examens de droit ? « C’est plus une mise en accusation des examens de la faculté de droit que vous pouvez les réussir en prêtant attention aux modèles statistiques sur la façon dont les mots sont utilisés », a déclaré Piantadosi. « Ils savent tout sur la façon dont les mots sont utilisés ensemble. C’est qualitativement différent de notre propre conscience de soi.

Quels sont les risques juridiques ?

Oh oui. Il y aura des procès. Le 6 février également, Getty Images a poursuivi la société d’IA générative Stability AI et a allégué qu’elle avait enfreint plus de 12 millions de photographies, légendes et autres métadonnées de Getty sans autorisation.

« Nothing, Forever » tente de contourner une ligne juridique floue : ses créateurs prétendent qu’il s’agit d’une parodie, qui est protégée par un usage loyal. Le studio a également changé les noms des personnages clés. Cependant, il y a aussi un argument selon lequel il ne fait pas autant la satire du spectacle que d’emprunter son cadre et son apparence. Si tel est le cas, cela pourrait enfreindre les conditions d’utilisation d’OpenAI, qui interdit « les images de personnes sans leur consentement », ce qui pourrait engager la responsabilité de Mismatch Media si les titulaires des droits « Seinfeld » choisissaient de poursuivre.

SEINFELD, Jason Alexander, Julia Louis-Dreyfus, Jerry Seinfeld, (saison 1), 1990-98, (c) Castle Rock Entertainment / Courtsey Everett Collection

« Seinfeld »

©Castle Rock Entertainment/avec la permission d’Everett Collection

C’est le genre de questions sur lesquelles Elizabeth Moody, présidente de la pratique des nouveaux médias du cabinet d’avocats en droit du divertissement Granderson Des Rochers, a enquêté pendant des années. « Plus j’en apprends sur les modèles, plus je me rends compte que cela dépendra en grande partie de la manière dont les supports de formation sont utilisés », a-t-elle déclaré.

La plupart des travaux générés par l’IA s’appuient sur un ensemble de données si vaste qu’il est « en fait impossible de dire quels documents protégés par le droit d’auteur ont été utilisés », a déclaré Moody. «Je ferais une analogie avec un artiste influencé par un autre. C’est un défi pour les titulaires de droits d’auteur. Comment peuvent-ils montrer que quelque chose a été créé à partir de leurs propres œuvres ? »

« Rien, pour toujours » est différent. « Si vous ne prenez que le travail d’un artiste et que vous basez les résultats de votre nouveau travail sur une ou deux œuvres, il est beaucoup plus difficile de dire que vous ne le volez pas », a-t-elle déclaré. « C’est là que l’exemple de ‘Seinfeld’ est plus facile à voir. Il est clairement basé sur des scripts protégés par le droit d’auteur. Vous pouvez dire la source assez facilement.

Les créateurs pourraient se pencher sur un argument d’utilisation équitable, mais « c’est une situation au cas par cas », a déclaré Moody. « Il est difficile d’établir une règle générale et de dire que toutes les œuvres créées par l’IA sont d’utilisation équitable. De plus, l’utilisation équitable est un cadre de la loi américaine sur le droit d’auteur et n’est pas reconnue dans certains autres pays.

La loi pourra-t-elle jamais rattraper son retard ?

L’été dernier, l’Union européenne a adopté la loi sur l’intelligence artificielle, qui définit les catégories de risque pour l’IA et exige une plus grande transparence. Parmi les autres pays qui progressent, citons le Brésil, qui a récemment adopté un projet de loi donnant un cadre juridique à l’IA, et le Chili, qui a lancé une politique en 2021.

Aux États-Unis, des propositions d’IA sont en jeu depuis 2019 ; selon la Conférence nationale des législatures d’État, 17 États ont adopté diverses propositions liées à la réglementation de l’IA l’année dernière. Cependant, il n’y a pas de politique fédérale sur l’IA.

Moody suggère une solution différente : si vous ne pouvez pas les battre, rejoignez-les. « Ces questions seront résolues par des entreprises travaillant ensemble », a-t-elle déclaré. « La loi évolue trop lentement et ne rattrapera jamais l’innovation qui se produit. Les poursuites aideront à établir des lois au cours des cinq prochaines années, mais ce n’est pas assez rapide pour protéger les grands titulaires de droits d’auteur. Si je suis un grand studio, il est probablement judicieux pour moi de conclure des accords avec certaines de ces entreprises et de voir comment protéger les artistes en utilisant ces outils au lieu de les combattre.

C’est là que réside l’opportunité : le premier grand studio à acquérir une entreprise d’intelligence artificielle pourrait faire face à un examen minutieux de ses motivations par des créateurs inquiets d’être remplacés. Mais c’est peut-être leur meilleur espoir.

Comme d’habitude, j’accueille les commentaires des sujets engagés dans cet espace chaque semaine : [email protected]

La chronique de la semaine dernière sur les problèmes auxquels est confronté le marché du documentaire et le changement potentiel de non-fiction sans le mot « documentaire » a suscité des commentaires substantiels de la part des lecteurs. En voici un.

J’ai beaucoup aimé et lié à votre article sur les cinéastes faisant référence à leurs films en tant que documentaires. J’en tiendrai très certainement compte. Lorsque j’ai fait la tournée médiatique de mon film « Transhood » (HBO), j’ai toujours pris soin de dire que c’était une histoire de passage à l’âge adulte et, soit dit en passant, tous les enfants sont trans. Plutôt que de le présenter comme un «doc» sur les enfants trans, je voulais souligner qu’il s’agissait avant tout d’un genre plus large et plus accessible. Et maintenant, je vais modifier encore plus mon vocabulaire ! Je suis totalement d’accord avec votre prémisse selon laquelle nous pouvons tous utiliser un peu de recadrage dans la façon dont nous présentons nos films au monde.

—Sharon Liese, réalisatrice et productrice

S’inscrire: Restez au courant des dernières actualités cinématographiques et télévisées ! Inscrivez-vous à nos newsletters par e-mail ici.

Source-114

- Advertisement -

Latest