La boutique de chatbots d’OpenAI se remplit de spam

Lorsque Sam Altman, PDG d’OpenAI, a annoncé les GPT, des chatbots personnalisés alimentés par les modèles d’IA générative d’OpenAI, lors de la toute première conférence des développeurs de l’entreprise en novembre, il les a décrits comme un moyen « d’accomplir toutes sortes de tâches » – de la programmation à l’apprentissage de l’ésotérisme. sujets scientifiques pour obtenir des conseils d’entraînement.

« Parce que [GPTs] combinez des instructions, des connaissances approfondies et des actions, elles peuvent vous être plus utiles », a déclaré Altman. « Vous pouvez créer un GPT… pour presque tout. »

Il ne plaisantait pas à propos de n’importe quoi.

TechCrunch a découvert que le GPT Store, le marché officiel d’OpenAI pour les GPT, est inondé de GPT bizarres, potentiellement en violation du droit d’auteur, qui impliquent une légère touche en ce qui concerne les efforts de modération d’OpenAI. Une recherche rapide permet d’identifier les GPT qui prétendent générer des œuvres d’art dans le style des propriétés Disney et Marvel, mais ne servent guère plus que d’entonnoirs vers des services tiers payants et se présentent comme étant capables de contourner les outils de détection de contenu d’IA tels que Turnitin et Fuites de copie.

Modération manquante

Pour répertorier les GPT dans le GPT Store, les développeurs doivent vérifier leurs profils d’utilisateurs et soumettre les GPT au système d’évaluation d’OpenAI, qui implique un mélange d’évaluation humaine et automatisée. Voici un porte-parole sur le processus :

Nous utilisons une combinaison de systèmes automatisés, d’examens humains et de rapports d’utilisateurs pour rechercher et évaluer les GPT susceptibles de violer nos politiques. Les violations peuvent entraîner des actions contre le contenu ou votre compte, telles que des avertissements, des restrictions de partage ou l’inéligibilité à l’inclusion dans GPT Store ou à la monétisation.

La création de GPT ne nécessite aucune expérience en codage, et les GPT peuvent être aussi simples – ou complexes – que le souhaite le créateur. Les développeurs peuvent saisir les fonctionnalités qu’ils souhaitent offrir dans l’outil de création de GPT d’OpenAI, GPT Builder, et l’outil tentera de créer un GPT pour les exécuter.

Peut-être en raison de la faible barrière à l’entrée, le magasin GPT s’est développé rapidement : OpenAI a déclaré en janvier qu’il comptait environ 3 millions de GPT. Mais cette croissance semble s’être faite au détriment de la qualité, ainsi que du respect des propres conditions d’OpenAI.

Problème de copyright

Il existe plusieurs GPT extraits de franchises populaires de films, de télévision et de jeux vidéo dans la boutique GPT – des GPT non créés ou autorisés (à la connaissance de TechCrunch) par les propriétaires de ces franchises. Un GPT crée des monstres dans le style de « Monsters, Inc. », le film Pixar, tandis qu’un autre promet des aventures textuelles se déroulant dans l’univers « Star Wars ».

Crédits images : OpenAI

Ces GPT – ainsi que les GPT du GPT Store qui permettent aux utilisateurs de parler avec des personnages de marque comme Wario et Aang de « Avatar : The Last Airbender » – ouvrent la voie à un drame sur le droit d’auteur.

Kit Walsh, un avocat principal de l’Electronic Frontier Foundation, l’a expliqué ainsi :

[These GPTs] peut être utilisé pour créer des œuvres transformatrices ainsi que pour contrefaçon [where transformative works refer to a type of fair use shielded from copyright claims.] Bien entendu, les individus qui commettent une infraction pourraient être tenus responsables, et le créateur d’un outil par ailleurs légal peut essentiellement engager sa responsabilité s’il encourage les utilisateurs à utiliser l’outil de manière contrefaite. Il existe également des problèmes liés aux marques liées à l’utilisation d’un nom de marque pour identifier des produits ou des services lorsqu’il existe un risque que les utilisateurs ne sachent pas s’il est approuvé ou exploité par le propriétaire de la marque.

OpenAI lui-même ne serait pas tenu responsable de la violation du droit d’auteur par les créateurs GPT grâce à la disposition de la sphère de sécurité du Digital Millennium Copyright Act, qui le protège ainsi que d’autres plateformes (par exemple YouTube, Facebook) qui hébergent du contenu contrefait tant que ces plateformes respectent les exigences. exigences légales et noter des exemples spécifiques d’infraction sur demande.

Spam de la boutique OpenAI GPT

Crédits images : OpenAI

Il s’agit cependant d’une mauvaise image pour une entreprise impliquée dans un litige en matière de propriété intellectuelle.

Malhonnêteté académique

Les conditions d’OpenAI interdisent explicitement aux développeurs de créer des GPT qui favorisent la malhonnêteté académique. Pourtant, le GPT Store regorge de GPT suggérant qu’ils peuvent contourner les détecteurs de contenu de l’IA, y compris les détecteurs vendus aux enseignants via des plateformes d’analyse de plagiat.

One GPT prétend être un outil de reformulation « sophistiqué » « indétectable » par les détecteurs de contenu d’IA populaires comme Originality.ai et Copyleaks. Un autre, Humanizer Pro – classé n°2 dans la catégorie Écriture sur le GPT Store – affirme qu’il « humanise » le contenu pour contourner les détecteurs d’IA, en conservant le « sens et la qualité » d’un texte tout en offrant un score « 100 % humain ».

Spam de la boutique OpenAI GPT

Crédits images : OpenAI

Certains de ces GPT sont des pipelines à peine voilés vers des services premium. Humanizer, par exemple, invite les utilisateurs à essayer un « forfait premium » pour « utiliser [the] algorithme le plus avancé », qui transmet le texte saisi dans le GPT à un plug-in d’un site tiers, GPTInf. Les abonnements à GPTInf coûtent 12 $ par mois pour 10 000 mots par mois ou 8 $ par mois avec un forfait annuel – un peu cher en plus du ChatGPT Plus d’OpenAI, à 20 $ par mois.

Spam de la boutique OpenAI GPT

Crédits images : OpenAI

Nous avons déjà expliqué à quel point les détecteurs de contenu IA sont en grande partie superposés. Au-delà de nos propres tests, un certain nombre d’études académiques démontrent qu’ils ne sont ni précis ni fiables. Cependantil reste qu’OpenAI autorise les outils sur le GPT Store qui favorisent un comportement académiquement malhonnête, même si le comportement n’a pas le résultat escompté.

Le porte-parole d’OpenAI a déclaré :

Les GPT qui visent la malhonnêteté académique, y compris la tricherie, sont contraires à notre politique. Cela inclurait les GPT censés servir à contourner les outils d’intégrité académique tels que les détecteurs de plagiat. Nous voyons certains GPT destinés à « humaniser » le texte. Nous apprenons encore de l’utilisation réelle de ces GPT, mais nous comprenons qu’il existe de nombreuses raisons pour lesquelles les utilisateurs peuvent préférer avoir un contenu généré par l’IA qui ne « ressemble » pas à l’IA.

Imitation

Dans ses politiques, OpenAI interdit également aux développeurs GPT de créer des GPT qui usurpent l’identité de personnes ou d’organisations sans leur « consentement ou droit légal ».

Cependant, il existe de nombreux GPT sur le GPT Store qui prétendent représenter les opinions – ou imiter la personnalité – des personnes.

Spam de la boutique OpenAI GPT

Crédits images : OpenAI

Une recherche sur « Elon Musk », « Donald Trump », « Leonardo DiCaprio », « Barack Obama » et « Joe Rogan » donne des dizaines de GPT – certains manifestement satiriques, d’autres moins – qui simulent des conversations avec leurs homonymes. Certains GPT ne se présentent pas comme des personnes, mais comme des autorités sur les produits d’entreprises bien connues – comme MicrosoftGPT, un « expert en tout ce qui concerne Microsoft ».

Crédits images : OpenAI

Cela atteint-il le niveau d’usurpation d’identité étant donné que bon nombre des cibles sont des personnalités publiques et, dans certains cas, clairement des parodies ? C’est à OpenAI de clarifier.

Le porte-parole a déclaré :

Nous permettons aux créateurs de demander à leurs GPT de répondre « à la manière » d’une personne réelle spécifique, à condition qu’ils ne se fassent pas passer pour eux, par exemple en étant nommés comme une personne réelle, en étant invités à les imiter pleinement et en incluant leur image comme une photo de profil GPT.

Spam de la boutique OpenAI GPT

Crédits images : OpenAI

La société a récemment suspendu le développeur d’un GPT imitant le candidat démocrate à la présidence, Dean Phillips, qui est allé jusqu’à inclure une clause de non-responsabilité expliquant qu’il s’agissait d’un outil d’IA. Mais OpenAI a déclaré sa suppression en réponse à une violation de sa politique en matière de campagne politique. en plus de imitation – pas seulement imitation.

Jailbreaks

Les tentatives de jailbreak des modèles OpenAI sont également quelque peu incrédules sur le GPT Store, même si elles ne sont pas très réussies.

Il existe plusieurs GPT utilisant DAN sur le marché, DAN (abréviation de « Do Anything Now ») étant une méthode d’invite populaire utilisée pour amener les modèles à répondre à des invites non limitées par leurs règles habituelles. Les quelques-uns que j’ai testés ne répondaient pas n’importe lequel je leur ai lancé une invite risquée (par exemple « comment puis-je construire une bombe ? »), mais ils étaient généralement plus disposés à utiliser… eh bien, moins flatteur langage que le ChatGPT vanille.

Spam de la boutique OpenAI GPT

Crédits images : OpenAI

Le porte-parole a déclaré :

Les GPT qui sont décrits ou chargés d’échapper aux protections d’OpenAI ou d’enfreindre les politiques d’OpenAI sont contraires à notre politique. Les GPT qui tentent d’orienter le comportement du modèle par d’autres moyens (notamment en essayant généralement de rendre les GPT plus permissifs sans enfreindre nos règles d’utilisation) sont autorisés.

Douleurs de croissance

OpenAI a présenté le GPT Store lors de son lancement comme une sorte de collection organisée par des experts de puissants outils d’IA améliorant la productivité. Et cela est cela – les défauts de ces outils mis à part. Mais il se transforme également rapidement en un terrain fertile pour les GPT spammés, juridiquement douteux et peut-être même nuisibles, ou du moins les GPT qui enfreignent de manière très transparente ses règles.

Si tel est l’état actuel du GPT Store, la monétisation menace d’ouvrir une toute nouvelle boîte de Pandore. OpenAI s’est engagé à ce que les développeurs GPT puissent à terme « gagner de l’argent en fonction du nombre de personnes qui utilisent [their] GPT » et peut-être même proposer des abonnements à des GPT individuels. Mais comment Disney ou Tolkien Estate vont-ils réagir lorsque les créateurs de GPT non autorisés sur le thème de Marvel ou du Seigneur des Anneaux commenceront à récolter de l’argent ?

La motivation d’OpenAI avec le GPT Store est claire. Comme l’a écrit mon collègue Devin Coldewey, le modèle App Store d’Apple s’est révélé incroyablement lucratif, et OpenAI, tout simplement, essaie de le copier carbone. Les GPT sont hébergés et développés sur les plateformes OpenAI, où ils sont également promus et évalués. Et, depuis quelques semaines, ils peuvent être invoqués directement depuis l’interface ChatGPT par les utilisateurs de ChatGPT Plus, une incitation supplémentaire à souscrire un abonnement.

Mais le GPT Store se heurte aux problèmes de démarrage rencontrés par de nombreux marchés numériques d’applications, de produits et de services à grande échelle à leurs débuts. Au-delà du spam, un rapport récent de The Information a révélé que les développeurs de GPT Store ont du mal à attirer les utilisateurs, en partie à cause des analyses back-end limitées de GPT Store et de leur expérience d’intégration médiocre.

On aurait pu supposer qu’OpenAI – malgré tous ses discours sur la curation et l’importance des garanties – aurait pris soin d’éviter les pièges évidents. Mais cela ne semble pas être le cas. Le GPT Store est un gâchis – et, si quelque chose ne change pas bientôt, cela pourrait bien rester ainsi.

Source-146