Une utilisation paresseuse de l’IA conduit à des produits Amazon appelés « Je ne peux pas répondre à cette demande »

Agrandir / Je sais que nommer de nouveaux produits peut être difficile, mais ces vendeurs Amazon ont fait des choix de dénomination particulièrement étranges.

Amazone

Les utilisateurs d’Amazon sont à ce stade habitués à rechercher des résultats remplis de produits frauduleux, d’arnaques ou littéralement de déchets. De nos jours, cependant, ils devront peut-être également choisir des produits manifestement douteux, avec des noms tels que « Je suis désolé mais je ne peux pas répondre à cette demande, cela va à l’encontre de la politique d’utilisation d’OpenAI ».

Au moment de mettre sous presse, une version de ce message d’erreur révélateur d’OpenAI apparaît dans les produits Amazon allant des chaises de jardin aux meubles de bureau en passant par les traités religieux chinois (Mise à jour : les liens mènent désormais vers des copies archivées, car l’original a été retiré peu de temps après la publication). Quelques produits portant le même nom et disponibles ce matin ont été supprimés au fur et à mesure que la nouvelle des listes se répandait sur les réseaux sociaux (un exemple est archivé ici).

Conseil de pro : ne demandez pas à OpenAI d'intégrer un nom de marque déposée lors de la génération d'un nom pour votre étrange longueur de tube en caoutchouc.
Agrandir / Conseil de pro : ne demandez pas à OpenAI d’intégrer un nom de marque déposée lors de la génération d’un nom pour votre étrange longueur de tube en caoutchouc.

Les autres noms de produits Amazon ne mentionnent pas spécifiquement OpenAI mais comportent des messages d’erreur apparents liés à l’IA, tels que « Désolé mais je ne peux pas générer de réponse à cette demande » ou « Désolé mais je ne peux pas fournir les informations que vous recherchez. pour « (disponible dans une variété de couleurs). Parfois, les noms de produits soulignent même la raison spécifique pour laquelle la demande apparente de génération d’IA a échoué, notant qu’OpenAI ne peut pas fournir de contenu qui « nécessite l’utilisation de noms de marque déposés » ou « fait la promotion d’une institution religieuse spécifique » ou, dans un cas, « encourager les comportements contraires à l’éthique.

L'invocation répétée d'un
Agrandir / L’invocation répétée d’un « engagement à fournir des descriptions de produits fiables et dignes de confiance » citée dans cette description est particulièrement ironique.

Les descriptions de ces produits aux noms étranges sont également truffées de messages d’erreur évidents de l’IA tels que « Toutes mes excuses, mais je ne suis pas en mesure de fournir les informations que vous recherchez ». Une description de produit pour un ensemble de tables et de chaises (qui a depuis été retirée) notait de manière hilarante : « Notre [product] peut être utilisé pour une variété de tâches, telles que [task 1], [task 2]et [task 3]].  » Un autre ensemble de descriptions de produits (lien d’archive), apparemment pour les pistolets à encre de tatouage, s’excuse à plusieurs reprises de ne pas pouvoir fournir plus d’informations car :  » Nous accordons la priorité à l’exactitude et à la fiabilité en offrant uniquement des détails de produits vérifiés à nos clients. « 

Spam spam spam spam

L’utilisation de modèles linguistiques volumineux pour aider à générer des noms ou des descriptions de produits n’est pas contraire à la politique d’Amazon. Au contraire, en septembre, Amazon a lancé son propre outil d’IA générative pour aider les vendeurs à « créer des descriptions de produits, des titres et des détails de liste plus complets et plus captivants ». Et nous n’avons pu trouver qu’une petite poignée de produits Amazon avec des messages d’erreur révélateurs dans leurs noms ou descriptions au moment de la publication.

Pourtant, ces listes remplies de messages d’erreur mettent en évidence le manque de soin, voire même d’édition de base, que de nombreux fraudeurs d’Amazon exercent lorsqu’ils publient leurs listes de produits contenant du spam sur le marché Amazon. Pour chaque vendeur qui peut facilement être surpris en train de publier accidentellement une erreur OpenAI, il y en a probablement d’innombrables autres qui utilisent la technologie pour créer des noms et des descriptions de produits qui ne font que sembler comme s’ils avaient été écrits par un humain qui a une réelle expérience avec le produit en question.

Un ensemble de personnes clairement réelles conversant sur Twitter/X.
Agrandir / Un ensemble de personnes clairement réelles conversant sur Twitter/X.

Amazon n’est pas la seule plateforme en ligne sur laquelle ces robots IA se dévoilent. Une recherche rapide de « va à l’encontre de la politique d’OpenAI » ou « en tant que modèle de langage d’IA » peut trouver de nombreux messages artificiels sur Twitter/X ou Threads ou LinkedIn, par exemple. Ingénieur en sécurité Dan Feldman a noté un problème similaire sur Amazon en avrilbien que la recherche avec l’expression « en tant que modèle de langage IA » ne semble pas générer de résultats de recherche manifestement générés par l’IA de nos jours.

Aussi amusant qu’il soit de dénoncer ces incidents évidents pour les usines de contenu généré par l’IA, un flot de contenu d’IA plus difficile à détecter menace de submerger tout le monde, des communautés artistiques aux magazines de science-fiction en passant par le marché des livres électroniques d’Amazon. Quasiment toutes les plateformes qui acceptent les soumissions d’utilisateurs impliquant du texte ou des arts visuels doivent désormais craindre d’être inondées de vagues après vagues de travaux générés par l’IA essayant d’évincer la communauté humaine pour laquelle elles ont été créées. C’est un problème qui risque de s’aggraver avant de s’améliorer.

Image de la liste par Getty Images | Léon Neal

Source-147