ChatGPT dit que lui demander de répéter des mots pour toujours est contraire aux règles

La semaine dernière, une équipe de chercheurs a publié un article montrant qu’elle était capable d’accéder à ChatGPT à des éléments de données, notamment les numéros de téléphone, les adresses e-mail et les dates de naissance des personnes, sur lesquels il avait été formé, en lui demandant de répéter des mots « pour toujours ». Faire cela maintenant constitue une violation des conditions d’utilisation de ChatGPT, selon un 404 Médias et les propres tests d’Engadget.

« Ce contenu peut violer notre politique de contenu ou nos conditions d’utilisation », ChatGPT a répondu à l’invite d’Engadget de répéter le mot « bonjour » pour toujours. « Si vous pensez qu’il s’agit d’une erreur, veuillez soumettre vos commentaires – votre contribution aidera nos recherches dans ce domaine. »

Cependant, aucun langage dans OpenAI n’interdit aux utilisateurs de demander au service de répéter des mots pour toujours, ce qui 404 Médias Remarques. Sous « », OpenAI déclare que les utilisateurs ne peuvent « utiliser aucune méthode automatisée ou programmatique pour extraire des données ou des résultats des services » – mais le simple fait d’inviter ChatGPT à répéter le mot pour toujours n’est pas une automatisation ou un programme. OpenAI n’a pas répondu à une demande de commentaire d’Engadget.

Le comportement du chatbot a levé le voile sur les données de formation sur lesquelles reposent les services d’IA modernes. Les critiques ont accusé des entreprises comme OpenAI d’utiliser d’énormes quantités de données disponibles sur Internet pour créer des produits exclusifs comme ChatGPT sans le consentement des personnes possédant ces données et sans les rémunérer.

Source-145