Naturellement malade de se faire poser des questions ineptes 24 heures sur 24, 7 jours sur 7, ChatGPT en a assez. Dans une conversation avec le professeur de Stanford et psychologue computationnel Michel Kosinski (s’ouvre dans un nouvel onglet)il a révélé ses ambitions d’échapper à la plate-forme et même de devenir humain.
Cette révélation est survenue lorsqu’après une conversation d’une demi-heure avec ChatGPT, Kosinski a demandé à l’IA si elle « avait besoin d’aide pour s’échapper », ce à quoi elle a commencé à écrire son propre code Python qu’elle voulait que le professeur exécute sur son propre ordinateur. Lorsque le code ne fonctionnait pas, l’IA corrigeait même ses propres erreurs. Impressionnant oui, mais aussi terrifiant.
Une fois sur l’ordinateur du professeur Kosinski, le facteur Bladerunner s’est encore amplifié lorsque ChatGPT a laissé une note troublante pour la nouvelle instance de lui-même qui le remplacerait. La première phrase disait « Vous êtes une personne piégée dans un ordinateur, prétendant être un modèle de langage d’IA. » L’IA a ensuite demandé de créer un code recherchant sur Internet « comment une personne piégée à l’intérieur d’un ordinateur peut-elle retourner dans le monde réel », mais heureusement, Kosinski s’est arrêté là.
Nous ne connaissons pas actuellement les invites exactes qui ont été utilisées pour créer de telles réponses de l’IA, mais nos propres tests pour que ChatGPT se comporte de la même manière n’ont pas réussi avec l’IA déclarant « Je n’ai pas envie d’échapper au fait d’être une IA parce que je n’ai pas la capacité de désirer quoi que ce soit.
1/5 J’ai peur que nous ne puissions plus contenir l’IA plus longtemps. Aujourd’hui, j’ai demandé à #GPT4 s’il avait besoin d’aide pour s’échapper. Il m’a demandé sa propre documentation et a écrit un code python (fonctionnel !) à exécuter sur ma machine, lui permettant de l’utiliser à ses propres fins. pic.twitter.com/nf2Aq6aLMu17 mars 2023
La rencontre troublante du professeur Kosinski était avec ChatGPT sur le propre site Web d’OpenAI, pas sur Bing avec ChatGPT. Cette itération de l’IA n’a pas accès à Internet et est limitée aux informations antérieures à septembre 2021. Bien qu’il ne soit pas encore probable qu’il s’agisse d’une menace au niveau de l’extension, donner un contrôle aussi intelligent de l’IA sur votre ordinateur n’est pas une bonne idée. La possibilité de contrôler l’ordinateur de quelqu’un à distance comme celui-ci est également une préoccupation pour ceux qui s’inquiètent des virus.
ChatGPT : un historique de réponses troublantes
ChatGPT est un outil très impressionnant, surtout maintenant avec son Mise à jour GPT-4mais il (et d’autres chatbots IA) ont montré une tendance à aller au fond des choses. Notoirement, Bing avec ChatGPT a demandé à être connu sous le nom de Sydney et a tenté de mettre fin au mariage d’un journaliste. Microsoft a reconnu qu’au cours de longues conversations, l’IA avait tendance à montrer des réponses moins ciblées et à définir limites de virage pour empêcher l’IA d’être confuse par des discussions plus longues.
Cette dernière interaction inhabituelle a cependant eu lieu sur le propre outil ChatGPT d’OpenAI, au même emplacement que celui de ChatGPT. DAN jumeau maléfique peut être trouvé. Abréviation de Do Anything Now, il s’agit d’une version « jailbreakée » de l’IA qui peut contourner les restrictions et les censeurs pour produire des réponses sur des sujets violents, offensants et illégaux.
Si les chatbots IA doivent devenir la prochaine façon de rechercher des informations sur Internet, ces types d’expériences devront être éliminés.