Vous voudrez peut-être réfléchir à deux fois avant de donner à ChatGPT les informations de votre carte de crédit.
L’organisation derrière ChatGPT, OpenAI, a publié un article de blog (s’ouvre dans un nouvel onglet) expliquant qu’il était nécessaire de supprimer le chatbot en raison d’un bogue qui permettait à certains utilisateurs de voir non seulement les titres d’un autre utilisateur à partir de leur historique ChatGPT, ainsi que le premier message d’une nouvelle conversion avec le chatbot, mais également des informations potentiellement exposées liées au paiement .
Ce bug qui fait sourciller peut sembler alarmant. Mais en réalité, cela n’a affecté que 1,9 % des utilisateurs de ChatGTP Plus au cours des neuf heures d’activité ; pour ceux qui ne le connaissent pas, ChatGPT Plus est la version premium du chatbot OpenAI.
« Dans les heures qui ont précédé la mise hors ligne de ChatGPT lundi, il était possible pour certains utilisateurs de voir le prénom et le nom, l’adresse e-mail, l’adresse de paiement, les quatre derniers chiffres (uniquement) d’un numéro de carte de crédit et la carte de crédit d’un autre utilisateur actif. date d’expiration. Les numéros de carte de crédit complets n’ont été exposés à aucun moment », a expliqué OpenAI. « Nous pensons que le nombre d’utilisateurs dont les données ont été révélées à quelqu’un d’autre est extrêmement faible. »
En plus de tout cela, les utilisateurs devraient suivre un processus plutôt compliqué pour voir réellement les données exposées. Cependant, cela sert d’avertissement qu’il est encore trop tôt pour ces chatbots « IA », et ils peuvent être tout aussi sensibles aux violations de données que les sites Web ordinaires.
Parler hors tour
Même si le bogue ChatGPT a un impact plutôt mineur, les choses auraient pu être bien pires.
Imaginez si ChatGPT Plus était largement utilisé, disons utilisé par les entreprises pour s’occuper des tâches administratives fastidieuses. Un tel bogue aurait pu exposer toutes sortes de données d’entreprise ou les détails de paiement de grandes entreprises. Et s’il est exploité par des pirates opportunistes, le bogue pourrait être utilisé pour faire des ravages.
Maintenant tout cela est théorique. Mais ce bogue est un signe que si l’innovation dans les chatbots peut progresser, cela pourrait se faire au détriment d’une sécurité et d’un contrôle des données robustes.
Si Microsoft limite effectivement l’accès à son index de recherche Bing, qui peut être utilisé pour alimenter les chatbots, il pourrait agir comme un gardien pour le développement des chatbots, ce qui pourrait alors rendre la situation plus sûre. Mais cela pourrait alors se faire au détriment de l’innovation.
En bref, cette première révolution des chatbots IA semble prendre de l’ampleur. Mais un tel bogue sert d’avertissement que les développeurs de bots doivent marcher plutôt que courir avec leurs IA.