Il semble que, comme le reste du monde, Samsung soit impressionné par ChatGPT, mais le géant du matériel coréen a fait confiance au chatbot avec des informations beaucoup plus importantes que l’utilisateur moyen et a maintenant été brûlé trois fois.
Le potentiel des chatbots IA dans le monde du codage est important et Samsung a, jusqu’à présent, autorisé le personnel de sa division Semiconductor à utiliser le bot d’OpenAI pour corriger les erreurs de codage. Après trois fuites d’informations en un mois, attendez-vous à ce que Samsung annule son abonnement ChatGPT Plus. En effet, l’entreprise développe actuellement sa propre IA interne pour aider au codage afin d’éviter de nouvelles erreurs.
L’une des fuites concernerait un employé demandant à ChatGPT d’optimiser les séquences de test pour identifier les défauts des puces, un processus important pour une entreprise comme Samsung qui pourrait générer des économies importantes pour les fabricants et les consommateurs. Maintenant, OpenAI est assis sur un tas d’informations confidentielles de Samsung – avons-nous mentionné qu’OpenAI est en partenariat avec Microsoft ?
Bien qu’il s’agisse d’un cas assez spécialisé, un autre exemple est quelque chose dont les gens ordinaires devraient se méfier. Un employé de Samsung a demandé à ChatGPT de transformer les notes d’une réunion en une présentation, une demande apparemment anodine qui a maintenant divulgué des informations à plusieurs tiers. C’est quelque chose que nous devrions tous considérer lorsque nous utilisons ChatGPT et Google Bard, et avec l’essor rapide de l’IA, il y a peu de précédents juridiques sur lesquels s’appuyer.
Dans son politique de confidentialité (s’ouvre dans un nouvel onglet) (que Samsung, espérons-le, a lu en entier) OpenAI mentionne que « lorsque vous utilisez nos services, nous pouvons collecter des informations personnelles incluses dans les entrées, les téléchargements de fichiers ou les commentaires que vous fournissez à nos services ». OpenAI se réserve également le droit d’utiliser les informations personnelles recueillies « à des fins de recherche » et « pour développer de nouveaux programmes et services ».
Quel est le degré de sécurité de ChatGPT ?
OpenAI ne cache pas le fait que ChatGPT conserve les données d’entrée de l’utilisateur – c’est après tout l’un des meilleurs moyens de former et d’améliorer le chatbot.
S’il est peu probable que la plupart d’entre nous divulguent des informations confidentielles d’une entreprise de plusieurs milliards de dollars, il existe également des problèmes de confidentialité individuels. Les chatbots IA se sont développés si rapidement qu’il y a peu de réglementation. C’est d’autant plus inquiétant avec les ambitions de Microsoft d’intégrer ChatGPT dans Bureau 365une plateforme que des millions de personnes utilisent quotidiennement au travail.
L’UE craint également que ChatGPT n’aille à l’encontre du RGPD et que l’Italie l’ait déjà complètement interdit, même si cela vient juste de conduit les Italiens vers les VPN. Pour l’instant, les utilisateurs devront utiliser leur propre jugement et éviter de divulguer des informations personnelles lorsqu’ils le peuvent.