ChatGPT peut être un excellent outil de travail, surtout si vous connaissez le meilleur Trucs et astuces ChatGPT. Mais malheureusement, mettre ces données de travail peut avoir des conséquences imprévues. Les employés de Samsung l’ont découvert à leurs dépens le mois dernier lorsqu’ils accidentellement divulgué les secrets de Samsung à ChatGPT plusieurs fois.
Maintenant, il semble que Samsung prenne des mesures pour que cela ne se reproduise plus jamais. D’après Bloomberg Marc Gurman (s’ouvre dans un nouvel onglet)Samsung a désormais interdit aux employés d’utiliser des outils d’IA génératifs tels que ChatGPT ou Barde Google. Cela provient d’une note de service divulguée au personnel de Samsung qui a défini la semaine dernière de nouvelles politiques sur l’utilisation de l’IA sur le lieu de travail, ce que Samsung a depuis confirmé.
Apparemment, cela n’a probablement pas été un choc pour les employés de Samsung – en fait, cela a peut-être même été un développement bienvenu pour certains. À la suite des fuites de données involontaires, Samsung aurait mené une enquête interne et constaté que 65 % des personnes interrogées étaient d’accord pour dire que l’IA générative et les outils similaires posent un risque sérieux pour la sécurité.
Fuite de Samsung ChatGPT : que s’est-il passé ?
En avril, nous et d’autres médias avons signalé que les employés de Samsung utilisaient le populaire chatbot AI pour (entre autres) corriger les erreurs de codage. Plus précisément, les membres de la division des semi-conducteurs ont utilisé l’outil d’IA pour identifier les défauts de ses puces. Malheureusement pour Samsung, ces données font désormais partie de la vaste mine de données que ChatGPT GPT-4 modèle est formé sur – bien que les données divulguées n’aient pas encore fait surface jusqu’à présent.
Mais ce n’était pas la seule fuite de Samsung. Dans un cas distinct, un employé de Samsung a utilisé ChatGPT pour transformer les notes de réunion en présentation, une fonctionnalité commune à l’IA générative et qui est même un point fort d’outils tels que Microsoft copilote 365. Malheureusement, encore une fois, ces données sont ensuite devenues une partie des données utilisateur collectées par OpenAI (ce qu’ils déclarent explicitement dans leurs conditions d’utilisation) et risquent maintenant d’être divulguées au public. Heureusement pour Samsung, il semble que ces données aient encore échappé aux yeux du public – pour l’instant.
Comment rester en sécurité avec ChatGPT
Si vous voulez rester en sécurité en utilisant ChatGPT, Google Bard ou Microsoft Bing avec ChatGPT – vraiment n’importe quel outil d’IA – la clé est de se rappeler que ces données sont presque toujours stockées quelque part. Certains outils d’IA stockent les données localement, mais pour la plupart, les données sont stockées quelque part sur un serveur une fois qu’elles sont entrées dans le chatbot.
La bonne nouvelle est que les entreprises commencent à changer la façon dont elles traitent certaines de ces données. ChatGPT en particulier a désormais la possibilité de désactiver l’historique des discussions et la formation sur ChatGPT, qui supprime vos conversations après 30 jours. Pourtant, la meilleure méthode consiste simplement à ne jamais dire (ou taper) au chatbot quelque chose que vous seriez mal à l’aise avec d’autres personnes. En fait, c’est juste une bonne règle pour Internet en général.