Après que Samsung Semiconductor ait laissé ses ingénieurs de fabrication utiliser ChatGPT pour obtenir de l’aide, ils ont commencé à l’utiliser pour corriger rapidement les erreurs dans leur code source, en divulguant des informations confidentielles telles que des notes de réunions internes et des données liées aux performances et aux rendements de la fabrication dans le processus. La société prévoit maintenant de développer son propre service d’IA de type ChatGPT à usage interne. Mais pour l’instant, il limite la longueur des questions soumises au service à 1024 octets, rapporte Economist.
Jusqu’à présent, Samsung Semiconductor a enregistré trois cas d’utilisation de ChatGPT qui ont entraîné une fuite de données. Bien que trois ne semblent pas beaucoup, ils se sont tous déroulés en 20 jours, la situation est donc assez inquiétante.
Dans un cas, un employé de Samsung Semiconductor a soumis le code source d’un programme propriétaire à ChatGPT pour corriger des erreurs, qui ont essentiellement divulgué le code d’une application top secrète à une intelligence artificielle gérée par une société externe.
Le deuxième cas était peut-être encore plus alarmant car un autre employé a entré des modèles de test destinés à identifier les puces défectueuses et a demandé une optimisation. Les séquences de test destinées à identifier les défauts sont strictement confidentielles. Parallèlement, l’optimisation de ces séquences de test et éventuellement la réduction de leur nombre peut accélérer les procédures de test et de vérification du silicium, ce qui réduit considérablement les coûts.
Un autre employé a utilisé l’application Naver Clova pour convertir un enregistrement de réunion en document, puis l’a soumis à ChatGPT pour préparer une présentation.
Ces actions mettent clairement en danger des informations confidentielles, incitant Samsung à avertir ses employés des dangers liés à l’utilisation de ChatGPT. Samsung Electronics a informé ses dirigeants et employés que les données saisies dans ChatGPT sont transmises et stockées sur des serveurs externes, ce qui rend impossible pour l’entreprise de les récupérer et augmente les risques de fuite d’informations confidentielles. Bien que ChatGPT soit un outil puissant, sa fonctionnalité de données d’apprentissage ouvertes peut exposer des informations sensibles à des tiers, ce qui est inacceptable dans l’industrie hautement compétitive des semi-conducteurs.
Le conglomérat prépare actuellement des mesures de protection pour prévenir des accidents similaires à l’avenir. Si un autre incident se produit, même après la mise en œuvre de mesures de protection des informations d’urgence, l’accès à ChatGPT peut être bloqué sur le réseau de l’entreprise. Pourtant, il est clair que des choses comme l’IA générative et divers outils d’automatisation de la conception électronique activés par l’IA sont un aspect important de l’avenir de la production de puces.
Interrogé sur l’incident de fuite d’informations, un porte-parole de Samsung Electronics a refusé de confirmer ou d’infirmer l’information, car il s’agissait d’une affaire interne.