Craignant des fuites, Apple restreint l’utilisation de ChatGPT parmi les employés

Agrandir / Une représentation de dessin animé générée par l’IA d’un chatbot barré.

Benj Edwards / Diffusion stable

Selon des sources internes et des documents de l’entreprise examinés par le Wall Street Journal, Apple a restreint l’utilisation par ses employés des outils de codage ChatGPT et AI tels que GitHub Copilot par crainte de divulguer des données confidentielles à des sources extérieures. Pendant ce temps, Apple développerait également une technologie d’IA similaire.

ChatGPT est un modèle de grand langage conversationnel (LLM) développé par OpenAI soutenu par Microsoft qui est capable de tâches allant de la réponse aux questions et de la rédaction d’essais à l’aide aux tâches de programmation. Actuellement, le modèle ChatGPT AI ne fonctionne que sur les serveurs OpenAI ou Microsoft et est accessible via Internet.

La décision d’Apple de limiter l’utilisation d’outils d’IA externes découle de la crainte que des données confidentielles ne soient exposées en raison de la nature de ces modèles d’IA, qui renvoient les données des utilisateurs aux développeurs pour un traitement dans le cloud et une assistance dans les futures améliorations du modèle d’IA.

OpenAI était auparavant confronté à des problèmes de confidentialité avec ChatGPT lorsqu’un bogue permettait à certains utilisateurs d’accéder aux informations de l’historique de discussion d’autres utilisateurs. En réponse aux critiques de l’Italie, OpenAI a mis en place une option permettant aux utilisateurs de désactiver leur historique de chat, ce qui empêche également OpenAI de former de futurs modèles d’IA à l’aide de leurs données d’historique de chat.

Une tendance continue

Apple est bien connu pour ses mesures de sécurité rigoureuses, et sa décision d’interdire l’utilisation d’outils d’IA externes reflète une tendance croissante parmi des entreprises telles que Samsung et JPMorgan Chase. Le Wall Street Journal rapporte qu’Amazon a encouragé ses ingénieurs à utiliser ses outils d’IA propriétaires (comme CodeWhisperer) pour l’assistance au codage au lieu d’outils externes.

Pour répondre aux préoccupations des entreprises en matière de confidentialité, Microsoft a récemment annoncé son intention de lancer une version de ChatGPT axée sur la confidentialité qui ciblerait les banques, les prestataires de soins de santé et d’autres grandes organisations préoccupées par les fuites de données et la conformité réglementaire.

Cette version commerciale plus coûteuse de ChatGPT est configurée pour fonctionner sur des serveurs dédiés, distincts de ceux utilisés par d’autres entreprises ou utilisateurs individuels, ce qui devrait aider à prévenir les fuites de données par inadvertance et à empêcher l’utilisation de données sensibles pour former le modèle de langage d’IA. Même ainsi, il est peu probable qu’un concurrent de premier plan comme Apple fasse confiance à Microsoft avec ses données confidentielles dans ces circonstances.

Développements internes d’IA d’Apple

Le Wall Street Journal indique également qu’Apple travaille sur ses propres LLM sous la direction de John Giannandrea, un ancien employé de Google qui est maintenant vice-président senior de la stratégie d’apprentissage automatique et d’IA d’Apple.

Récemment, nous avons couvert un rapport interne de The Information qui remettait en question le conservatisme de la stratégie d’IA d’Apple au milieu des critiques sur les inconvénients de son assistant vocal Siri apparemment obsolète. Siri, qui a été lancé en 2011, a brièvement inspiré une version miniature du battage médiatique de l’IA que nous voyons maintenant.

Il est important de noter que même si Apple a restreint l’utilisation de ChatGPT pour ses employés, cette interdiction ne s’étend pas aux utilisateurs d’Apple. Pas plus tard qu’hier, OpenAI a publié un client ChatGPT officiel pour les utilisateurs d’iPhone aux États-Unis, qui peuvent désormais accéder facilement à l’outil en déplacement avec un compte OpenAI.

Source-147