La Force spatiale américaine a temporairement interdit à son personnel d’utiliser des outils artificiels génératifs pendant qu’il était en service pour protéger les données gouvernementales, selon des informations.
Les membres de la Space Force ont été informés qu’ils « ne sont pas autorisés » à utiliser les outils d’IA générative basés sur le Web – pour créer du texte, des images et d’autres médias – à moins d’être spécifiquement approuvés, selon à un rapport du 12 octobre de Bloomberg, citant un mémorandum adressé au Guardian Workforce (membres de la Space Force) le 29 septembre.
« L’IA générative » révolutionnera sans aucun doute notre main-d’œuvre et améliorera la capacité de Guardian à fonctionner rapidement « , aurait déclaré Lisa Costa, chef adjointe des opérations spatiales de la Space Force pour la technologie et l’innovation, dans le mémorandum.
Cependant, Costa a évoqué ses inquiétudes concernant les normes actuelles de cybersécurité et de traitement des données, expliquant que l’adoption de l’IA et du modèle de langage étendu (LLM) doit être plus « responsable ».
La Force spatiale des États-Unis est une branche des services spatiaux des forces armées américaines chargée de protéger les intérêts américains et alliés dans l’espace.
L’US Space Force a temporairement interdit l’utilisation d’outils d’intelligence artificielle générative basés sur le Web et des soi-disant grands modèles de langage qui les alimentent, invoquant la sécurité des données et d’autres préoccupations, selon une note consultée par Bloomberg News.https://t.co/Rgy3q8SDCS
-Katrina Manson (@KatrinaManson) 11 octobre 2023
La décision de la Space Force a déjà touché au moins 500 personnes utilisant une plate-forme d’IA générative appelée « Ask Sage », selon Bloomberg, citant les commentaires de Nick Chaillan, ancien directeur des logiciels de l’US Air Force et de l’US Space Force.
Chaillan aurait critiqué la décision de la Space Force. « De toute évidence, cela va nous mettre des années en retard sur la Chine », a-t-il écrit dans un courriel de septembre pour se plaindre à Costa et à d’autres hauts responsables de la défense.
« C’est une décision à très courte vue », a ajouté Chaillan.
Chaillan a noté que la Central Intelligence Agency américaine et ses départements ont développé leurs propres outils d’IA générative qui répondent aux normes de sécurité des données.
En rapport: Protection des données dans le chat IA : ChatGPT est-il conforme aux normes RGPD ?
La crainte que les LLM puissent divulguer des informations privées au public a été une crainte pour certains gouvernements ces derniers mois.
L’Italie a temporairement bloqué le chatbot IA ChatGPT en mars, invoquant des violations présumées des règles de confidentialité des données, avant de revenir sur sa décision environ un mois plus tard.
Les géants de la technologie comme Apple, Amazon et Samsung font également partie des entreprises qui ont également banni ou empêché les employés d’utiliser des outils d’IA de type ChatGPT au travail.
Revue: La manipulation présumée des prix par Musk, le chatbot Satoshi AI et plus encore