Microsoft lance un chatbot IA pour les espions

Microsoft a introduit un modèle d’IA générative basé sur GPT-4, conçu spécifiquement pour les agences de renseignement américaines et fonctionnant sans connexion Internet, selon un rapport de Bloomberg. C’est apparemment la première fois que Microsoft déploie un modèle de langage majeur dans un environnement sécurisé, conçu pour permettre aux agences d’espionnage d’analyser des informations top secrètes sans risques de connectivité et pour permettre des conversations sécurisées avec un chatbot similaire à ChatGPT et Microsoft Copilot. Mais cela peut également induire les responsables en erreur s’il n’est pas utilisé correctement en raison des limitations inhérentes à la conception des modèles de langage d’IA.

GPT-4 est un grand modèle de langage (LLM) créé par OpenAI qui tente de prédire les jetons (fragments de données codées) les plus probables dans une séquence. Il peut être utilisé pour créer du code informatique et analyser des informations. Lorsqu’il est configuré en tant que chatbot (comme ChatGPT), GPT-4 peut alimenter des assistants IA qui conversent à la manière d’un humain. Microsoft dispose d’une licence pour utiliser la technologie dans le cadre d’un accord en échange d’investissements importants réalisés dans OpenAI.

Selon le rapport, le nouveau service d’IA (qui n’a pas encore de nom publiquement) répond à un intérêt croissant des agences de renseignement pour l’utilisation de l’IA générative pour traiter des données classifiées, tout en atténuant les risques de violations de données ou de tentatives de piratage. ChatGPT fonctionne normalement sur des serveurs cloud fournis par Microsoft, ce qui peut introduire des risques de fuite et d’interception de données. Dans le même ordre d’idées, la CIA a annoncé l’année dernière son intention de créer un service de type ChatGPT, mais cet effort de Microsoft serait un projet distinct.

William Chappell, directeur de la technologie chez Microsoft pour les missions stratégiques et la technologie, a noté à Bloomberg que le développement du nouveau système impliquait 18 mois de travail pour modifier un supercalculateur d’IA dans l’Iowa. Le modèle GPT-4 modifié est conçu pour lire les fichiers fournis par ses utilisateurs mais ne peut pas accéder à l’Internet ouvert. « C’est la première fois que nous avons une version isolée – quand isolé signifie qu’elle n’est pas connectée à Internet – et elle se trouve sur un réseau spécial qui n’est accessible que par le gouvernement américain », a déclaré Chappell à Bloomberg.

Le nouveau service a été activé jeudi et est désormais accessible à environ 10 000 personnes dans la communauté du renseignement, prêtes à être testées davantage par les agences compétentes. Il s’agit actuellement de « répondre aux questions », selon Chappell.

L’un des inconvénients majeurs de l’utilisation de GPT-4 pour analyser des données importantes est qu’il peut potentiellement fabuler (inventer) des résumés inexacts, tirer des conclusions inexactes ou fournir des informations inexactes à ses utilisateurs. Étant donné que les réseaux neuronaux d’IA formés ne sont pas des bases de données et fonctionnent sur des probabilités statistiques, ils constituent de mauvaises ressources factuelles à moins d’être augmentés par un accès externe à des informations provenant d’une autre source à l’aide d’une technique telle que la génération augmentée par récupération (RAG).

Compte tenu de cette limitation, il est tout à fait possible que GPT-4 puisse potentiellement désinformer ou induire en erreur les agences de renseignement américaines s’il n’est pas utilisé correctement. Nous ne savons pas quelle surveillance le système aura, quelles sont les limites sur la façon dont il peut ou sera utilisé, ou comment son exactitude peut être vérifiée. Nous avons contacté Microsoft pour commentaires.

Source-147