Dans le cadre de sa quête continue d’injecter l’IA générative dans tous ses produits, Microsoft a présenté aujourd’hui Security Copilot, un nouvel outil qui vise à « résumer » et à « donner un sens » aux renseignements sur les menaces.
Dans une annonce éclairant les détails, Microsoft a présenté Security Copilot comme un moyen de corréler les données sur les attaques tout en hiérarchisant les incidents de sécurité. D’innombrables outils le font déjà. Mais Microsoft affirme que Security Copilot, qui s’intègre à son portefeuille de produits de sécurité existant, est amélioré par les modèles d’IA génératifs d’OpenAI, en particulier le GPT-4 générateur de texte récemment lancé.
« Faire progresser l’état de la sécurité nécessite à la fois des personnes et de la technologie – l’ingéniosité humaine associée aux outils les plus avancés qui aident à appliquer l’expertise humaine à la vitesse et à l’échelle », a déclaré le vice-président exécutif de Microsoft Security, Charlie Bell, dans un communiqué. « Avec Security Copilot, nous construisons un avenir où chaque défenseur dispose des outils et des technologies nécessaires pour rendre le monde plus sûr. »
Curieusement, Microsoft n’a pas divulgué exactement comment Security Copilot intègre GPT-4. Au lieu de cela, il a mis en évidence un modèle personnalisé formé – peut-être basé sur GPT-4 – alimentant Security Copilot qui « intègre un ensemble croissant de compétences spécifiques à la sécurité » et « déploie des compétences et des requêtes » liées à la cybersécurité.
Microsoft a souligné que le modèle n’est pas formé sur les données des clients, répondant à une critique courante des services basés sur un modèle de langage.
Ce modèle personnalisé aide à « capturer ce que d’autres approches pourraient manquer », affirme Microsoft, en répondant aux questions liées à la sécurité, en conseillant sur le meilleur plan d’action et en résumant les événements et les processus. Mais étant donné les tendances mensongères des modèles de génération de texte, on ne sait pas à quel point un tel modèle pourrait être efficace en production.
Microsoft lui-même admet que le modèle personnalisé de copilote de sécurité ne fonctionne pas toujours correctement. « Le contenu généré par l’IA peut contenir des erreurs », écrit la société. « Alors que nous continuons à apprendre de ces interactions, nous ajustons ses réponses pour créer des réponses plus cohérentes, pertinentes et utiles. »
Espérons que ces erreurs ne finissent pas par aggraver un mauvais problème de sécurité.