Le nouveau copilote de sécurité de Microsoft aidera les administrateurs réseau à répondre aux menaces en quelques minutes, et non en quelques jours

L’humanité a fait un pas de plus vers son Fantôme dans la coquille futur mardi avec le dévoilement par Microsoft du nouveau Security Copilot AI lors de son événement inaugural Microsoft Secure. Le système de sécurité automatisé de niveau entreprise est alimenté par le GPT-4 d’OpenAI, s’exécute sur l’infrastructure Azure et promet aux administrateurs la possibilité « d’évoluer à la vitesse et à l’échelle de l’IA ».

Security Copilot est similaire au grand modèle de langage (LLM) qui pilote la fonctionnalité Bing Copilot, mais avec une formation fortement axée sur la sécurité du réseau plutôt que sur les connaissances conversationnelles générales et l’optimisation de la recherche sur le Web. « Ce modèle spécifique à la sécurité intègre à son tour un ensemble croissant de compétences spécifiques à la sécurité et est informé par les renseignements sur les menaces mondiales uniques de Microsoft et plus de 65 000 milliards de signaux quotidiens », a déclaré Vasu Jakkal, vice-président de Microsoft Security, Compliance, Identity et Gestion, a écrit mardi.

« Rien que depuis la pandémie, on assiste à une prolifération incroyable [in corporate hacking incidents] », a déclaré Jakkal Bloomberg. Par exemple, « il faut en moyenne une heure et 12 minutes à un attaquant pour obtenir un accès complet à votre boîte de réception une fois qu’un utilisateur a cliqué sur un lien de phishing. Auparavant, il fallait des mois ou des semaines pour que quelqu’un y ait accès.

Security Copilot devrait servir de multiplicateur de force pour les administrateurs réseau surmenés et sous-soutenus, un dossier qui, selon Microsoft, compte plus de 3 millions de postes ouverts. « Notre modèle cyber-formé ajoute un système d’apprentissage pour créer et affiner de nouvelles compétences », a expliqué Jakkal. « Security Copilot peut alors aider à détecter ce que d’autres approches pourraient manquer et augmenter le travail d’un analyste. Dans un incident typique, cette amélioration se traduit par des gains en termes de qualité de détection, de rapidité de réponse et de capacité à renforcer la sécurité. »

Jakkal anticipe ces nouvelles fonctionnalités permettant aux administrateurs assistés par Copilot de répondre en quelques minutes aux menaces de sécurité émergentes, plutôt que des jours ou des semaines après la découverte de l’exploit. Étant un tout nouveau système d’IA non testé, Security Copilot n’est pas censé fonctionner de manière totalement autonome, un administrateur humain doit rester au courant. « Ce sera un système d’apprentissage », a-t-elle déclaré. « C’est aussi un changement de paradigme : désormais, les humains deviennent les vérificateurs, et l’IA nous fournit les données. »

Pour mieux protéger les secrets commerciaux sensibles et les documents commerciaux internes que Security Copilot est censé protéger, Microsoft s’est également engagé à ne jamais utiliser les données de ses clients pour former les futures itérations de Copilot. Les utilisateurs pourront également dicter leurs paramètres de confidentialité et décider de la quantité de leurs données (ou des informations qui en sont tirées) qui seront partagées. La société n’a pas révélé si, ou quand, ces fonctionnalités de sécurité seront également disponibles pour les utilisateurs individuels.

Source-145