De nouvelles règles contrôlant la manière dont l’intelligence artificielle peut être développée ont été dévoilées par les gouvernements du monde entier. Les nouvelles directives ont été publiées dans l’espoir d’empêcher que la technologie soit utilisée d’une manière qui pourrait nuire à l’humanité.
Produits par l’Agence américaine de cybersécurité et de sécurité des infrastructures (CISA) et le Centre national de cybersécurité (NCSC) du Royaume-Uni, ils s’appuient sur des engagements volontaires antérieurs obtenus par l’administration Biden plus tôt cette année.
L’accord de 20 pages a été signé par 18 pays dont les entreprises construisent des systèmes d’IA. Il exhorte ces entreprises à développer et déployer la technologie de manière à protéger les clients et le public contre toute utilisation abusive.
Large concentration sur le risque
Les nouvelles règles constituent davantage un cadre non contraignant pour surveiller les systèmes d’IA contre les abus. Ils incluent des suggestions pour protéger les données utilisées dans la formation des modèles et garantir la sécurité des informations.
Bien que ces mesures soient en grande partie volontaires, on suppose que si les entreprises ne parviennent pas à se mettre d’accord ou laissent leurs modèles tomber entre de mauvaises mains ou être utilisés à mauvais escient, elles pourraient être confrontées à une réglementation plus stricte et plus restrictive à l’avenir.
S’adressant à Reuters, Jen Easterly, de l’Agence américaine de cybersécurité et de sécurité des infrastructures, a déclaré que l’obtention d’un accord mondial était essentielle au succès des lignes directrices.
« C’est la première fois que nous constatons une affirmation selon laquelle ces capacités ne devraient pas se limiter à des fonctionnalités intéressantes et à la rapidité avec laquelle nous pouvons les commercialiser ou à la manière dont nous pouvons être compétitifs pour réduire les coûts », a-t-elle déclaré.
Sécurisé dès la conception
Alors que les discussions mondiales sur la sécurité de l’IA ont porté sur le risque de la superintelligence et des modèles de base à haut risque, les nouvelles lignes directrices couvrent également la génération actuelle et l’IA plus étroite. L’accent est mis sur la protection des données et la prévention des utilisations abusives, plutôt que sur la fonctionnalité.
Les directives couvrent quatre domaines clés : la conception sécurisée, le développement sécurisé, le déploiement sécurisé, ainsi que l’exploitation et la maintenance sécurisées.
Ils ont souligné que les entreprises qui construisent des modèles d’IA s’approprient les résultats de sécurité pour leurs clients, adoptent une transparence et une responsabilité radicales, et construisent une structure organisationnelle et un leadership de sorte que la « sécurité dès la conception » soit une priorité majeure.
Les systèmes sécurisés profitent aux utilisateurs
Toby Lewis, responsable mondial de l’analyse des menaces chez Darktrace, a déclaré que garantir la sécurité des données et des modèles d’IA contre les attaques devrait être une condition préalable pour tout développeur.
« Ceux qui construisent l’IA devraient aller plus loin et instaurer la confiance en accompagnant les utilisateurs dans la manière dont leur IA parvient à ses réponses. Avec la sécurité et la confiance, nous réaliserons les avantages de l’IA plus rapidement et pour un plus grand nombre de personnes. »