vendredi, décembre 27, 2024

Les États-Unis, la Grande-Bretagne et d’autres pays signent des lignes directrices sur l’IA « sécurisées dès la conception »

Les États-Unis, le Royaume-Uni, l’Australie et 15 autres pays ont publié des lignes directrices mondiales pour aider à protéger les modèles d’IA contre toute falsification, exhortant les entreprises à rendre leurs modèles « sécurisés dès leur conception ».

Le 26 novembre, les 18 pays ont publié un document de 20 pages document décrivant comment les entreprises d’IA devraient gérer leur cybersécurité lors du développement ou de l’utilisation de modèles d’IA, car elles affirment que « la sécurité peut souvent être une considération secondaire » dans un secteur en évolution rapide.

Les lignes directrices consistaient principalement en des recommandations générales telles que le maintien d’une surveillance étroite sur l’infrastructure du modèle d’IA, la surveillance de toute falsification des modèles avant et après leur publication et la formation du personnel aux risques de cybersécurité.

Certaines questions controversées dans le domaine de l’IA n’ont pas été mentionnées, notamment les contrôles possibles autour de l’utilisation de modèles de génération d’images et de contrefaçons profondes ou des méthodes de collecte de données et de leur utilisation dans les modèles de formation – une question qui a vu plusieurs sociétés d’IA poursuivies en justice pour violation du droit d’auteur. réclamations.

« Nous sommes à un point d’inflexion dans le développement de l’intelligence artificielle, qui pourrait bien être la technologie la plus importante de notre époque », a déclaré le secrétaire américain à la Sécurité intérieure, Alejandro Mayorkas. dit dans un rapport. « La cybersécurité est essentielle pour créer des systèmes d’IA sûrs, sécurisés et dignes de confiance. »

En rapport: La coalition technologique européenne met en garde contre une réglementation excessive de l’IA avant la finalisation de la loi européenne sur l’IA

Les lignes directrices font suite à d’autres initiatives gouvernementales qui pèsent sur l’IA, notamment la réunion des gouvernements et des entreprises d’IA pour un sommet sur la sécurité de l’IA à Londres au début du mois afin de coordonner un accord sur le développement de l’IA.

Pendant ce temps, l’Union européenne est en train de peaufiner les détails de sa loi sur l’IA qui supervisera l’espace et le président américain Joe Biden a publié en octobre un décret fixant des normes pour la sûreté et la sécurité de l’IA – bien que tous deux aient vu des réticences de la part de l’industrie de l’IA affirmant qu’ils pourraient le faire. étouffer l’innovation.

Parmi les autres cosignataires des nouvelles lignes directrices « sécurisé dès la conception » figurent le Canada, la France, l’Allemagne, Israël, l’Italie, le Japon, la Nouvelle-Zélande, le Nigeria, la Norvège, la Corée du Sud et Singapour. Des sociétés d’IA, notamment OpenAI, Microsoft, Google, Anthropic et Scale AI, ont également contribué à l’élaboration des lignes directrices.

Revue: AI Eye : utilisations réelles de l’IA dans la cryptographie, rival du GPT-4 de Google, avantage de l’IA pour les mauvais employés