Les responsables américains prennent de nouvelles mesures pour établir des règles pour les systèmes d’IA comme ChatGPT. L’Administration nationale des télécommunications et de l’information (NTIA) sollicite les commentaires du public sur d’éventuelles réglementations qui tiennent les créateurs d’IA responsables. Les mesures aideront idéalement l’administration Biden à s’assurer que ces modèles fonctionnent comme promis « sans causer de dommages », selon la NTIA.
Bien que la demande soit ouverte, la NTIA suggère des commentaires sur des domaines tels que les incitations à une IA digne de confiance, les méthodes de test de sécurité et la quantité d’accès aux données nécessaires pour évaluer les systèmes. L’agence se demande également si des stratégies différentes pourraient être nécessaires pour certains domaines, comme la santé.
Les commentaires sont ouverts sur la mesure de responsabilisation de l’IA jusqu’au 10 juin. La NTIA considère l’élaboration de règles comme potentiellement vitale. Il y a déjà un « nombre croissant d’incidents » où l’IA a fait des dégâts, dit le surveillant. Les règles pourraient non seulement empêcher la répétition de ces incidents, mais aussi minimiser les risques de menaces qui pourraient n’être que théoriques.
ChatGPT et des modèles d’IA génératifs similaires ont déjà été liés à des fuites de données sensibles et à des violations de droits d’auteur, et ont fait craindre des campagnes automatisées de désinformation et de logiciels malveillants. Il existe également des préoccupations fondamentales concernant l’exactitude et le biais. Alors que les développeurs s’attaquent à ces problèmes avec des systèmes plus avancés, les chercheurs et les leaders technologiques ont été suffisamment inquiets pour demander une pause de six mois sur le développement de l’IA afin d’améliorer la sécurité et de répondre aux questions éthiques.
L’administration Biden n’a pas pris de position définitive sur les risques associés à l’IA. Le président Biden a discuté du sujet avec des conseillers la semaine dernière, mais a déclaré qu’il était trop tôt pour savoir si la technologie était dangereuse. Avec la décision de la NTIA, le gouvernement est plus proche d’une position ferme – qu’il pense ou non que l’IA est un problème majeur.