L’Australie demande si l’IA « à haut risque » devrait être interdite lors d’une consultation surprise

Le gouvernement australien a annoncé une consultation soudaine de huit semaines qui cherchera à comprendre si les outils d’intelligence artificielle « à haut risque » doivent être interdits.

D’autres régions, dont les États-Unis, l’Union européenne et la Chine, ont également lancé des mesures pour comprendre et potentiellement atténuer les risques associés au développement rapide de l’IA au cours des derniers mois.

Le 1er juin, le ministre de l’Industrie et des Sciences, Ed Husic annoncé la publication de deux articles — une discussion papier sur « l’IA sûre et responsable en Australie » et un rapport sur l’IA générative du Conseil national des sciences et de la technologie.

Les papiers sont venus à côté d’un consultation qui durera jusqu’au 26 juillet.

Le gouvernement souhaite obtenir des commentaires sur la manière de soutenir «l’utilisation sûre et responsable de l’IA» et discute s’il doit adopter des approches volontaires telles que des cadres éthiques, si une réglementation spécifique est nécessaire ou entreprendre une combinaison des deux approches.

Une carte des options pour une gouvernance potentielle de l’IA avec un spectre allant de « volontaire » à « réglementaire ». Source : Ministère de l’Industrie, des Sciences et des Ressources

Une question dans la consultation demande directement, « si les applications ou technologies d’IA à haut risque devraient être complètement interdites? » et quels critères devraient être utilisés pour identifier ces outils d’IA qui devraient être interdits.

Une ébauche de matrice des risques pour les modèles d’IA a été incluse pour commentaires dans le document de travail complet. Bien que ce ne soit que pour fournir des exemples, il a classé l’IA dans les voitures autonomes comme « risque élevé », tandis qu’un outil d’IA génératif utilisé à des fins telles que la création de dossiers médicaux de patients était considéré comme « risque moyen ».

L’article mettait en évidence l’utilisation « positive » de l’IA dans les secteurs médical, de l’ingénierie et juridique, mais aussi ses utilisations « nuisibles » telles que les outils deepfake, l’utilisation dans la création de fausses nouvelles et cas où les robots IA avaient encouragé l’automutilation.

Le biais des modèles d’IA et les «hallucinations» – des informations absurdes ou fausses générées par les IA – ont également été soulevées comme des problèmes.

En rapport: Le CSO de Microsoft affirme que l’IA aidera les humains à s’épanouir, cosigne quand même la lettre apocalyptique

Le document de travail affirme que l’adoption de l’IA est « relativement faible » dans le pays car elle a « un faible niveau de confiance du public ». Il a également souligné la réglementation de l’IA dans d’autres juridictions et l’interdiction temporaire de ChatGPT par l’Italie.

Pendant ce temps, le rapport du Conseil national des sciences et de la technologie a déclaré que l’Australie possède des capacités d’IA avantageuses en robotique et en vision par ordinateur, mais sa «capacité fondamentale de base en [large language models] et les domaines connexes est relativement faible », et a ajouté :

« La concentration des ressources d’IA générative au sein d’un petit nombre de grandes entreprises technologiques multinationales et principalement basées aux États-Unis présente des potentiels [sic] risques pour l’Australie.

Le rapport discute en outre de la réglementation mondiale de l’IA, donne des exemples de modèles d’IA génératifs et estime qu’ils « auront probablement un impact sur tout, de la banque et de la finance aux services publics, en passant par l’éducation et les industries créatives ».

Oeil IA : 25 000 traders parient sur les sélections d’actions de ChatGPT, l’IA est nul aux lancers de dés, et plus encore