vendredi, novembre 29, 2024

L’Europe risque d’utiliser la mauvaise définition de l’IA

Une entreprise pourrait choisir l’architecture système la plus obscure et non transparente disponible, prétendant (à juste titre, selon cette mauvaise définition) qu’il s’agissait de « plus d’IA », afin d’accéder au prestige, aux investissements et au soutien gouvernemental que cette revendication implique. Par exemple, un réseau de neurones profonds géant pourrait être chargé non seulement d’apprendre une langue, mais également de déformer cette langue sur plusieurs critères, par exemple la race, le sexe et la classe socio-économique. Alors peut-être que la société pourrait également se faufiler un peu pour la faire également pointer vers les annonceurs ou les partis politiques préférés. Cela s’appellerait AI dans l’un ou l’autre système, donc cela relèverait certainement de la compétence de l’AIA. Mais est-ce que quelqu’un serait vraiment capable de dire de manière fiable ce qui se passait avec ce système ? Selon la définition originale de l’AIA, un moyen plus simple de faire le travail serait également considéré comme «IA», et il n’y aurait donc pas ces mêmes incitations à utiliser des systèmes intentionnellement compliqués.

Bien sûr, selon la nouvelle définition, une entreprise pourrait également passer à une IA plus traditionnelle, comme des systèmes basés sur des règles ou des arbres de décision (ou simplement des logiciels conventionnels). Et puis il serait libre de faire ce qu’il veut – ce n’est plus de l’IA, et il n’y a plus de réglementation spéciale pour vérifier comment le système a été développé ou où il est appliqué. Les programmeurs peuvent coder de mauvaises instructions corrompues qui, délibérément ou par négligence, nuisent à des individus ou à des populations. Dans le cadre du nouveau projet de présidence, ce système ne bénéficierait plus des procédures de surveillance et de responsabilité supplémentaires qu’il aurait dans le cadre du projet initial d’AIA. Soit dit en passant, cette voie évite également de s’emmêler avec les ressources supplémentaires d’application de la loi que l’AIA a mandatées pour que les États membres financent l’application de ses nouvelles exigences.

Limiter les domaines d’application de l’AIA en compliquant et en restreignant la définition de l’IA est vraisemblablement une tentative de réduire les coûts de ses protections pour les entreprises et les gouvernements. Bien sûr, nous voulons minimiser les coûts de toute réglementation ou gouvernance – les ressources publiques et privées sont toutes deux précieuses. Mais l’AIA le fait déjà, et le fait d’une manière meilleure et plus sûre. Comme initialement proposé, l’AIA déjà ne s’applique qu’aux systèmes dont nous devons vraiment nous préoccuper, ce qui est normal.

Dans la forme originale de l’AIA, la grande majorité de l’IA – comme celle des jeux informatiques, des aspirateurs ou des applications standard pour téléphones intelligents – est laissée à la législation ordinaire sur les produits et ne recevrait aucune nouvelle charge réglementaire. Ou cela n’exigerait que des obligations de transparence de base; par exemple, un chatbot doit identifier qu’il s’agit d’une IA, et non d’une interface avec un véritable humain.

La partie la plus importante de l’AIA est celle où elle décrit les types de systèmes potentiellement dangereux à automatiser. Il ne réglemente alors que ceux-ci. Les deux versions de l’AIA indiquent qu’il existe un petit nombre de contextes dans lesquels aucun système d’IA ne devrait jamais fonctionner, par exemple, identifier les individus dans les espaces publics à partir de leurs données biométriques, créer des scores de crédit social pour les gouvernements ou produire des jouets qui encouragent les comportements dangereux. ou l’automutilation. Ceux-ci sont tous simplement interdits, plus ou moins. Il y a beaucoup plus de domaines d’application pour lesquels l’utilisation de l’IA nécessite une surveillance gouvernementale et humaine : des situations affectant les résultats qui changent la vie humaine, comme décider qui obtient quels services gouvernementaux, ou qui entre dans quelle école ou obtient quel prêt. Dans ces contextes, les résidents européens auraient certains droits, et leurs gouvernements certaines obligations, pour s’assurer que les artefacts ont été construits et fonctionnent correctement et justement.

Élaboration de la Loi sur l’AIA ne pas s’appliquer à certains des systèmes dont nous devons nous préoccuper – comme le projet de « compromis présidentiel » pourrait le faire – laisserait la porte ouverte à la corruption et à la négligence. Cela rendrait également légales les choses dont la Commission européenne essayait de nous protéger, comme les systèmes de crédit social et la reconnaissance faciale généralisée dans les espaces publics, tant qu’une entreprise pourrait prétendre que son système n’était pas une « vraie » IA.

Source-144

- Advertisement -

Latest