Un groupe de consommateurs demande à l’UE d’enquêter de toute urgence sur « les risques de l’IA générative »

Les régulateurs européens sont à la croisée des chemins sur la manière dont l’IA sera réglementée – et finalement utilisée à des fins commerciales et non commerciales – dans la région, et aujourd’hui le plus grand groupe de consommateurs de l’UE, le BEUC, a pesé avec sa propre position : arrêtez de vous traîner les pieds, et « lancer des enquêtes urgentes sur les risques de l’IA générative » maintenant, a-t-il déclaré.

« L’IA générative telle que ChatGPT a ouvert toutes sortes de possibilités pour les consommateurs, mais il existe de sérieuses inquiétudes quant à la façon dont ces systèmes pourraient tromper, manipuler et nuire aux gens. Ils peuvent également être utilisés pour diffuser de la désinformation, perpétuer des préjugés existants qui amplifient la discrimination ou être utilisés à des fins frauduleuses », a déclaré Ursula Pachl, directrice générale adjointe du BEUC, dans un communiqué. «Nous appelons les autorités de sécurité, de données et de protection des consommateurs à ouvrir des enquêtes maintenant et à ne pas attendre sans rien faire que toutes sortes de dommages aux consommateurs se soient produits avant d’agir. Ces lois s’appliquent à tous les produits et services, qu’ils soient alimentés par l’IA ou non, et les autorités doivent les appliquer.

Le BEUC, qui représente les organisations de consommateurs dans 13 pays de l’UE, a lancé l’appel pour coïncider avec un rapport publié aujourd’hui par l’un de ses membres, Forbrukerrådet en Norvège.

Ce rapport norvégien est sans équivoque dans sa position : l’IA cause des dommages aux consommateurs (le titre du rapport dit tout : « Ghost in the Machine : remédier aux dommages causés aux consommateurs par l’IA générative ») et pose de nombreux problèmes.

Alors que certains technologues ont tiré la sonnette d’alarme sur l’IA en tant qu’instrument d’extinction humaine, le débat en Europe a plutôt porté sur les impacts de l’IA dans des domaines tels que l’accès équitable aux services, la désinformation et la concurrence.

Il souligne, par exemple, comment « certains développeurs d’IA, y compris les grandes entreprises technologiques », ont fermé les systèmes à tout examen externe, ce qui rend difficile de voir comment les données sont collectées ou les algorithmes fonctionnent ; le fait que certains systèmes produisent aussi allègrement des informations erronées qu’ils corrigent des résultats, les utilisateurs n’en sachant souvent rien ; Une IA conçue pour induire en erreur ou manipuler les utilisateurs ; le problème de biais basé sur les informations qui sont introduites dans un modèle d’IA particulier ; et la sécurité, en particulier comment l’IA pourrait être militarisée pour escroquer les gens ou violer les systèmes.

Bien que la sortie du ChatGPT d’OpenAI ait définitivement placé l’IA et le potentiel de sa portée dans la conscience publique, l’accent mis par l’UE sur l’impact de l’IA n’est pas nouveau. Il a déclaré débattre des questions de «risque» en 2020, bien que ces efforts initiaux aient été jetés comme base pour accroître la «confiance» dans la technologie.

En 2021, il parlait plus spécifiquement d’applications d’IA «à haut risque», et quelque 300 organisations se sont regroupées pour peser et plaider en faveur de l’interdiction complète de certaines formes d’IA.

Les sentiments sont devenus plus critiques au fil du temps, alors que l’UE applique ses lois à l’échelle régionale. La semaine dernière, la chef de la concurrence de l’UE, Margarethe Vestager, a expliqué en particulier comment l’IA posait des risques de biais lorsqu’elle était appliquée dans des domaines critiques tels que les services financiers tels que les hypothèques et autres demandes de prêt.

Ses commentaires sont intervenus juste après que l’UE a approuvé sa loi officielle sur l’IA, qui divise provisoirement les applications d’IA en catégories telles que les risques inacceptables, élevés et limités, couvrant un large éventail de paramètres pour déterminer dans quelle catégorie elles appartiennent.

La loi sur l’IA, une fois mise en œuvre, sera la première tentative au monde d’essayer de codifier une sorte de compréhension et d’application légale de la manière dont l’IA est utilisée à des fins commerciales et non commerciales.

La prochaine étape du processus consiste pour l’UE à s’engager avec les différents pays de l’UE pour définir la forme finale que prendra la loi – en particulier pour identifier ce qui (et qui) entrerait dans ses catégories et ce qui ne le serait pas. La question sera de savoir dans quelle mesure les différents pays s’entendent. L’UE veut finaliser ce processus d’ici la fin de cette année, a-t-elle déclaré.

« Il est crucial que l’UE rende cette loi aussi étanche que possible pour protéger les consommateurs », a déclaré Pachl dans sa déclaration. « Tous les systèmes d’IA, y compris l’IA générative, doivent être examinés par le public, et les autorités publiques doivent réaffirmer leur contrôle. Les législateurs doivent exiger que la sortie de tout système d’IA générative soit sûre, équitable et transparente pour les consommateurs.

Le BEUC est connu pour intervenir dans les moments critiques et pour lancer des appels influents qui reflètent la direction que les régulateurs prennent en fin de compte. C’était l’une des premières voix, par exemple, contre Google dans les enquêtes antitrust à long terme contre le géant de la recherche et de la téléphonie mobile, retentissant des années avant que des actions ne soient prises contre l’entreprise. Cet exemple, cependant, souligne autre chose : le débat sur l’IA et ses impacts, et le rôle que la réglementation pourrait y jouer, sera probablement long.

Source-146