Pour le meilleur ou pour le pire, l’intelligence artificielle est là pour rester. C’est en fait une sous-estimation, car l’industrie de l’IA est en plein essor. Demandez simplement à Nvidia. Les industries du monde entier dépensent des milliards pour trouver des moyens d’intégrer des modèles d’IA dans leurs activités. Mais si l’IA a le potentiel de stimuler la productivité, d’accélérer l’innovation et de devenir un outil utile pour les utilisateurs finaux, la politique mondiale n’a pas encore rattrapé son retard pour répondre aux préoccupations croissantes.
L’Autorité britannique de la concurrence et des marchés (CMA) a publié un rapport suite à un examen des modèles de base (FM). Il présente une série de principes qui, espère-t-il, mèneront à des mesures protégeant les consommateurs et favorisant une concurrence saine et un développement responsable de l’IA.
Les sept principes directeurs clés décrits dans le rapport sont la responsabilité, l’accès, la diversité, le choix, la flexibilité, l’utilisation équitable et la transparence. Ce sont tous des objectifs louables. Mais c’est ce dernier point qui mérite d’être souligné. La morale et l’éthique peuvent-elles être décomposées en uns et en zéros ?
Sarah Cardell, PDG de la CMA, a déclaré : « Le rôle de la CMA est d’aider à façonner ces marchés de manière à favoriser une forte concurrence et une protection efficace des consommateurs, en offrant les meilleurs résultats aux particuliers et aux entreprises à travers le Royaume-Uni ».
Il s’agit là d’objectifs importants, et l’AMC mérite des félicitations pour son approche proactive. Mais le rapport mentionne que sa portée est limitée. Des questions clés telles que la protection de la propriété intellectuelle, la diffusion de fausses informations, le potentiel de fraude, la nécessité de protéger et de sécuriser les données n’ont pas encore été abordées. Cela montre tout le chemin qu’il reste à parcourir pour garantir que les modèles d’IA ne deviennent pas des outils à des fins néfastes.
Les IA que le public connaît le mieux sont les grands modèles linguistiques (LLM) comme ChatGPT. Il s’agit essentiellement d’une énorme base de données de données extraites d’Internet, et toutes ces données ne sont pas légitimes. Certaines d’entre elles peuvent être exclusives, d’autres peuvent être illégales et d’autres encore ne sont que de simples déchets. Un cadre réglementaire complet est nécessaire, mais cela sera certainement plus facile à dire qu’à faire.
Presque tous les jours, nous entendons des reportages selon lesquels quelqu’un a perdu toutes ses économies. Les escroqueries et les fraudes sont monnaie courante. Les logiciels malveillants, les ransomwares et d’autres choses comme l’usurpation d’identité sont tous répandus. Certains escrocs IA malveillants pourraient être utilisés à toutes sortes de fins merdiques. Espérons que les grands acteurs de l’industrie fassent plus que simplement parler de garantir que leurs modèles ne peuvent pas être utilisés à des fins malveillantes. Vous savez simplement que les salauds responsables du fléau des logiciels malveillants cherchent des moyens d’exploiter l’IA, bon sang.
Le monde est nouveau et les législateurs doivent prendre les devants. C’est plus facile à dire qu’à faire, je suppose, mais il est bon de voir l’AMC adopter une approche proactive. Maintenant, tout ce dont nous avons besoin, c’est d’une certaine protection contre l’extinction mondiale !
L’IA qui imite Jésus est une IA que j’éviterai bien.