L’une des premières choses que nous avons remarquées lors de nos tests de ChatGPT était la façon dont les sources et les citations utilisées par le chatbot AI n’étaient pas souvent révélées à moins d’y être invitées.
Il s’agit d’un problème plus vaste au sein de l’industrie de l’IA et qui suscite la colère des maisons d’édition et des professionnels de la création. La plupart d’entre nous conviendraient qu’il est à la fois important de fournir des informations exactes et nécessaire de donner du crédit à ceux qui les ont créées.
L’Union européenne est actuellement en train de rédiger le premier règlement complet régissant le déploiement de l’IA (s’ouvre dans un nouvel onglet). Et, l’une des règles les plus récentes écrites dans le document est que les fabricants d’outils d’intelligence artificielle seront tenus de divulguer tout matériel protégé par le droit d’auteur qu’ils ont utilisé pour le construire.
Selon le projet de texte vu par le Wall Street Journal (s’ouvre dans un nouvel onglet)les développeurs de modèles d’IA génératifs devraient publier un « résumé suffisamment détaillé » du matériel protégé par le droit d’auteur qu’ils ont utilisé dans le cadre de leur création.
ChatGPT, Google Bard et d’autres grands modèles de langage analysent de grandes quantités de données (soit sur le Web, soit via des ensembles de données organisés) pour fournir leurs réponses. À mesure que les capacités de ces outils d’intelligence artificielle s’intensifient pour, par exemple, inclure la génération d’images, la quantité de données de contenu récupérées augmente également. Lorsque cela s’étend à des choses comme les paroles de chansons ou le code informatique, beaucoup de gens pensent que cela frôle la violation du droit d’auteur.
Montrez vos sources
En fait, en novembre dernier, OpenAI (le créateur de ChatGPT) a fait l’objet d’un recours collectif intenté par deux plaignants anonymes affirmant qu’il avait mal monétisé le code open source de GitHub pour entraîner le système.
On ne sait pas encore quel sera l’impact du règlement sur le développement de l’IA, ni comment il sera mis en œuvre, mais les législateurs européens espèrent qu’il servira de modèle pour la politique d’IA dans d’autres parties du monde. L’UE déclare que sa politique en matière d’IA conduira à « de nouvelles normes mondiales pour s’assurer que l’IA peut être digne de confiance » de la même manière que sa loi GDPR est devenue une référence pour les règles de confidentialité.
Le projet de loi lui-même n’a pas été finalisé car les différents États membres de l’UE doivent s’entendre pour qu’il soit adopté. Cependant, ils visent à faire confirmer et adopter une version finale plus tard cette année.