Mercredi, la célèbre revue scientifique Nature a annoncé dans un éditorial qu’elle ne publierait pas d’images ou de vidéos créées à l’aide d’outils d’IA générative. L’interdiction intervient au milieu des préoccupations de la publication concernant l’intégrité de la recherche, le consentement, la confidentialité et la protection de la propriété intellectuelle, alors que les outils d’IA générative imprègnent de plus en plus le monde de la science et de l’art.
Fondée en novembre 1869, Nature publie des recherches évaluées par des pairs dans diverses disciplines universitaires, principalement en science et technologie. C’est l’une des revues scientifiques les plus citées et les plus influentes au monde.
Nature affirme que sa décision récente sur les illustrations d’IA fait suite à des mois de discussions et de consultations intenses suscitées par la popularité croissante et les capacités avancées d’outils d’IA génératifs tels que ChatGPT et Midjourney.
« En dehors des articles spécifiquement consacrés à l’IA, Nature ne publiera aucun contenu dans lequel des photographies, des vidéos ou des illustrations ont été créées entièrement ou partiellement à l’aide de l’IA générative, du moins dans un avenir prévisible », écrit la publication dans un article attribué à lui-même.
La publication considère que la question relève de ses directives éthiques couvrant l’intégrité et la transparence dans ses travaux publiés, et cela inclut la possibilité de citer des sources de données dans les images :
« Pourquoi interdisons-nous l’utilisation de l’IA générative dans le contenu visuel ? En fin de compte, c’est une question d’intégrité. Le processus de publication – en ce qui concerne à la fois la science et l’art – est étayé par un engagement partagé envers l’intégrité. Cela inclut la transparence . En tant que chercheurs, éditeurs et éditeurs, nous avons tous besoin de connaître les sources des données et des images, afin que celles-ci puissent être vérifiées comme exactes et vraies. Les outils d’IA générative existants ne permettent pas d’accéder à leurs sources pour qu’une telle vérification puisse avoir lieu.
En conséquence, tous les artistes, cinéastes, illustrateurs et photographes mandatés par Nature « seront invités à confirmer qu’aucun des travaux qu’ils soumettent n’a été généré ou augmenté à l’aide de l’IA générative ».
Nature mentionne également que la pratique consistant à attribuer des travaux existants, un principe fondamental de la science, constitue un autre obstacle à l’utilisation éthique d’illustrations d’IA génératives dans une revue scientifique. L’attribution des illustrations générées par l’IA est difficile car les images émergent généralement synthétisées à partir de millions d’images introduites dans un modèle d’IA.
Ce fait conduit également à des problèmes de consentement et d’autorisation, en particulier liés à l’identification personnelle ou aux droits de propriété intellectuelle. Ici aussi, Nature dit que l’IA générative est insuffisante, utilisant régulièrement des œuvres protégées par le droit d’auteur pour la formation sans obtenir les autorisations nécessaires. Et puis il y a la question des mensonges : la publication cite les deepfakes comme accélérant la propagation de fausses informations.
Cependant, Nature n’est pas totalement contre l’utilisation d’outils d’IA. La revue permettra toujours l’inclusion de texte produit avec l’aide d’IA générative comme ChatGPT, étant donné que cela se fait avec les mises en garde appropriées. L’utilisation de ces outils de grand modèle de langage (LLM) doit être explicitement documentée dans la section des méthodes ou des remerciements d’un article. De plus, les sources de toutes les données, même celles générées avec l’aide de l’IA, doivent être fournies par les auteurs. La revue a cependant fermement déclaré qu’aucun outil LLM ne sera reconnu comme auteur d’un article de recherche.