Springer Nature, le plus grand éditeur universitaire au monde, a clarifié ses politiques sur l’utilisation des outils d’écriture d’IA dans les articles scientifiques. L’entreprise annoncé cette semaine ce logiciel comme ChatGPT ne peut pas être crédité en tant qu’auteur dans des articles publiés dans ses milliers de revues. Cependant, Springer dit qu’il n’a aucun problème avec les scientifiques utilisant l’IA pour aider à écrire ou générer des idées de recherche, tant que cette contribution est correctement divulguée par les auteurs.
« Nous nous sommes sentis obligés de clarifier notre position : pour nos auteurs, pour nos éditeurs et pour nous-mêmes », a déclaré Magdalena Skipper, rédactrice en chef de la publication phare de Springer Nature, La natureraconte Le bord. « Cette nouvelle génération d’outils LLM – y compris ChatGPT – a vraiment explosé dans la communauté, qui est à juste titre excitée et joue avec eux, mais [also] les utiliser d’une manière qui va au-delà de la façon dont ils peuvent réellement être utilisés actuellement.
ChatGPT et les grands modèles de langage (LLM) antérieurs ont déjà été nommés auteurs dans un petit nombre d’articles publiés, de prépublications et d’articles scientifiques. Cependant, la nature et le degré de contribution de ces outils varient au cas par cas.
Dans un avis article publié dans la revue Oncoscience, ChatGPT est utilisé pour plaider en faveur de la prise d’une certaine drogue dans le contexte du pari de Pascal, avec le texte généré par l’IA clairement étiqueté. Mais dans un papier préimprimé examinant la capacité du bot à réussir l’examen de licence médicale des États-Unis (USMLE), la seule reconnaissance de la contribution du bot est une phrase indiquant que le programme « a contribué à la rédaction de plusieurs sections de ce manuscrit ».
Créditer ChatGPT en tant qu’auteur est « absurde » et « profondément stupide », selon certains chercheurs
Dans ce dernier document préimprimé, il n’y a pas d’autres détails sur comment et où ChatGPT a été utilisé pour générer du texte. (Le bord a contacté les auteurs mais n’a pas eu de réponse à temps pour la publication.) Cependant, le PDG de la société qui a financé la recherche, la startup de soins de santé Ansible Health, a soutenu que le bot avait apporté des contributions importantes. « La raison pour laquelle nous avons répertorié [ChatGPT] en tant qu’auteur, c’est parce que nous pensons qu’il a réellement contribué intellectuellement au contenu de l’article et pas seulement en tant que sujet de son évaluation », a déclaré Jack Po, PDG d’Ansible Health. Raconté Futurisme.
La réaction de la communauté scientifique aux articles créditant ChatGPT en tant qu’auteur a été principalement négative, avec les utilisateurs des médias sociaux appeler la décision dans le cas USMLE « absurde », « idiot » et « profondément stupide ».
Les arguments contre la paternité de l’IA sont que le logiciel ne peut tout simplement pas remplir les fonctions requises, comme l’expliquent Skipper et Springer Nature. « Lorsque nous pensons à la paternité d’articles scientifiques, d’articles de recherche, nous ne pensons pas seulement à les rédiger », déclare Skipper. « Il y a des responsabilités qui vont au-delà de la publication, et certainement pour le moment, ces outils d’IA ne sont pas capables d’assumer ces responsabilités. »
Un logiciel ne peut pas être véritablement responsable d’une publication, il ne peut revendiquer des droits de propriété intellectuelle pour son travail et ne peut pas correspondre avec d’autres scientifiques et avec la presse pour expliquer et répondre à des questions sur son travail.
S’il existe un large consensus sur le fait de créditer l’IA en tant qu’auteur, cependant, il y a moins de clarté sur l’utilisation des outils d’IA pour écrivez un papier, même avec une reconnaissance appropriée. Cela est en partie dû à des problèmes bien documentés avec la sortie de ces outils. Les logiciels d’écriture d’IA peuvent amplifier les préjugés sociaux comme le sexisme et le racisme et ont tendance à produire des « conneries plausibles » – des informations incorrectes présentées comme des faits. (Voir, par exemple, Crumpel’utilisation récente d’outils d’intelligence artificielle pour écrire des articles. La publication a ensuite trouvé des erreurs dans plus de la moitié de celles publiées.)
C’est à cause de problèmes comme ceux-ci que certaines organisations ont interdit ChatGPT, y compris les écoles, les collèges et les sites qui dépendent du partage d’informations fiables, comme la programmation du référentiel de questions-réponses StackOverflow. Plus tôt ce mois-ci, une conférence universitaire de haut niveau sur l’apprentissage automatique a interdit l’utilisation de tous les outils d’IA pour rédiger des articles, bien qu’elle ait déclaré que les auteurs pouvaient utiliser ces logiciels pour « peaufiner » et « éditer » leur travail. Exactement où tracer la ligne entre l’écriture et l’édition est délicat, mais pour Springer Nature, ce cas d’utilisation est également acceptable.
« Notre politique est assez claire à ce sujet : nous n’interdisons pas leur utilisation comme outil de rédaction d’un article », a déclaré Skipper. Le bord. « Ce qui est fondamental, c’est qu’il y ait de la clarté. À propos de la façon dont un document est assemblé et de ce [software] est utilisé. Nous avons besoin de transparence, car cela est au cœur même de la façon dont la science doit être faite et communiquée. »
Ceci est particulièrement important étant donné le large éventail d’applications pour lesquelles l’IA peut être utilisée. Les outils d’IA peuvent non seulement générer et paraphraser du texte, mais aussi itérer la conception d’expériences ou être utilisés pour faire rebondir des idées, comme un partenaire de laboratoire de machines. Des logiciels alimentés par l’IA comme Semantic Scholar peuvent être utilisés pour rechercher des documents de recherche et résumer leur contenu, et Skipper note qu’une autre opportunité consiste à utiliser des outils d’écriture d’IA pour aider les chercheurs dont l’anglais n’est pas la langue maternelle. « Cela peut être un outil de mise à niveau de ce point de vue », dit-elle.
Skipper dit que l’interdiction des outils d’IA dans le travail scientifique serait inefficace. « Je pense que nous pouvons affirmer sans risque que les interdictions pures et simples de quoi que ce soit ne fonctionnent pas », dit-elle. Au lieu de cela, dit-elle, la communauté scientifique – y compris les chercheurs, les éditeurs et les organisateurs de conférences – doit se réunir pour élaborer de nouvelles normes de divulgation et des garde-fous pour la sécurité.
« Il nous incombe, en tant que communauté, de nous concentrer sur les utilisations positives et le potentiel, puis de réglementer et de limiter les abus potentiels », déclare Skipper. « Je suis optimiste que nous pouvons le faire. »