La politique d’OpenAI n’interdit plus explicitement l’utilisation de sa technologie à des fins « militaires et de guerre »

Il y a quelques jours à peine, la page des politiques d’utilisation d’OpenAI indique explicitement que l’entreprise interdit l’utilisation de sa technologie à des fins « militaires et de guerre ». Cette ligne a depuis été supprimée. Comme l’a remarqué pour la première fois L’interception, la société a mis à jour la page le 10 janvier « pour être plus claire et fournir des conseils plus spécifiques au service », comme l’indique le journal des modifications. Il interdit toujours l’utilisation de ses grands modèles de langage (LLM) pour tout ce qui peut causer des dommages, et met en garde les gens contre l’utilisation de ses services pour « développer ou utiliser des armes ». Cependant, la société a supprimé les termes relatifs à « l’armée et la guerre ».

Même si nous n’avons pas encore vu ses implications concrètes, ce changement de formulation intervient au moment même où les agences militaires du monde entier manifestent leur intérêt pour l’utilisation de l’IA. « Compte tenu de l’utilisation de systèmes d’IA pour cibler des civils à Gaza, c’est un moment important pour prendre la décision de supprimer les mots » militaire et de guerre « de la politique d’utilisation autorisée d’OpenAI », Sarah Myers West, directrice générale d’AI Now. Institute, a déclaré à la publication.

La mention explicite de « militaire et de guerre » dans la liste des utilisations interdites indiquait qu’OpenAI ne pouvait pas travailler avec des agences gouvernementales comme le ministère de la Défense, qui propose généralement des offres lucratives aux sous-traitants. Pour le moment, l’entreprise ne dispose pas d’un produit qui pourrait directement tuer ou causer des dommages physiques à quiconque. Mais comme L’interception a déclaré que sa technologie pourrait être utilisée pour des tâches telles que l’écriture de code et le traitement des commandes d’achat pour des choses qui pourraient être utilisées pour tuer des gens.

Interrogé sur le changement de formulation de sa politique, le porte-parole d’OpenAI, Niko Felix, a déclaré à la publication que l’entreprise « visait à créer un ensemble de principes universels qui soient à la fois faciles à retenir et à appliquer, d’autant plus que nos outils sont désormais utilisés à l’échelle mondiale par des utilisateurs quotidiens qui peut désormais également créer des GPT. » Felix a expliqué qu’« un principe tel que « Ne pas nuire à autrui » est vaste mais facile à comprendre et pertinent dans de nombreux contextes », ajoutant qu’OpenAI « a spécifiquement cité les armes et les blessures infligées à autrui comme exemples clairs ». Cependant, le porte-parole aurait refusé de préciser si l’interdiction de l’utilisation de sa technologie pour « nuire » à autrui incluait tous les types d’utilisation militaire en dehors du développement d’armes.

Source-145