OpenAI modifie sa politique pour autoriser les applications militaires

Dans une mise à jour inopinée de sa politique d’utilisation, OpenAI a ouvert la porte aux applications militaires de ses technologies. Alors que la politique interdisait auparavant l’utilisation de ses produits à des fins « militaires et de guerre », ce langage a désormais disparu, et OpenAI n’a pas nié qu’il était désormais ouvert aux utilisations militaires.

The Intercept a remarqué pour la première fois le changement, qui semble avoir été mis en ligne le 10 janvier.

Des changements inopinés dans le libellé des politiques se produisent assez fréquemment dans le secteur technologique, à mesure que les produits dont ils régissent l’utilisation évoluent et changent, et OpenAI n’est clairement pas différent. En fait, l’annonce récente de la société selon laquelle ses GPT personnalisables par l’utilisateur seraient déployés publiquement parallèlement à une politique de monétisation vaguement articulée a probablement nécessité certains changements.

Mais le passage à une politique non militaire ne peut guère être une conséquence de ce nouveau produit particulier. On ne peut pas non plus prétendre de manière crédible que l’exclusion de « l’armée et de la guerre » est simplement « plus claire » ou « plus lisible », comme le fait une déclaration d’OpenAI concernant la mise à jour. Il s’agit d’un changement de politique substantiel et conséquent, et non d’une reformulation de la même politique.

Vous pouvez lire la politique d’utilisation actuelle ici et l’ancienne ici. Voici des captures d’écran avec les parties pertinentes mises en évidence :

Avant le changement de politique. Crédits images : OpenAI

Après le changement de politique. Crédits images : OpenAI

Évidemment, le tout a été réécrit, même si le fait que ce soit plus lisible ou non est plus une question de goût qu’autre chose. Je pense qu’une liste à puces de pratiques clairement interdites est plus lisible que les directives plus générales par lesquelles elles ont été remplacées. Mais les rédacteurs politiques d’OpenAI pensent clairement le contraire, et si cela leur donne plus de latitude pour interpréter favorablement ou défavorablement une pratique jusqu’ici carrément interdite, ce n’est qu’un effet secondaire agréable. « Ne faites pas de mal aux autres », a déclaré la société dans son communiqué, « est large mais facile à comprendre et pertinent dans de nombreux contextes ». Plus flexible aussi.

Cependant, comme l’a expliqué Niko Felix, représentant d’OpenAI, il existe toujours une interdiction générale de développer et d’utiliser des armes – vous pouvez voir qu’elle était à l’origine et séparément répertoriée « militaire et de guerre ». Après tout, l’armée fait bien plus que fabriquer des armes, et les armes sont fabriquées par d’autres que l’armée.

Et c’est précisément là où ces catégories ne se chevauchent pas que je suppose qu’OpenAI examine de nouvelles opportunités commerciales. Tout ce que fait le ministère de la Défense n’est pas strictement lié à la guerre ; Comme le savent tout universitaire, ingénieur ou politicien, l’establishment militaire est profondément impliqué dans toutes sortes de recherches fondamentales, d’investissements, de fonds pour les petites entreprises et de soutien aux infrastructures.

Les plates-formes GPT d’OpenAI pourraient être d’une grande utilité, par exemple, pour les ingénieurs de l’armée qui cherchent à résumer des décennies de documentation sur les infrastructures hydrauliques d’une région. C’est un véritable casse-tête pour de nombreuses entreprises de savoir comment définir et gérer leurs relations avec l’argent du gouvernement et de l’armée. Le « Projet Maven » de Google est allé trop loin, même si peu de gens semblaient aussi gênés par le contrat cloud JEDI de plusieurs milliards de dollars. Il pourrait être acceptable pour un chercheur universitaire bénéficiant d’une subvention de laboratoire de recherche de l’Air Force d’utiliser GPT-4, mais pas pour un chercheur de l’AFRL travaillant sur le même projet. Où tracez-vous la limite ? Même une politique stricte de « non-militaire » doit cesser après quelques suppressions.

Cela dit, la suppression totale de « militaire et de guerre » des utilisations interdites d’OpenAI suggère que l’entreprise est, à tout le moins, ouverte à servir les clients militaires. J’ai demandé à l’entreprise de confirmer ou de nier que tel était le cas, en les avertissant que le langage de la nouvelle politique indiquait clairement que tout sauf un déni serait interprété comme une confirmation.

Au moment d’écrire ces lignes, ils n’ont pas répondu. Je mettrai à jour ce message si j’ai une réponse.

Mise à jour: OpenAI a fait la même déclaration que celle faite à The Intercept et n’a pas contesté le fait qu’il est ouvert aux applications et aux clients militaires.

Source-146