Alors que les API ChatGPT et Whisper sont lancées ce matin, OpenAI modifie les termes de sa politique de développement d’API, dans le but de répondre aux critiques des développeurs et des utilisateurs.
À partir d’aujourd’hui, OpenAI déclare qu’il n’utilisera aucune donnée soumise via son API pour des « améliorations de service », y compris la formation de modèles d’IA, à moins qu’un client ou une organisation ne l’accepte. En outre, l’entreprise met en œuvre une politique de conservation des données de 30 jours. pour les utilisateurs d’API avec des options de rétention plus stricte « en fonction des besoins de l’utilisateur », et en simplifiant ses termes et la propriété des données pour indiquer clairement que les utilisateurs sont propriétaires de l’entrée et de la sortie des modèles.
Greg Brockman, président et président d’OpenAI, affirme que certains de ces changements ne sont pas changements nécessairement – il a toujours été le cas que les utilisateurs de l’API OpenAI possèdent des données d’entrée et de sortie, qu’il s’agisse de texte, d’images ou autres. Mais les défis juridiques émergents autour de l’IA générative et des commentaires des clients ont entraîné une réécriture des conditions de service, dit-il.
« L’un de nos principaux objectifs a été de déterminer comment devenir super amicaux avec les développeurs ? » Brockman a déclaré à TechCrunch dans une interview vidéo. « Notre mission est de vraiment construire une plate-forme sur laquelle d’autres peuvent créer des entreprises. »
Les développeurs ont longtemps contesté la politique de traitement des données d’OpenAI (désormais obsolète), qui, selon eux, posait un risque pour la confidentialité et permettait à l’entreprise de tirer profit de leurs données. Dans l’un de ses propres articles d’assistance, OpenAI déconseille de partager des informations sensibles dans les conversations avec ChatGPT car il n’est « pas en mesure de supprimer des invites spécifiques de [users’ histories].”
En permettant aux clients de refuser de soumettre leurs données à des fins de formation et en offrant des options de conservation des données accrues, OpenAI essaie clairement d’élargir l’attrait de sa plate-forme. Il cherche également à se développer massivement.
Sur ce dernier point, dans un autre changement de politique, OpenAI indique qu’il supprimera son processus actuel d’examen préalable au lancement pour les développeurs au profit d’un système largement automatisé. Par e-mail, un porte-parole a déclaré que l’entreprise se sentait à l’aise de passer au système parce que « la grande majorité des applications ont été approuvées au cours du processus de vérification » et parce que les capacités de surveillance de l’entreprise se sont « considérablement améliorées » depuis cette époque l’année dernière.
« Ce qui a changé, c’est que nous sommes passés d’un système de vérification initial basé sur un formulaire, où les développeurs attendent dans une file d’attente pour être approuvés sur leur idée d’application dans le concept, à un système de détection post-hoc où nous identifions et examinons les applications problématiques en surveillant leur trafic et enquêter au besoin », a déclaré le porte-parole.
Un système automatisé allège la charge du personnel de révision d’OpenAI. Mais cela permet également – du moins en théorie – à l’entreprise d’approuver les développeurs et les applications pour ses API en plus grand volume. OpenAI subit une pression croissante pour réaliser des bénéfices après un investissement de plusieurs milliards de dollars de Microsoft. La société s’attend à gagner 200 millions de dollars en 2023, une somme dérisoire par rapport aux plus de 1 milliard de dollars qui ont été investis jusqu’à présent dans la startup.