Un groupe d’employés actuels et anciens de grandes sociétés d’IA comme OpenAI, Google DeepMind et Anthropic a signé une lettre ouverte demandant une plus grande transparence et une plus grande protection contre les représailles pour ceux qui s’expriment sur les préoccupations potentielles de l’IA. « Tant qu’il n’y aura pas de contrôle gouvernemental efficace sur ces entreprises, les employés actuels et anciens feront partie des rares personnes qui peuvent les tenir responsables devant le public », indique la lettre publiée mardi. « Pourtant, de larges accords de confidentialité nous empêchent d’exprimer nos préoccupations, sauf auprès des entreprises mêmes qui ne parviennent pas à résoudre ces problèmes. »
La lettre arrive quelques semaines seulement après Voix L’enquête a révélé qu’OpenAI avait tenté de museler les employés récemment partis en les forçant à choisir entre signer un accord de non-dénigrement agressif ou risquer de perdre leurs actions acquises dans l’entreprise. Après la publication du rapport, le PDG d’OpenAI, Sam Altman, a déclaré qu’il avait été véritablement embarrassé par cette disposition et a affirmé qu’elle avait été supprimée des récents documents de sortie, bien qu’il ne soit pas clair si elle reste en vigueur pour certains employés. Après la publication de cet article, nn OpenAI Le porte-parole a déclaré à Engadget que l’entreprise avait supprimé une clause de non-dénigrement de ses documents de départ standard et libéré tous les anciens employés de leurs accords de non-dénigrement.
Les 13 signataires comprennent les anciens employés d’OpenAI Jacob Hinton, William Saunders et Daniel Kokotajlo. Kokotajlo a déclaré qu’il avait démissionné de l’entreprise après avoir perdu confiance dans sa capacité à construire de manière responsable une intelligence artificielle générale, un terme désignant les systèmes d’IA aussi intelligents ou plus intelligents que les humains. La lettre – qui a été approuvée par d’éminents experts en IA Geoffrey Hinton, Yoshua Bengio et Stuart Russell – exprime de graves inquiétudes quant au manque de surveillance gouvernementale efficace de l’IA et aux incitations financières qui poussent les géants de la technologie à investir dans la technologie. Les auteurs préviennent que la recherche incontrôlée de systèmes d’IA puissants pourrait conduire à la propagation de la désinformation, à l’exacerbation des inégalités et même à la perte du contrôle humain sur les systèmes autonomes, entraînant potentiellement l’extinction de l’humanité.
« Il y a beaucoup de choses que nous ne comprenons pas sur le fonctionnement de ces systèmes et s’ils resteront alignés sur les intérêts humains à mesure qu’ils deviendront plus intelligents et dépasseront peut-être l’intelligence humaine dans tous les domaines », a écrit Kokotajlo sur X. « En attendant, il y a peu ou pas de surveillance sur cette technologie. Au lieu de cela, nous comptons sur les entreprises qui les construisent pour s’auto-gouverner, même si les motivations du profit et l’enthousiasme suscité par la technologie les poussent à « agir vite et casser les choses ». Faire taire les chercheurs et leur faire craindre des représailles est dangereux alors que nous sommes actuellement parmi les seuls à pouvoir alerter le public.»
Dans une déclaration partagée avec Engadget, un porte-parole d’OpenAI a déclaré : « Nous sommes fiers de nos antécédents en matière de fourniture des systèmes d’IA les plus performants et les plus sûrs et croyons en notre approche scientifique pour gérer les risques. Nous convenons qu’un débat rigoureux est crucial compte tenu de l’importance de cette technologie et nous continuerons à collaborer avec les gouvernements, la société civile et d’autres communautés à travers le monde. Ils ont ajouté : « C’est également la raison pour laquelle nous disposons de moyens permettant aux employés d’exprimer leurs préoccupations, notamment une ligne d’assistance téléphonique anonyme en matière d’intégrité et un comité de sûreté et de sécurité dirigé par des membres de notre conseil d’administration et des responsables de la sécurité de l’entreprise. »
Google et Anthropic n’ont pas répondu à la demande de commentaires d’Engadget. Dans une déclaration envoyée à Bloomberg, un porte-parole d’OpenAI a déclaré que la société est fière de son « historique en matière de fourniture des systèmes d’IA les plus performants et les plus sûrs » et qu’elle croit en son « approche scientifique de la gestion des risques ». Il ajoute : « Nous convenons qu’un débat rigoureux est crucial compte tenu de l’importance de cette technologie et nous continuerons à collaborer avec les gouvernements, la société civile et d’autres communautés à travers le monde. »
Les signataires appellent les entreprises d’IA à s’engager sur quatre principes clés :
-
S’abstenir de représailles contre les employés qui expriment des préoccupations en matière de sécurité
-
Soutenir un système anonyme permettant aux lanceurs d’alerte d’alerter le public et les régulateurs sur les risques
-
Permettre une culture de critique ouverte
-
Et éviter les accords de non-dénigrement ou de non-divulgation qui empêchent les employés de s’exprimer.
La lettre intervient dans un contexte de surveillance croissante des pratiques d’OpenAI, notamment la dissolution de son équipe de sécurité de « superalignement » et le départ de personnalités clés comme le co-fondateur Ilya Sutskever et Jan Leike, qui ont critiqué la priorité donnée par l’entreprise aux « produits brillants » plutôt qu’à la sécurité.
Mise à jour, 5 juin 2024, 11 h 51 HE : Cette histoire a été mise à jour pour inclure les déclarations d’OpenAI.