OpenAI est confronté à une pression croissante pour prouver qu’elle ne cache pas les risques liés à l’IA après que des lanceurs d’alerte ont allégué auprès de la Securities and Exchange Commission (SEC) américaine que les accords de non-divulgation de la société d’IA avaient illégalement empêché les employés de divulguer des problèmes de sécurité majeurs aux législateurs.
Dans une lettre adressée hier à OpenAI, le sénateur Chuck Grassley (R-Iowa) a exigé des preuves qu’OpenAI n’exige plus d’accords qui pourraient « empêcher » ses « employés de faire des divulgations protégées aux régulateurs gouvernementaux ».
Grassley a notamment demandé à OpenAI de produire les accords actuels en matière d’emploi, d’indemnités de licenciement, de non-dénigrement et de non-divulgation afin de rassurer le Congrès sur le fait que les contrats ne découragent pas les divulgations. C’est essentiel, a déclaré Grassley, pour qu’il soit possible de compter sur les lanceurs d’alerte qui dénoncent les menaces émergentes pour aider à façonner des politiques d’IA efficaces protégeant contre les risques existentiels de l’IA à mesure que les technologies progressent.
Grassley aurait demandé à deux reprises ces documents sans obtenir de réponse de la part d’OpenAI, selon sa lettre. Et jusqu’à présent, OpenAI n’a pas répondu à la dernière demande d’envoi de documents, a déclaré Clare Slattery, porte-parole de Grassley, au Washington Post.
« Il ne suffit pas de simplement affirmer que vous avez fait des « mises à jour », a déclaré Grassley dans une déclaration fournie à Ars. « La preuve est faite. Altman doit fournir des documents et des réponses à mes demandes de surveillance afin que le Congrès puisse évaluer avec précision si OpenAI protège correctement ses employés et ses utilisateurs. »
En plus de demander la mise à jour récente des accords avec les employés d’OpenAI, Grassley a poussé OpenAI à être plus transparente sur le nombre total de demandes qu’elle a reçues de la part d’employés cherchant à faire des divulgations fédérales depuis 2023. Le sénateur veut savoir quelles informations les employés voulaient divulguer aux fonctionnaires et si OpenAI a réellement approuvé leurs demandes.
Dans la même veine, Grassley a demandé à OpenAI de confirmer combien d’enquêtes la SEC a ouvertes sur OpenAI depuis 2023.
Ensemble, ces documents permettraient de savoir si les employés d’OpenAI sont potentiellement toujours empêchés de faire des divulgations fédérales, quels types de divulgations OpenAI nie et dans quelle mesure la SEC surveille de près les efforts apparents d’OpenAI pour cacher les risques de sécurité.
« Il est crucial qu’OpenAI s’assure que ses employés peuvent fournir des informations protégées sans restrictions illégales », a écrit Grassley dans sa lettre.
Il a demandé une réponse d’OpenAI avant le 15 août afin que « le Congrès puisse mener une surveillance objective et indépendante des protocoles de sécurité et des accords de confidentialité d’OpenAI ».
OpenAI n’a pas immédiatement répondu à la demande de commentaire d’Ars.
Sur X, Altman a écrit qu’OpenAI a pris des mesures pour accroître la transparence, notamment « en collaborant avec l’Institut américain de sécurité de l’IA sur un accord dans lequel nous fournirions un accès anticipé à notre prochain modèle de base afin que nous puissions travailler ensemble pour faire avancer la science des évaluations de l’IA ». Il a également confirmé qu’OpenAI souhaite que « les employés actuels et anciens puissent exprimer leurs préoccupations et se sentent à l’aise pour le faire ».
« C’est crucial pour toute entreprise, mais pour nous en particulier, et c’est une partie importante de notre plan de sécurité », a écrit Altman. « En mai, nous avons annulé les clauses de non-dénigrement pour les employés actuels et anciens et les dispositions qui donnaient à OpenAI le droit (bien que cela n’ait jamais été utilisé) d’annuler les actions acquises. Nous avons travaillé dur pour y remédier. »
En juillet, des lanceurs d’alerte ont déclaré à la SEC qu’OpenAI devrait être obligé de produire non seulement les contrats actuels des employés, mais tous les contrats qui contiennent un accord de non-divulgation pour garantir qu’OpenAI n’a pas occulté un historique ou une pratique actuelle d’occultation des risques de sécurité de l’IA. Ils veulent que tous les employés actuels et anciens soient informés de tout contrat comprenant un accord de confidentialité illégal et qu’OpenAI soit condamné à une amende pour chaque contrat illégal.