OpenAI a créé un nouveau comité de sûreté et de sécurité moins de deux semaines après que l’entreprise a dissous l’équipe chargée de protéger l’humanité contre les menaces existentielles de l’IA. Cette dernière itération du groupe responsable des garde-fous de sécurité d’OpenAI comprendra deux membres du conseil d’administration et le PDG Sam Altman, ce qui soulève des questions quant à savoir si cette décision n’est guère plus qu’un théâtre d’auto-surveillance au milieu d’une course effrénée au profit et à la domination aux côtés de son partenaire Microsoft.
Le comité de sûreté et de sécurité, formé par le conseil d’administration d’OpenAI, sera dirigé par les membres du conseil Bret Taylor (président), Nicole Seligman, Adam D’Angelo et Sam Altman (PDG). La nouvelle équipe fait suite aux démissions très médiatisées du co-fondateur Ilya Sutskever et de Jan Leike, qui ont fait sourciller plus d’un. Leur ancienne « Superalignment Team » n’a été créée qu’en juillet dernier.
Après sa démission, Leike a écrit dans un fil de discussion X (Twitter) le 17 mai que, même s’il croyait en la mission principale de l’entreprise, il avait quitté l’entreprise parce que les deux côtés (produit et sécurité) « avaient atteint un point de rupture ». Leike a ajouté qu’il « craignait que nous ne soyons pas sur la bonne voie » pour résoudre de manière adéquate les problèmes liés à la sécurité à mesure que l’IA devient plus intelligente. Il a posté que l’équipe de Superalignment avait récemment « navigué contre le vent » au sein de l’entreprise et que « la culture et les processus de sécurité ont pris le pas sur les produits brillants ».
Une vision cynique serait qu’une entreprise axée principalement sur les « produits brillants » – tout en essayant de repousser le coup médiatique des écarts de sécurité très médiatisés – pourrait créer une nouvelle équipe de sécurité dirigée par les mêmes personnes qui se précipitent vers ces produits brillants.
Les départs en matière de sécurité au début du mois n’étaient pas les seules nouvelles préoccupantes de l’entreprise récemment. Il a également lancé (et rapidement retiré) un nouveau modèle de voix qui ressemblait remarquablement à Scarlett Johansson, deux fois nominée aux Oscars. Le Jojo Lapin L’acteur a ensuite révélé qu’OpenAI Sam Altman avait demandé son consentement pour utiliser sa voix pour entraîner un modèle d’IA mais qu’elle avait refusé.
Dans une déclaration à Engadget, l’équipe de Johansson a déclaré qu’elle était choquée qu’OpenAI choisisse un talent vocal qui « lui ressemblait si étrangement » après avoir obtenu son autorisation. Le communiqué ajoute que « les amis les plus proches et les médias de Johansson ne pouvaient pas faire la différence ».
OpenAI est également revenu sur les accords de non-dénigrement qu’il avait exigés des dirigeants sortants, changeant de ton pour dire qu’il ne les appliquerait pas. Avant cela, l’entreprise obligeait les employés qui quittaient l’entreprise à choisir entre pouvoir s’exprimer contre l’entreprise et conserver les actions acquises.
Le comité de sûreté et de sécurité prévoit « d’évaluer et de développer davantage » les processus et les mesures de protection de l’entreprise au cours des 90 prochains jours. Après cela, le groupe partagera ses recommandations avec l’ensemble du conseil d’administration. Une fois que l’ensemble de l’équipe dirigeante aura examiné ses conclusions, elle « partagera publiquement une mise à jour sur les recommandations adoptées d’une manière compatible avec la sûreté et la sécurité ».
Dans son article de blog annonçant la création du nouveau comité de sûreté et de sécurité, OpenAI a confirmé que l’entreprise forme actuellement son prochain modèle, qui succédera au GPT-4. « Bien que nous soyons fiers de construire et de lancer des modèles qui sont à la pointe de l’industrie en termes de capacités et de sécurité, nous nous félicitons d’un débat approfondi à ce moment important », a écrit la société.