OpenAI est un leader dans la course au développement d’une IA aussi intelligente qu’un humain. Pourtant, les employés continuent d’apparaître dans la presse et sur les podcasts pour exprimer leurs graves inquiétudes concernant la sécurité du laboratoire de recherche à but non lucratif de 80 milliards de dollars. vient de Le Washington Postoù une source anonyme a affirmé qu’OpenAI avait précipité les tests de sécurité et célébré son produit avant de garantir sa sécurité.
« Ils ont planifié la soirée qui a suivi le lancement avant de savoir s’il était sûr de lancer l’appareil », a déclaré un employé anonyme. Le Washington Post« Nous avons échoué dans l’ensemble du processus. »
Les problèmes de sécurité sont omniprésents chez OpenAI et semblent ne jamais s’arrêter. Les employés actuels et anciens d’OpenAI ont récemment signé une lettre ouverte exigeant de meilleures pratiques de sécurité et de transparence de la part de la startup, peu de temps après la dissolution de son équipe de sécurité suite au départ du cofondateur Ilya Sutskever. Jan Leike, un chercheur clé d’OpenAI, a démissionné peu de temps après, affirmant dans un message que « la culture et les processus de sécurité ont été relégués au second plan par rapport aux produits brillants » dans l’entreprise.
La sécurité est au cœur de OpenAI charteavec une clause qui affirme qu’OpenAI aidera d’autres organisations à faire progresser la sécurité si l’AGI est atteinte chez un concurrent, au lieu de continuer à rivaliser. Elle prétend se consacrer à la résolution des problèmes de sécurité inhérents à un système aussi vaste et complexe. OpenAI garde même ses modèles propriétaires privés, plutôt qu’ouverts (ce qui entraîne coups (et poursuites judiciaires) pour des raisons de sécurité. Ces avertissements donnent l’impression que la sécurité a été reléguée au second plan, alors qu’elle est primordiale pour la culture et la structure de l’entreprise.
Il est clair qu’OpenAI est sur la sellette, mais les efforts de relations publiques à eux seuls ne suffiront pas à protéger la société
« Nous sommes fiers de notre expérience en matière de fourniture des systèmes d’IA les plus performants et les plus sûrs et nous croyons en notre approche scientifique pour gérer les risques », a déclaré Taya Christianson, porte-parole d’OpenAI, dans un communiqué. Le bord« Un débat rigoureux est essentiel étant donné l’importance de cette technologie, et nous continuerons à collaborer avec les gouvernements, la société civile et d’autres communautés du monde entier au service de notre mission. »
Selon OpenAI et d’autres chercheurs qui étudient cette technologie émergente, les enjeux en matière de sécurité sont immenses. « Le développement actuel de l’IA de pointe pose des risques urgents et croissants pour la sécurité nationale », selon un rapport commandé par le Département d’État américain en mars a déclaré. « L’essor de l’IA avancée et de l’AGI [artificial general intelligence] « a le potentiel de déstabiliser la sécurité mondiale d’une manière qui rappelle l’introduction des armes nucléaires. »
Les sonnettes d’alarme d’OpenAI font également suite au coup d’État de l’année dernière qui a brièvement évincé le PDG Sam Altman. Le conseil d’administration a déclaré qu’il avait été démis de ses fonctions en raison de son incapacité à « communiquer de manière constante », ce qui a donné lieu à une enquête qui n’a guère rassuré le personnel.
Lindsey Held, porte-parole d’OpenAI, a déclaré à la Poste Le lancement de GPT-4o « n’a pas fait de concessions » en matière de sécurité, mais un autre représentant anonyme de la société a reconnu que le délai de révision de la sécurité avait été réduit à une seule semaine. « Nous sommes en train de repenser toute notre façon de procéder », a déclaré le représentant anonyme à la presse. Poste. « Ce [was] ce n’est tout simplement pas la meilleure façon de procéder.
Face aux controverses qui se succèdent (rappelez-vous le Son incident ?), OpenAI a tenté de calmer les craintes avec quelques annonces bien chronométrées. Cette semaine, il annoncé L’entreprise s’associe au laboratoire national de Los Alamos pour étudier comment des modèles d’IA avancés, tels que GPT-4o, peuvent contribuer en toute sécurité à la recherche bioscientifique, et dans la même annonce, elle a souligné à plusieurs reprises le bilan de sécurité de Los Alamos. Le lendemain, un porte-parole anonyme dit Bloomberg qu’OpenAI a créé une échelle interne pour suivre les progrès réalisés par ses grands modèles linguistiques vers l’intelligence artificielle générale.
Les annonces de cette semaine d’OpenAI axées sur la sécurité semblent n’être qu’une façade défensive face aux critiques croissantes sur ses pratiques de sécurité. Il est clair qu’OpenAI est sur la sellette – mais les efforts de relations publiques ne suffiront pas à eux seuls à protéger la société. Ce qui compte vraiment, c’est l’impact potentiel sur ceux qui se trouvent au-delà de la bulle de la Silicon Valley si OpenAI continue à ne pas développer l’IA avec des protocoles de sécurité stricts, comme le prétendent ses membres en interne : le citoyen moyen n’a pas son mot à dire dans le développement de l’IAG privatisée, et pourtant il n’a pas le choix quant à son degré de protection contre les créations d’OpenAI.
« Les outils d’IA peuvent être révolutionnaires », a déclaré Lina Khan, présidente de la FTC dit Bloomberg En novembre, cependant, « pour l’instant », a-t-elle ajouté, certains craignent que « les données critiques de ces outils soient contrôlées par un nombre relativement restreint d’entreprises ».
Si les nombreuses allégations contre leurs protocoles de sécurité sont exactes, cela soulève sûrement de sérieuses questions sur l’aptitude d’OpenAI à jouer ce rôle de gardien de l’AGI, un rôle que l’organisation s’est essentiellement attribué à elle-même. Permettre à un groupe de San Francisco de contrôler une technologie susceptible de changer la société est un motif d’inquiétude, et il existe une demande urgente, même au sein de ses propres rangs, de transparence et de sécurité, aujourd’hui plus que jamais.