vendredi, novembre 22, 2024

Le conseil d’administration d’OpenAI a découvert ChatGPT pour la première fois sur Twitter, selon un ancien membre

Agrandir / Helen Toner, ancienne membre du conseil d’administration d’OpenAI, prend la parole lors de la conférence Code 2023 de Vox Media au Ritz-Carlton, Laguna Niguel, le 27 septembre 2023.

Dans une récente interview sur le podcast « The Ted AI Show », Helen Toner, ancienne membre du conseil d’administration d’OpenAI, a déclaré que le conseil d’administration d’OpenAI n’était pas au courant de l’existence de ChatGPT jusqu’à ce qu’il le voie sur Twitter. Elle a également révélé des détails sur la dynamique interne de l’entreprise et les événements entourant le licenciement surprise du PDG Sam Altman et sa réembauche ultérieure en novembre dernier.

OpenAI a publié ChatGPT publiquement le 30 novembre 2022, et sa popularité surprise massive a placé OpenAI sur une nouvelle trajectoire, passant d’un laboratoire de recherche en IA à une entreprise technologique davantage orientée vers le consommateur.

« Lorsque ChatGPT est sorti en novembre 2022, le conseil d’administration n’en a pas été informé à l’avance. Nous avons entendu parler de ChatGPT sur Twitter », a déclaré Toner sur le podcast.

La révélation de Toner à propos de ChatGPT semble mettre en évidence un décalage important entre le conseil d’administration et les opérations quotidiennes de l’entreprise, apportant un nouvel éclairage aux accusations selon lesquelles Altman n’a « pas toujours été franc dans ses communications avec le conseil d’administration » lors de son licenciement le 17 novembre 2023. Altman et le nouveau conseil d’administration d’OpenAI ont déclaré plus tard que la mauvaise gestion par la PDG des tentatives visant à retirer Toner du conseil d’administration d’OpenAI à la suite de ses critiques concernant la publication de ChatGPT par la société avait joué un rôle clé dans le licenciement d’Altman.

« Sam n’a pas informé le conseil d’administration qu’il était propriétaire du fonds de démarrage OpenAI, même s’il prétendait constamment être un membre indépendant du conseil d’administration sans intérêt financier dans l’entreprise à plusieurs reprises », a-t-elle déclaré. « Il nous a donné des informations inexactes sur le petit nombre de processus de sécurité formels que l’entreprise avait mis en place, ce qui signifie qu’il était pratiquement impossible pour le conseil d’administration de savoir dans quelle mesure ces processus de sécurité fonctionnaient ou ce qui pourrait devoir changer. »

Toner a également mis en lumière les circonstances qui ont conduit à l’éviction temporaire d’Altman. Elle a mentionné que deux dirigeants d’OpenAI avaient signalé des cas de « violence psychologique » au conseil d’administration, en fournissant des captures d’écran et de la documentation pour étayer leurs affirmations. Les allégations formulées par les anciens dirigeants d’OpenAI, relayées par Toner, suggèrent que le style de leadership d’Altman a favorisé une « atmosphère toxique » au sein de l’entreprise :

En octobre de l’année dernière, nous avons eu cette série de conversations avec ces cadres, au cours desquelles ils ont soudainement commencé à nous parler de leurs propres expériences avec Sam, qu’ils ne s’étaient pas sentis à l’aise de partager auparavant, mais en nous racontant qu’ils ne pouvaient pas le faire. faites-lui confiance, à propos de l’atmosphère toxique que cela créait. Ils utilisent l’expression « abus psychologique », nous disant qu’ils ne pensaient pas qu’il était la bonne personne pour diriger l’entreprise, nous disant qu’ils ne croyaient pas qu’il pouvait ou allait changer, que cela ne servait à rien de lui donner un feedback, à rien de essayer de résoudre ces problèmes.

Malgré la décision du conseil d’administration de licencier Altman, Altman a entamé le processus de retour à son poste cinq jours plus tard après une lettre au conseil d’administration signée par plus de 700 employés d’OpenAI. Toner a attribué ce retour rapide aux employés qui pensaient que l’entreprise s’effondrerait sans lui, affirmant qu’ils craignaient également des représailles de la part d’Altman s’ils ne soutenaient pas son retour.

« La deuxième chose que je pense qu’il est vraiment important de savoir, et qui n’a pas été rapportée, c’est à quel point les gens ont peur de s’en prendre à Sam », a déclaré Toner. « Ils l’ont vu exercer des représailles contre des personnes qui se vengeaient… pour des cas passés de critiques. »

« Ils avaient vraiment peur de ce qui pourrait leur arriver », a-t-elle poursuivi. « Alors certains employés ont commencé à dire, vous savez, attendez, je ne veux pas que l’entreprise s’effondre. Par exemple, ramenons Sam. C’était très difficile pour ces gens qui avaient vécu des expériences terribles de dire ça… Si Sam restait au pouvoir, comme il l’a finalement fait, cela rendrait leur vie misérable. »

En réponse aux déclarations de Toner, l’actuel président du conseil d’administration d’OpenAI, Bret Taylor, a fait une déclaration au podcast : « Nous sommes déçus que Miss Toner continue de revenir sur ces questions… L’examen a conclu que la décision précédente du conseil d’administration n’était pas fondée sur des préoccupations concernant la sécurité des produits. ou la sécurité, le rythme de développement, les finances d’OpenAI ou ses déclarations aux investisseurs, clients ou partenaires commerciaux.

Même compte tenu de cet examen, le principal argument de Toner est qu’OpenAI n’a pas été en mesure de se contrôler malgré les affirmations contraires. « La saga OpenAI montre qu’il ne suffit pas d’essayer de faire le bien et de se réguler soi-même », a-t-elle déclaré.

Source-147

- Advertisement -

Latest