Le responsable de la confiance et de la sécurité d’OpenAI, Dave Willner, a quitté le poste, comme annoncé, Willner reste dans un « rôle consultatif » mais a demandé aux abonnés de Linkedin de « contacter » les opportunités connexes. L’ancien chef de projet OpenAI déclare que le déménagement intervient après une décision de passer plus de temps avec sa famille. Oui, c’est ce qu’ils disent toujours, mais Willner le suit avec des détails réels.
« Dans les mois qui ont suivi le lancement de ChatGPT, j’ai eu de plus en plus de mal à tenir ma part du marché », écrit-il. « OpenAI traverse une phase de haute intensité dans son développement – et nos enfants aussi. Quiconque a de jeunes enfants et un travail super intense peut comprendre cette tension.
Il continue de dire qu’il est « fier de tout » l’entreprise a accompli pendant son mandat et a noté que c’était « l’un des emplois les plus cool et les plus intéressants » au monde.
Bien sûr, cette transition survient dans la foulée de certains obstacles juridiques auxquels sont confrontés OpenAI et son produit phare, ChatGPT. La FTC s’est rendue dans l’entreprise car elle craignait de violer les lois sur la protection des consommateurs et de se livrer à des pratiques « déloyales ou trompeuses » qui pourraient nuire à la vie privée et à la sécurité du public. L’enquête implique un bogue qui a divulgué les données privées des utilisateurs, ce qui semble certainement relever de la confiance et de la sécurité.
Willner dit que sa décision était en fait un « choix assez facile à faire, mais pas celui que les gens dans ma position font souvent de manière aussi explicite en public ». Il déclare également qu’il espère que sa décision contribuera à normaliser des discussions plus ouvertes sur l’équilibre travail / vie personnelle.
La sécurité de l’IA suscite des inquiétudes croissantes ces derniers mois et OpenAI est l’une des entreprises qui utilisent ses produits à la demande du président Biden et de la Maison Blanche. Il s’agit notamment de permettre à des experts indépendants d’accéder au code, de signaler les risques pour la société tels que les préjugés, de partager des informations sur la sécurité avec le gouvernement et de filigraner le contenu audio et visuel pour faire savoir aux gens qu’il est généré par l’IA.
Tous les produits recommandés par Engadget sont sélectionnés par notre équipe éditoriale, indépendante de notre maison mère. Certaines de nos histoires incluent des liens d’affiliation. Si vous achetez quelque chose via l’un de ces liens, nous pouvons gagner une commission d’affiliation. Tous les prix sont corrects au moment de la publication.