Les anciens collaborateurs d’OpenAI réclament le « droit d’avertir » des risques liés à l’IA sans représailles

Mardi, un groupe d’anciens employés d’OpenAI et de Google DeepMind a publié une lettre ouverte appelant les entreprises d’IA à s’engager sur des principes permettant aux employés de faire part de leurs inquiétudes sur les risques liés à l’IA sans crainte de représailles. La lettre, intitulée « Un droit d’alerte sur l’intelligence artificielle avancée », a jusqu’à présent été signée par 13 personnes, dont certaines ont choisi de rester anonymes en raison d’inquiétudes quant aux répercussions potentielles.

Les signataires affirment que si l’IA a le potentiel d’apporter des bénéfices à l’humanité, elle pose également de sérieux risques, notamment « un renforcement accru des inégalités existantes, une manipulation et une désinformation, ainsi qu’une perte de contrôle des systèmes d’IA autonomes pouvant entraîner l’extinction de l’humanité ».

Ils affirment également que les sociétés d’IA possèdent d’importantes informations non publiques sur les capacités, les limites et les niveaux de risque de leurs systèmes, mais qu’elles n’ont actuellement que de faibles obligations de partager ces informations avec les gouvernements et aucune avec la société civile.

Les signataires non anonymes de la lettre comprennent les anciens employés d’OpenAI Jacob Hilton, Daniel Kokotajlo, William Saunders, Carroll Wainwright et Daniel Ziegler, ainsi que les anciens employés de Google DeepMind Ramana Kumar et Neel Nanda.

Le groupe appelle les entreprises d’IA à s’engager sur quatre principes clés : ne pas appliquer d’accords interdisant de critiquer l’entreprise pour des raisons liées aux risques, faciliter un processus anonyme permettant aux employés de faire part de leurs préoccupations, soutenir une culture de critique ouverte et ne pas exercer de représailles contre les employés. qui partagent publiquement des informations confidentielles liées aux risques après l’échec d’autres processus.

En mai, un article de Vox rédigé par Kelsey Piper a soulevé des inquiétudes concernant le recours par OpenAI à des accords de non-divulgation restrictifs pour les employés qui partaient, qui menaçaient de révoquer les capitaux propres acquis si d’anciens employés critiquaient l’entreprise. Le PDG d’OpenAI, Sam Altman, a répondu aux allégations, déclarant que l’entreprise n’avait jamais récupéré les capitaux propres acquis et ne le ferait pas si les employés refusaient de signer l’accord de séparation ou la clause de non-dénigrement.

Mais les critiques sont restées insatisfaites et OpenAI a rapidement fait volte-face publique sur la question, affirmant qu’elle supprimerait la clause de non-dénigrement et les dispositions de récupération des capitaux propres de ses accords de séparation, reconnaissant que ces conditions étaient inappropriées et contraires aux valeurs déclarées de l’entreprise. transparence et responsabilité. Cette décision d’OpenAI est probablement ce qui a rendu possible la lettre ouverte actuelle.

Le Dr Margaret Mitchell, chercheuse en éthique de l’IA chez Hugging Face qui a été licenciée de Google en 2021 après avoir fait part de ses inquiétudes concernant la diversité et la censure au sein de l’entreprise, s’est entretenue avec Ars Technica sur les défis rencontrés par les lanceurs d’alerte dans l’industrie technologique. « En théorie, vous ne pouvez pas faire l’objet de représailles légales en cas de dénonciation. En pratique, il semble que vous puissiez le faire », a déclaré Mitchell. « Les lois soutiennent les objectifs des grandes entreprises au détriment des travailleurs. Elles ne sont pas en faveur des travailleurs. »

Mitchell a souligné le coût psychologique de la poursuite en justice contre une grande entreprise, en disant : « Vous devez essentiellement renoncer à votre carrière et à votre santé psychologique pour poursuivre en justice contre une organisation qui, du fait qu’elle est une entreprise, n’a pas de sentiments et n’a pas de sentiments. les ressources pour vous détruire. Elle a ajouté : « N’oubliez pas qu’il vous incombe, à vous, la personne licenciée, de faire valoir que vous avez fait l’objet de représailles – une seule personne, sans source de revenus après avoir été licenciée – contre une société d’un billion de dollars dotée d’une armée d’avocats. qui se spécialisent dans le fait de nuire aux travailleurs exactement de cette manière. »

La lettre ouverte a recueilli le soutien d’éminents experts en IA, notamment Yoshua Bengio, Geoffrey Hinton (qui a mis en garde contre l’IA dans le passé) et Stuart J. Russell. Il convient de noter que d’autres experts, comme Yann LeCun de Meta, ont contesté les affirmations selon lesquelles l’IA présente un risque existentiel pour l’humanité, et d’autres experts estiment que le sujet de discussion sur la « prise de contrôle de l’IA » est une distraction des méfaits actuels de l’IA, tels que les préjugés et les hallucinations dangereuses.

Même en dépit du désaccord sur les dommages précis qui pourraient provenir de l’IA, Mitchell estime que les préoccupations soulevées par la lettre soulignent le besoin urgent d’une plus grande transparence, d’une surveillance et d’une protection accrues pour les employés qui s’expriment sur les risques potentiels : « Même si j’apprécie et suis d’accord avec cela lettre », dit-elle, « il faut apporter des changements significatifs aux lois qui soutiennent de manière disproportionnée les pratiques injustes des grandes entreprises au détriment des travailleurs qui font ce qu’il faut. »

Source-147