Microsoft a licencié toute son équipe éthique et société au sein de l’organisation de l’intelligence artificielle dans le cadre de licenciements récents qui a touché 10 000 employés dans toute l’entreprise, Plateforme a appris.
Cette décision laisse Microsoft sans équipe dédiée pour s’assurer que ses principes d’IA sont étroitement liés à la conception de produits à un moment où l’entreprise mène la charge pour mettre les outils d’IA à la disposition du grand public, ont déclaré les employés actuels et anciens.
Microsoft maintient toujours un actif Bureau de l’IA responsable, qui est chargé de créer des règles et des principes pour régir les initiatives d’IA de l’entreprise. L’entreprise affirme que son investissement global dans le travail de responsabilité augmente malgré les récentes mises à pied.
« Microsoft s’engage à développer des produits et des expériences d’IA de manière sûre et responsable, et le fait en investissant dans des personnes, des processus et des partenariats qui en font la priorité », a déclaré la société dans un communiqué. « Au cours des six dernières années, nous avons augmenté le nombre de personnes au sein de nos équipes de produits et au sein du Bureau de l’IA responsable qui, avec nous tous chez Microsoft, sont responsables de la mise en pratique de nos principes d’IA. […] Nous apprécions le travail de pionnier qu’Ethics & Society a réalisé pour nous aider dans notre parcours continu vers une IA responsable.
Mais les employés ont déclaré que l’équipe d’éthique et de société a joué un rôle essentiel en veillant à ce que les principes d’IA responsable de l’entreprise se reflètent réellement dans la conception des produits expédiés.
« Notre travail consistait à … créer des règles dans des domaines où il n’y en avait pas. »
«Les gens regardaient les principes émanant du bureau de l’IA responsable et disaient:« Je ne sais pas comment cela s’applique », explique un ancien employé. « Notre travail consistait à leur montrer et à créer des règles dans des domaines où il n’y en avait pas. »
Ces dernières années, l’équipe a conçu un jeu de rôle appelé Judgment Call qui a aidé les concepteurs à imaginer les dommages potentiels pouvant résulter de l’IA et à en discuter lors du développement du produit. Il faisait partie d’un plus grand « boîte à outils de l’innovation responsable” que l’équipe a publié publiquement.
Plus récemment, l’équipe s’est efforcée d’identifier les risques posés par l’adoption par Microsoft de la technologie OpenAI dans sa suite de produits.
L’équipe éthique et société était à son apogée en 2020, alors qu’elle comptait environ 30 employés, dont des ingénieurs, des designers et des philosophes. En octobre, l’équipe a été réduite à environ sept personnes dans le cadre d’une réorganisation.
Lors d’une réunion avec l’équipe après la réorganisation, John Montgomery, vice-président d’AI, a déclaré aux employés que les dirigeants de l’entreprise leur avaient demandé d’agir rapidement. « La pression de [CTO] Kévin [Scott] et [CEO] Satya [Nadella] est très, très élevé pour prendre ces modèles OpenAI les plus récents et ceux qui les suivent et les mettre entre les mains des clients à très grande vitesse », a-t-il déclaré, selon l’audio de la réunion obtenue par Plateforme.
En raison de cette pression, a déclaré Montgomery, une grande partie de l’équipe allait être déplacée vers d’autres domaines de l’organisation.
Certains membres de l’équipe ont repoussé. « Je vais être assez audacieux pour vous demander de bien vouloir reconsidérer cette décision », a déclaré un employé lors de l’appel. «Bien que je comprenne qu’il y a des problèmes commerciaux en jeu… ce dont cette équipe a toujours été profondément préoccupée, c’est notre impact sur la société et les impacts négatifs que nous avons eus. Et ils sont significatifs.
Montgomery a refusé. « Puis-je reconsidérer ? Je ne pense pas que je le ferai », a-t-il déclaré. « Parce que malheureusement les pressions restent les mêmes. Vous n’avez pas le point de vue que j’ai, et vous pouvez probablement en être reconnaissant. Il y a beaucoup de choses qui sont broyées dans la saucisse.
En réponse aux questions, cependant, Montgomery a déclaré que l’équipe ne serait pas éliminée.
« Ce n’est pas qu’il s’en va, c’est qu’il évolue », a-t-il déclaré. « Cela évolue vers une plus grande énergie au sein des équipes de produits individuelles qui créent les services et les logiciels, ce qui signifie que le hub central qui a effectué une partie du travail délègue ses capacités et ses responsabilités. »
La plupart des membres de l’équipe ont été transférés ailleurs au sein de Microsoft. Par la suite, les membres restants de l’équipe d’éthique et de société ont déclaré que l’équipage réduit rendait difficile la mise en œuvre de leurs plans ambitieux.
Cette décision laisse un vide fondamental dans la conception holistique des produits d’IA, déclare un employé
Environ cinq mois plus tard, le 6 mars, les employés restants ont été invités à se joindre à un appel Zoom à 11h30 PT pour entendre une «mise à jour critique pour l’entreprise» de Montgomery. Au cours de la réunion, on leur a dit que leur équipe était finalement éliminée.
Un employé affirme que cette décision laisse un vide fondamental dans l’expérience utilisateur et la conception holistique des produits d’IA. « Le pire, c’est que nous avons exposé l’entreprise à des risques et les êtres humains à des risques en faisant cela », ont-ils expliqué.
Le conflit souligne une tension continue pour les géants de la technologie qui créent des divisions dédiées à rendre leurs produits plus socialement responsables. Au mieux, ils aident les équipes produit à anticiper les utilisations abusives potentielles de la technologie et à résoudre les problèmes avant leur expédition.
Mais ils ont aussi pour tâche de dire « non » ou de « ralentir » au sein d’organisations qui souvent ne veulent pas l’entendre – ou d’énoncer les risques qui pourraient entraîner des maux de tête juridiques pour l’entreprise s’ils faisaient surface lors d’une découverte juridique. Et les frictions qui en résultent débordent parfois sur le devant de la scène publique.
En 2020, Google a licencié le chercheur en IA éthique Timnit Gebru après avoir publié un article critique des grands modèles linguistiques qui allait exploser en popularité deux ans plus tard. La fureur qui en a résulté a entraîné les départs de plusieurs autres hauts dirigeants au sein du départementet a diminué la crédibilité de l’entreprise sur les questions d’IA responsable.
Microsoft s’est concentré sur la livraison d’outils d’IA plus rapidement que ses rivaux
Les membres de l’équipe éthique et société ont déclaré qu’ils essayaient généralement de soutenir le développement de produits. Mais ils ont déclaré qu’à mesure que Microsoft se concentrait sur la livraison d’outils d’IA plus rapidement que ses rivaux, la direction de l’entreprise s’intéressait moins au type de réflexion à long terme dans laquelle l’équipe s’était spécialisée.
C’est une dynamique qui mérite d’être examinée de près. D’une part, Microsoft peut maintenant avoir une chance unique sur une génération de gagner une traction significative contre Google dans la recherche, les logiciels de productivité, le cloud computing et d’autres domaines où les géants sont en concurrence. Lorsqu’elle a relancé Bing avec l’IA, la société a déclaré aux investisseurs que chaque 1 % de part de marché qu’il pourrait retirer à Google dans la recherche générerait 2 milliards de dollars de revenus annuels.
Ce potentiel explique pourquoi Microsoft a jusqu’à présent investi 11 milliards de dollars dans OpenAI, et s’efforce actuellement d’intégrer la technologie de la startup dans tous les coins de son empire. Il semble avoir un certain succès au début : la société a déclaré la semaine dernière que Bing comptait désormais 100 millions d’utilisateurs actifs quotidiens, dont un tiers de nouveaux depuis que le moteur de recherche a été relancé avec la technologie d’OpenAI.
D’un autre côté, toutes les personnes impliquées dans le développement de l’IA conviennent que la technologie présente des risques puissants et peut-être existentiels, connus et inconnus. Les géants de la technologie ont pris soin de signaler qu’ils prennent ces risques au sérieux – Microsoft seul a trois groupes différents travailler sur la question, même après la suppression de l’équipe éthique et société. Mais compte tenu des enjeux, toute réduction d’équipes axées sur le travail responsable semble digne de mention.
L’élimination de l’équipe éthique et société est intervenue au moment même où les employés restants du groupe s’étaient concentrés sur leur plus grand défi à ce jour : anticiper ce qui se passerait lorsque Microsoft publierait des outils alimentés par OpenAI à un public mondial.
L’année dernière, l’équipe a rédigé une note détaillant les risques pour la marque associés à la Créateur d’images Bing, qui utilise le système DALL-E d’OpenAI pour créer des images basées sur des invites textuelles. L’outil image lancé dans une poignée de pays en octobrece qui en fait l’une des premières collaborations publiques de Microsoft avec OpenAI.
Alors que la technologie du texte à l’image s’est avérée extrêmement populaire, les chercheurs de Microsoft ont correctement prédit qu’elle pourrait également menacer les moyens de subsistance des artistes en permettant à quiconque de copier facilement leur style.
« En testant Bing Image Creator, il a été découvert qu’avec une simple invite comprenant uniquement le nom de l’artiste et un médium (peinture, impression, photographie ou sculpture), les images générées étaient presque impossibles à différencier des œuvres originales », ont écrit les chercheurs dans le mémo.
« Le risque d’atteinte à la marque… est réel et suffisamment important pour exiger réparation. »
Ils ont ajouté : « Le risque d’atteinte à la marque, à la fois pour l’artiste et ses parties prenantes financières, et les relations publiques négatives pour Microsoft résultant des plaintes des artistes et de la réaction négative du public sont suffisamment réels et importants pour exiger réparation avant qu’ils ne nuisent à la marque Microsoft.
De plus, l’année dernière, OpenAI a mis à jour ses conditions d’utilisation pour donner aux utilisateurs « l’intégralité des droits de propriété sur les images que vous créez avec DALL-E ». Cette décision a inquiété l’équipe d’éthique et de société de Microsoft.
« Si un générateur d’images AI reproduit mathématiquement des images d’œuvres, il est éthiquement suspect de suggérer que la personne qui a soumis l’invite a tous les droits de propriété sur l’image résultante », ont-ils écrit dans le mémo.
Les chercheurs de Microsoft ont créé une liste de stratégies d’atténuation, notamment en empêchant les utilisateurs de Bing Image Creator d’utiliser les noms d’artistes vivants comme invites et en créant un marché pour vendre le travail d’un artiste qui serait mis en évidence si quelqu’un recherchait son nom.
Les employés disent qu’aucune de ces stratégies n’a été mise en œuvre et que Bing Image Creator s’est quand même lancé dans les pays tests.
Microsoft affirme que l’outil a été modifié avant son lancement pour répondre aux préoccupations soulevées dans le document et a incité son équipe d’IA responsable à travailler davantage.
Mais les questions juridiques sur la technologie restent non résolues. En février 2023, Getty Images a intenté une action en justice contre Stability AI, les fabricants du générateur d’art IA Stable Diffusion. Getty a accusé la startup AI d’avoir utilisé de manière inappropriée plus de 12 millions d’images pour former son système.
Les accusations faisaient écho aux préoccupations soulevées par les propres éthiciens de l’IA de Microsoft. « Il est probable que peu d’artistes aient consenti à ce que leurs œuvres soient utilisées comme données de formation, et probablement que beaucoup ignorent encore comment la technologie générative permet de produire des variations d’images en ligne de leur travail en quelques secondes », ont écrit des employés l’année dernière.