Alex Nichiporchik, PDG de l’éditeur Hello Neighbor tinyBuild, a récemment proposé la possibilité d’utiliser des modèles d’IA pour aider à trouver des « membres d’équipe problématiques » et à identifier les employés à risque d’épuisement professionnel, et bien que l’objectif soit censé aider les employés, tout le monde n’aimait pas ça.
Pourquoi maintenant rapporté sur un présentation Nichiporchik a donné lors de la conférence Develop: Brighton le 12 juillet, intitulée « AI in Gamedev: Is My Job Safe? » Le texte de présentation du résumé indique que la présentation « approfondirait la manière dont l’éditeur a adopté l’IA dans ses pratiques quotidiennes pour augmenter de manière exponentielle son efficacité. D’une augmentation de 10 fois de l’efficacité de la production artistique clé à l’utilisation de l’IA pour collecter des données et vérifier le sentiment de la communauté, nous sommes en la révolution industrielle de l’ère numérique. Ceux qui l’adoptent ont déjà un avantage. »
En plus de la façon dont l’IA peut être utilisée comme outil pour les disciplines de développement de jeux comme l’art et le code, l’inscription à la session note qu' »il y aura une réaffectation des ressources humaines qui changera et optimisera le fonctionnement des équipes ». C’est principalement cet élément qui a déclenché un tel incendie, avec une discussion centrée sur l’idée d’utiliser l’IA pour distinguer les employés plutôt que, je ne sais pas, vérifier comment ils vont.
Les diapositives de la présentation de Nichiporchik proposent une analyse « je, moi » mesurant combien de fois les employés se désignent comme des individus plutôt que comme faisant partie de l’équipe (avec des pluriels comme « nous », etc.). Cela pourrait être fait, par exemple, en alimentant Slack ou d’autres conversations d’applications de messagerie, telles que les transcriptions automatiques des appels Google ou Zoom, via une IA comme ChatGPT après les avoir supprimées de tous les détails d’identification. Nichiporchik aurait plaisanté sur le droit d’auteur de cette méthode lors de son discours, « parce qu’à ma connaissance, personne n’a inventé cela ».
Il a également évoqué la recherche d’employés prenant un « temps de réunion disproportionné par rapport aux collègues » – des personnes qu’il a surnommées « vampires du temps », qui est par coïncidence le même terme que j’utilise pour les jeux vidéo avec beaucoup de contenu. Enfin, la discussion s’est terminée par un retour d’information à 360 degrés des ressources humaines, ce qui impliquerait de demander aux employés d’énumérer les collègues avec lesquels ils ont eu des interactions positives, puis d’examiner les personnes qui ne figurent pas dans plusieurs ou aucune de ces listes.
En combinant ces données, résume la présentation, « vous pourrez peut-être simplement prévenir un épuisement professionnel – à la fois de la personne et de son équipe ». Nichiporchik a également ajouté que vous ne devez « jamais donner l’impression aux membres de votre équipe qu’ils sont espionnés », et l’écart entre cet avertissement et les méthodes proposées n’a pas été bien accueilli par les développeurs de jeux.
Si vous pensez que cela ressemble à un cauchemar dystopique tout droit sorti de Black Mirror, vous serez peut-être perplexe d’apprendre que la présentation a même dit : « Bienvenue dans Black Mirror ». L’affirmation selon laquelle «les personnes toxiques sont généralement celles qui sont sur le point de s’épuiser», avec une diapositive dans la présentation assimilant l’épuisement professionnel à la toxicité, a également fait l’objet de critiques. Le moins que l’on puisse dire, c’est que les gens n’aiment pas ça. Pour le moins gentiment :
« Juste une pensée, peut-être qu’il existe des moyens moins dystopiques de savoir si vos employés sont fkn misérables », a dit Meghna Jayanth, conceptrice narrative de Thirsty Suitors.
« Quelqu’un qui est brûlé n’est pas » généralement toxique « . Les gens peuvent certainement être épuisés et toxiques, mais impliquer que l’épuisement professionnel est le plus souvent comme un manque de caractère est bizarre « . ajoutée Dora Breckinridge, directrice chez Armor Games.
« Si vous devez répéter à plusieurs reprises que vous savez à quel point la surveillance de vos employés est dystopique et horrifiante, vous pourriez être le putain de problème, mon gars », dit L’écrivain de WB Games, Mitch Dyer.
Dan Ahern, responsable de l’assurance qualité de Radical Forge, argumenté « Vous n’avez pas besoin de l’IA pour trouver des » employés problématiques « – vous pouvez les trouver simplement en regardant qui essaie de faire des conneries horribles au niveau du lien de tourment comme celle-ci. Vraiment décevant que Develop permette à un tel développeur anti-jeu de parler à même y être hébergé. »
Ce matin, le 14 juillet, Nichiporchik a pris Twitter pour rappeler l’histoire originale, qu’il décrit comme venant « d’un lieu de haine », pour avoir été « sortie de son contexte » et avoir « commodément » omis les diapositives clés. WhyNow Gaming a également mis à jour son histoire avec une déclaration du PDG précisant que :
« La partie RH de ma présentation était hypothétique, d’où la référence à Black Mirror. J’aurais pu le rendre plus clair lors de la visualisation hors contexte. Nous ne surveillons pas les employés et n’utilisons pas l’IA pour identifier les problèmes. La présentation a exploré comment l’IA des outils peuvent être utilisés, et certains entrent dans un territoire effrayant. »
« Il ne s’agit pas d’identifier les employés problématiques, il s’agit de donner des outils RH pour identifier et prévenir l’épuisement professionnel des personnes », a réitéré Nichiporchik sur Twitter.
« J’aurais pu insister davantage sur ce point : nous n’utilisons pas d’outils d’IA pour les RH, cette partie de la présentation était hypothétique », a-t-il déclaré dans une réponse.
Un utilisateur de Twitter a dit ils « méprisaient l’idée que mes messages Slack soient collectés et intégrés à n’importe quel type de programme », et à la confusion de certains, Nichiporchik a riposté « 100% d’accord » sans autre explication.
Lorsqu’on lui a demandé si les employés de tinyBuild avaient autorisé l’analyse de leurs messages de cette manière, Nichiporchik a répondu que personne n’avait besoin de donner l’autorisation car « ils n’étaient nourris nulle part » – encore une fois, je suppose, car tout cela était « hypothétique ».
« L’éthique de tels processus est très certainement discutable, et cette question a été posée lors des questions-réponses après la présentation », a-t-il déclaré. a dit dans un autre tweet. « C’est pourquoi je dis » territoire très Black Mirror « . Cette partie était HYPOTHÉTIQUE. Ce que vous pourriez faire pour prévenir l’épuisement professionnel. »
Hypothétique ou non, l’idée même a frotté beaucoup de gens dans le mauvais sens, en particulier lors d’une conférence comme celle-ci et d’un cadre au sommet d’un important studio indépendant. J’ai contacté tinyBuild directement pour obtenir un commentaire mis à jour sur la proposition, sa position sur ce type de surveillance et d’intervention des employés dirigée par l’IA, et s’il est envisagé de mettre en œuvre un tel système lui-même.
Une Persona 5 VA a récemment été chassée de Twitter après avoir critiqué une vidéo clonant sa voix avec l’IA, quelques jours seulement après Voix IA dans les mods NSFW Skyrim a déclenché une discussion séparée sur le même type de technologie de clonage.