L’éditeur Hello Neighbor décrit l’avenir troublant de la surveillance des employés dans le discours d’ouverture de l’IA

L'éditeur Hello Neighbor décrit l'avenir troublant de la surveillance des employés dans le discours d'ouverture de l'IA

Alex Nichiporchik, PDG de l’éditeur Hello Neighbor TinyBuild, a haussé les sourcils lors d’un discours liminaire dans lequel il a décrit les utilisations potentielles des outils d’IA sur le lieu de travail, y compris la surveillance des messages Slack des employés et les transcriptions des réunions pour aider à identifier les « acteurs problématiques potentiels » – une discussion il a depuis insisté sur le fait qu’il était « hypothétique ».

Nichiporchik (tel que rapporté par WhyNowGaming) s’exprimait lors de la conférence Develop: Brighton de cette semaine, dans une conférence intitulée ‘AI in Gamedev: Is My Job Safe?’ qui promettait une « étude approfondie [look] comment [TinyBuild] adopté l’IA dans les pratiques quotidiennes pour augmenter de manière exponentielle l’efficacité ».

Une partie de la présentation en particulier, axée sur « l’IA pour les RH », s’est avérée particulièrement controversée depuis que la nouvelle de son contenu a commencé à se répandre sur Internet. Ici, Nichiporchik a expliqué comment l’IA pourrait être utilisée par les RH pour détecter l’épuisement professionnel (décrit plus tard comme étant synonyme de « toxicité ») parmi les employés en identifiant d’abord les « membres de l’équipe potentiellement problématiques », puis en rassemblant et en exécutant leurs messages Slack et les transcriptions automatiques de personnes comme Google Meet et Zoom via Chat GPT, dans un processus qu’il appelle « I, Me Analysis ».


Newscast : L’acquisition d’Activision Blizzard par Microsoft est-elle désormais conclue ?

« Il existe une corrélation directe entre le nombre de fois où quelqu’un utilise » je « ou » moi « dans une réunion », a déclaré Nichiporchik, « par rapport à la quantité de mots qu’il utilise dans l’ensemble, à la probabilité que la personne fasse un burn-out. »

Selon Nichiporchik, en identifiant les employés qui « parlent trop d’eux-mêmes », qui « absorbent trop de temps en réunion » pour que « rien ne soit fait », et qui reçoivent des commentaires négatifs dans les évaluations par les pairs à 360 degrés, il est alors possible de « Identifiez quelqu’un qui est sur le point de s’épuiser, qui pourrait être la raison pour laquelle les collègues qui travaillent avec cette personne s’épuisent, et vous pourrez peut-être l’identifier et y remédier rapidement. »

C’est là que la portée exacte de la vision quelque peu dystopique de Nichiporchik commence à devenir floue. WhyNowGaming rapporte que le PDG a déclaré que TinyBuild a expérimenté la technologie de manière rétroactive sur des travailleurs qui ont déjà quitté l’entreprise et commence maintenant à l’utiliser de manière proactive, mettant en évidence un « premier cas la semaine dernière, où un chef de studio n’était pas dans un bon endroit, personne ne nous l’a dit. Si nous avions attendu un mois, nous n’aurions probablement pas de studio.

Dans une déclaration fournie plus tard au site Web, cependant, Nichiporchik contredit le récit de WhyNowGaming, insistant sur le fait que « la partie RH de ma présentation était hypothétique, d’où la référence Black Mirror » et que TinyBuild « ne surveille pas les employés et n’utilise pas l’IA pour identifier ceux qui posent problème.  »

« J’aurais pu être plus clair lors de la visualisation hors contexte », a déclaré Nichiporchik dans un communiqué fourni à la publication à la suite de son rapport. « Nous ne surveillons pas les employés et n’utilisons pas l’IA pour identifier les problèmes. La présentation a exploré comment les outils d’IA peuvent être utilisés, et certains entrent dans un territoire effrayant. Je voulais explorer comment ils peuvent être utilisés pour de bon. »

Les plats à emporter, cependant, semblent être assez simples. Indépendamment des intentions de Nichiporchik et des pratiques internes de TinyBuild, il y aura sans aucun doute d’autres PDG qui envisageront l’utilisation de l’IA de manière au moins aussi néfaste. L’IA est un sujet brûlant en ce moment, et, comme Chris Tapsell d’Eurogamer l’a récemment découvert, c’est un sujet sur lequel les acteurs de l’industrie du jeu, dans toutes les disciplines, ont un sentiment très mitigé – mais ce n’est clairement pas un problème qui va disparaître.

Source-101