Le éditeur de Hello Neighbor expose un avenir préoccupant de la surveillance des employés lors d’une conférence sur l’IA

Hello Neighbor's publisher discusses concerning future of employee surveillance at AI conference.

Alex Nichiporchik, PDG de TinyBuild, l’éditeur de Hello Neighbor, a suscité des interrogations lors d’un discours dans lequel il a exposé les utilisations potentielles des outils d’IA sur le lieu de travail, notamment la surveillance des messages Slack des employés et des transcriptions de réunions pour aider à identifier les “joueurs problématiques potentiels” – une discussion qu’il a depuis qualifiée d'”hypothétique”.

Nichiporchik (comme rapporté par WhyNowGaming) s’exprimait lors de la conférence Develop: Brighton de cette semaine, dans un exposé intitulé “IA dans le développement de jeux : mon emploi est-il sûr ?”, qui promettait un “examen approfondi de la manière dont [TinyBuild] a adopté l’IA dans ses pratiques quotidiennes pour augmenter exponentiellement l’efficacité”.

Une partie de la présentation en particulier, axée sur “l’IA pour les ressources humaines”, s’est révélée particulièrement controversée depuis que la nouvelle de son contenu a commencé à se propager sur Internet. Ici, Nichiporchik a discuté de la manière dont l’IA pourrait être utilisée par les RH pour repérer l’épuisement professionnel (plus tard décrit comme synonyme de “toxicité”) parmi les employés en identifiant d’abord les “membres d’équipe potentiellement problématiques”, puis en recueillant et en analysant leurs messages Slack et les transcriptions automatiques issues de plateformes comme Google Meet et Zoom à l’aide de Chat GPT, dans un processus qu’il appelle “analyse de moi, de moi”.

Newscast : L’acquisition d’Activision Blizzard par Microsoft est-elle maintenant une affaire conclue ?

“Il existe une corrélation directe entre le nombre de fois où quelqu’un utilise ‘je’ ou ‘moi’ lors d’une réunion”, a avancé Nichiporchik, “par rapport au nombre total de mots qu’il utilise, et la probabilité que la personne soit en situation d’épuisement professionnel.”

Selon Nichiporchik, en identifiant les employés qui “parlent trop d’eux-mêmes”, qui “accaparent trop de temps lors des réunions” pour que “rien ne soit fait”, et qui reçoivent des commentaires négatifs dans les évaluations à 360 degrés de leurs pairs, il est alors possible “d’identifier quelqu’un qui est sur le point de s’épuiser, qui pourrait être la raison pour laquelle les collègues qui travaillent avec cette personne s’épuisent, et vous pourriez être en mesure de l’identifier et de le résoudre rapidement.”

C’est là que la portée exacte de la vision quelque peu dystopique de Nichiporchik commence à devenir floue. WhyNowGaming rapporte que le PDG a déclaré que TinyBuild avait expérimenté cette technologie de manière rétroactive sur des employés qui avaient déjà quitté l’entreprise, et qu’il commençait maintenant à l’utiliser de manière proactive, soulignant un “premier cas la semaine dernière, où un responsable de studio n’était pas dans un bon état, personne ne nous l’avait dit. Si nous avions attendu un mois, nous n’aurions probablement plus de studio.”

Cependant, dans une déclaration ultérieure fournie au site web, Nichiporchik contredit le récit de WhyNowGaming, affirmant que “la partie RH de ma présentation était hypothétique, d’où la référence à Black Mirror” et que TinyBuild ne “surveille pas les employés et n’utilise pas l’IA pour identifier les personnes problématiques.”

“J’aurais pu le formuler plus clairement si on le regarde hors contexte”, a déclaré Nichiporchik dans une déclaration fournie à la publication après son rapport. “Nous ne surveillons pas les employés et n’utilisons pas l’IA pour identifier les personnes problématiques. La présentation explorait comment les outils d’IA peuvent être utilisés, et certains entrent dans un territoire inquiétant. Je voulais explorer comment ils peuvent être utilisés à bon escient.”

Cependant, la conclusion semble assez claire. Indépendamment des intentions de Nichiporchik et des pratiques internes de TinyBuild, il y aura sans aucun doute d’autres PDG envisageant l’utilisation de l’IA de manière tout aussi néfaste. L’IA est un sujet d’actualité en ce moment, et, comme l’a récemment constaté Chris Tapsell d’Eurogamer, c’est un sujet sur lequel les acteurs de l’industrie du jeu, dans toutes les disciplines, ont des sentiments très mitigés – mais il est clair que ce n’est pas un problème qui va disparaître.