Le PDG d’un éditeur de jeux indépendants propose une détection de l’épuisement professionnel digne de Black Mirror pour les employés, déclarant que tout cela est hypothétique face aux critiques.

Le PDG d'un éditeur de jeux indépendants propose une détection de l'épuisement professionnel digne de Black Mirror pour les employés, déclarant que tout cela est hypothétique face aux critiques.' The CEO of an indie game publisher suggests a Black Mirror-like detection of burnout for employees, claiming it's all hypothetical in the face of criticism.

Alex Nichiporchik, PDG de tinyBuild, l’éditeur de Hello Neighbor, a récemment proposé d’utiliser des modèles d’IA pour aider à trouver des “membres d’équipe problématiques” et identifier les employés susceptibles de souffrir d’épuisement professionnel. Et bien que l’objectif soit prétendument d’aider les employés, tout le monde a détesté cette idée.

WhyNow Gaming a rapporté une présentation de Nichiporchik donnée lors de la conférence Develop: Brighton le 12 juillet, intitulée “L’IA dans le développement de jeux : mon emploi est-il sûr ?” Le résumé de la présentation indique qu’elle “approfondira la manière dont l’éditeur a adopté l’IA dans ses pratiques quotidiennes pour augmenter exponentiellement son efficacité. De l’augmentation de 10 fois de l’efficacité de production de l’art clé à l’utilisation de l’IA pour collecter des données et vérifier le sentiment de la communauté, nous sommes dans la révolution industrielle de l’ère numérique. Ceux qui l’embrassent ont déjà un avantage.”

En plus de la façon dont l’IA peut être utilisée comme un outil pour les disciplines du développement de jeux telles que l’art et le code, la session souligne qu’il y aura une “réallocation des ressources humaines qui changera et optimisera la façon dont les équipes travaillent”. C’est surtout cet élément qui a provoqué une telle réaction, avec des discussions centrées sur l’idée d’utiliser l’IA pour cibler des employés plutôt que, je ne sais pas, vérifier comment ils vont.

(Crédit image : tinyBuild)

Les diapositives de la présentation de Nichiporchik proposent une analyse “Moi, moi” mesurant combien de fois les employés se réfèrent à eux-mêmes en tant qu’individus plutôt que comme faisant partie de l’équipe (avec des pluriels comme “nous”, etc.). Cela pourrait être fait, par exemple, en alimentant des conversations Slack ou d’autres applications de messagerie, telles que des transcriptions automatiques d’appels Google ou Zoom, par l’IA comme ChatGPT après les avoir dépouillées de tout détail d’identification. Nichiporchik aurait plaisanté en parlant de copyrighter cette méthode pendant sa présentation, “parce que, à ma connaissance, personne ne l’a inventée.”

Il a également parlé de la recherche d’employés qui prennent “une quantité disproportionnée de temps de réunion à parler par rapport à leurs collègues” – des personnes qu’il a qualifiées de “vampires du temps”, ce qui est curieusement le même terme que j’utilise pour les jeux vidéo avec beaucoup de contenu. Enfin, la présentation a inclus des retours à 360 degrés des ressources humaines, qui consisteraient à demander aux employés de dresser la liste des collègues avec lesquels ils ont eu des interactions positives, puis à examiner les personnes qui n’apparaissent pas dans beaucoup ou aucune de ces listes.

En combinant ces données, la présentation résume : “vous pourriez bien prévenir l’épuisement professionnel – tant pour la personne que pour son équipe.” Nichiporchik a également ajouté qu’il ne faut “jamais faire sentir à vos membres d’équipe qu’ils sont surveillés”, et l’écart entre cet avertissement et les méthodes proposées n’a pas été bien accueilli par les développeurs de jeux.

(Crédit image : tinyBuild)

Si vous pensez que cela ressemble à un cauchemar dystopique tout droit sorti de Black Mirror, vous serez peut-être perplexe d’entendre que la présentation a même déclaré : “Bienvenue dans Black Mirror”. L’affirmation selon laquelle “les personnes toxiques sont généralement celles qui sont sur le point de s’épuiser”, avec une diapositive de la présentation assimilant l’épuisement professionnel à la toxicité, a également été critiquée. Pour le dire doucement, les gens n’aiment pas ça. Pour le dire moins doucement :

“Juste une idée, peut-être y a-t-il des moyens moins dystopiques de savoir si vos employés sont foutrement misérables”, a déclaré Meghna Jayanth, scénariste de Thirsty Suitors.

“Quelqu’un qui est épuisé n’est pas ‘généralement toxique’. Les gens peuvent certainement être épuisés et toxiques, mais insinuer que l’épuisement professionnel est le plus souvent un échec de caractère est bizarre”, a ajouté Dora Breckinridge, directrice chez Armor Games.

“Si vous devez constamment préciser que vous savez à quel point votre surveillance des employés est dystopique et horrifiante, vous pourriez être le problème, mec”, déclare Mitch Dyer, écrivain chez WB Games.

Dan Ahern, responsable AQ chez Radical Forge, a soutenu que “vous n’avez pas besoin d’IA pour trouver des ’employés problématiques’ – vous pouvez les trouver simplement en regardant qui essaie de faire des trucs horribles de niveau tourment-nexus comme ça. Vraiment décevant que Develop permette même à un discours aussi anti-développeur de jeux d’être hébergé là-bas.”

(Crédit image : tinyBuild)

Ce matin, le 14 juillet, Nichiporchik est allé sur Twitter pour dénoncer l’histoire originale, qu’il décrit comme venant d’un “endroit de haine”, pour avoir été “sortie de son contexte” et “omis de manière opportune” des diapositives clés. WhyNow Gaming a également mis à jour son histoire avec une déclaration du PDG clarifiant que :

“La partie RH de ma présentation était hypothétique, d’où la référence à Black Mirror. J’aurais pu être plus clair pour une visualisation hors contexte. Nous ne surveillons pas les employés et n’utilisons pas l’IA pour identifier ceux qui posent problème. La présentation explorait comment les outils d’IA peuvent être utilisés, et certains entrent dans un territoire effrayant.”

“Il ne s’agit pas d’identifier les employés problématiques, il s’agit de donner des outils RH pour identifier et prévenir l’épuisement des personnes”, a réitéré Nichiporchik sur Twitter. 

“J’aurais pu insister davantage là-dessus : nous n’utilisons pas d’outils d’IA pour les RH, cette partie de la présentation était hypothétique”, a-t-il répondu. 

Un utilisateur de Twitter a déclaré qu’il “détestait l’idée que mes messages Slack soient collectés et alimentés dans n’importe quel programme”, et à la confusion de certains, Nichiporchik a répondu “100% d’accord” sans autre explication. 

Interrogé sur le fait que les employés de tinyBuild ont donné leur autorisation pour que leurs messages soient analysés de cette manière, Nichiporchik a déclaré que personne n’avait besoin de donner son autorisation car “ils n’ont été nulle part” – encore une fois, je suppose, parce que tout cela était “hypothétique”. 

“L’éthique de tels processus est certainement discutable, et cette question a été posée lors de la séance de questions/réponses après la présentation”, a-t-il déclaré dans un autre tweet. “C’est pourquoi je dis ‘très Black Mirror’. Cette partie était HYPOTHÉTIQUE. Ce que vous pourriez faire pour prévenir l’épuisement.” 

Hypothétique ou non, l’idée même a déplu à beaucoup de gens, surtout lorsqu’elle est présentée lors d’une conférence comme celle-ci et par un dirigeant d’un studio indépendant de taille considérable. J’ai contacté directement tinyBuild pour obtenir un commentaire mis à jour sur la proposition, sa position sur ce type de surveillance et d’intervention des employés basée sur l’IA, et s’il envisage de mettre en place un tel système. 

Récemment, un doubleur de Persona 5 a été chassé de Twitter après avoir critiqué une vidéo où sa voix était clonée avec de l’IA, quelques jours seulement après que des voix d’IA dans des mods NSFW de Skyrim aient suscité une discussion distincte sur ce même type de technologie de clonage.