Генеральный директор издателя инди-игр предлагает использовать искусственный интеллект высокого уровня, сравнимый с Черным зеркалом, для выявления выгорания сотрудников, но утверждает, что все это гипотетически, несмотря на возмущение.

The CEO of an indie game publisher suggests using high-level artificial intelligence, comparable to Black Mirror, to detect employee burnout, but claims it's all hypothetical despite the outrage.

Алекс Ничипорчик, генеральный директор tinyBuild, издателя игры Hello Neighbor, недавно предложил использование моделей искусственного интеллекта для поиска “проблемных сотрудников” и выявления сотрудников, находящихся на грани выгорания. Хотя целью было якобы помочь сотрудникам, все отнеслись к этому предложению очень негативно.

Издание WhyNow Gaming рассказало о презентации Ничипорчика, которую он провел на конференции Develop: Brighton 12 июля. Заголовок презентации звучал так: “Искусственный интеллект в геймдеве: в безопасности ли моя работа?”. В кратком описании сказано, что презентация будет “подробно рассматривать, как издатель применил искусственный интеллект в повседневной практике для экспоненциального увеличения эффективности. От увеличения эффективности производства ключевого искусства в 10 раз до использования искусственного интеллекта для сбора данных и определения общественного настроения, мы находимся в промышленной революции цифровой эры. Те, кто принимает это, уже имеют преимущество”.

В дополнение к тому, как искусственный интеллект может использоваться в качестве инструмента для таких направлений разработки игр, как искусство и код, в презентации упоминается “распределение ресурсов по персоналу, которое изменит и оптимизирует работу команды”. Больше всего возмутило именно это, когда речь зашла о том, чтобы использовать искусственный интеллект для выявления отдельных сотрудников, а не, я не знаю, чтобы проверить, как они себя чувствуют.

(Кредит за изображение: tinyBuild)

Слайды презентации Ничипорчика предлагают анализ “Я, Я” для измерения того, сколько раз сотрудники обращаются к себе как к отдельным личностям, а не как к части команды (с использованием множественного числа, например, “мы” и т.д.). Это можно сделать, например, путем обработки переписок в Slack или других мессенджерах, таких как автоматические транскрипты звонков Google или Zoom, с помощью искусственного интеллекта, наподобие ChatGPT, после удаления любой идентифицирующей информации. По сообщениям, Ничипорчик шутил на презентации, что “может запатентовать этот метод, потому что, насколько мне известно, его еще никто не придумал”.

Он также обсуждал поиск сотрудников, которые занимают “непропорциональное количество времени на совещаниях, говоря в сравнении с коллегами” – людей, которых он назвал “вампирами времени”, что совпадает со сленговым выражением, которое я использую для видеоигр с большим количеством контента. Наконец, в презентации был представлен также обратная связь на 360 градусов от отдела кадров, которая предполагала просьбу сотрудников составить список сотрудников, с которыми у них были положительные взаимодействия, и затем изучить людей, которые не появляются во многих или ни в одном из этих списков.

Комбинируя эти данные, презентация подводит итог, что “вы можете предотвратить выгорание – как у самого сотрудника, так и его команды”. Ничипорчик также добавил, что “никогда не заставляйте своих сотрудников чувствовать, что их шпионят”, однако разрыв между этим предупреждением и предложенными методами не понравился разработчикам игр.

(Кредит за изображение: tinyBuild)

Если вам кажется, что это звучит как дистопический кошмар прямо из сериала “Черное Зеркало”, то вы можете удивиться, услышав, что в самой презентации сказано: “Добро пожаловать в Черное Зеркало”. Утверждение о том, что “токсичные люди обычно склонны к выгоранию”, с презентации слайдом, который уравнивает выгорание с токсичностью, тоже вызвало негодование. Мягко говоря, людям это не нравится. Чтобы сказать более резко:

“Просто подумайте, может быть, есть менее дистопические способы определить, насколько ваши сотрудники недовольны”, – сказала Мегна Джаянт, сценаристка в компании Thirsty Suitors.

“Тот, кто выгорел, не всегда ‘токсичен’. Люди могут испытывать выгорание и быть токсичными, но утверждать, что выгорание чаще всего является неудачей характера, – это странно”, – добавила Дора Брекинридж, директор компании Armor Games.

“Если вам приходится постоянно объяснять, что вы знаете, насколько дистопичен и ужасен ваш контроль над сотрудниками, то вы, возможно, сама проблема, парень”, – говорит Митч Дайер, писатель в WB Games.

Дэн Ахерн, руководитель отдела контроля качества в Radical Forge, утверждает, что “вам не нужен искусственный интеллект, чтобы найти ‘проблемных сотрудников’ – вы можете обнаружить их, просто посмотрев, кто пытается заниматься ужасными, адскими глупостями, подобными этим. Очень разочаровывающе, что Develop разрешил проведение такой антиигровой разработчикам презентации”.

(Кредит за изображение: tinyBuild)

Сегодня утром, 14 июля, Ничипорчик выступил в Твиттере, чтобы оспорить оригинальную историю, которую он описывает как “происходящую из “места ненависти”, за то, что она была “вырвана из контекста” и “удобно” опустила ключевые слайды. WhyNow Gaming также обновил свою историю заявлением генерального директора, в котором разъясняется, что:

“Часть моей презентации о кадровой работе была гипотетической, отсюда и ссылка на сериал “Черное Зеркало”. Я мог сделать это более понятным вне контекста. Мы не контролируем сотрудников и не используем ИИ для выявления проблемных. Презентация исследовала, как могут быть использованы инструменты ИИ, и некоторые из них переходят в зону жуткого.”

“Здесь не речь идет о выявлении проблемных сотрудников, здесь речь идет о предоставлении инструментов HR для выявления и предотвращения выгорания людей”, – подчеркнул Ничипорчик в Твиттере.

“Я мог бы больше подчеркнуть: мы не используем инструменты ИИ для HR, эта часть презентации была гипотетической”, – сказал он в ответе.

Один пользователь Твиттера сказал, что “ненавидит идею того, чтобы мои сообщения в Slack собирались и передавались в какую-либо программу”, и к неудовольствию некоторых, Ничипорчик отреагировал согласием на 100% без дальнейших объяснений.

Спросили, дали ли сотрудники tinyBuild разрешение на анализ их сообщений таким образом, Ничипорчик сказал, что никому не нужно было давать разрешение, потому что “ничего не подавалось” – снова, я полагаю, потому что это все было “гипотетическим”.

“Этичность таких процессов определенно вызывает вопросы, и этот вопрос был задан во время вопросов и ответов после презентации”, – сказал он в другом твите. “Вот почему я говорю “очень в стиле Черного Зеркала”. Это было ГИПОТЕТИЧЕСКИМ. Что можно сделать, чтобы предотвратить выгорание”.

Гипотетическое или нет, сама идея вызвала недовольство у многих людей, особенно на конференции такого рода и со стороны руководителя крупной независимой студии. Я обратился непосредственно к tinyBuild с просьбой об обновленном комментарии по поводу предложения, его позиции по отношению к такому роду мониторинга и вмешательства ИИ в работу сотрудников, а также о том, рассматривает ли она внедрение такой системы.

Недавно одна из актрис, озвучивающих в персонажей в Persona 5, была вынуждена покинуть Твиттер после критики видео, клонирующего ее голос с помощью ИИ, всего несколько дней спустя голоса ИИ в NSFW модах для Skyrim вызвали отдельное обсуждение той же самой клонирующей технологии.