Издатель Hello Neighbor освещает тревожное будущее контроля за сотрудниками в выступлении на тему искусственного интеллекта
Hello Neighbor's publisher sheds light on the troubling future of employee surveillance in a talk on artificial intelligence.
Алекс Ничипорчик, генеральный директор издателя Hello Neighbor TinyBuild, вызвал недоумение во время выступления, в котором он описал потенциальные возможности использования средств ИИ на рабочем месте, включая мониторинг сообщений сотрудников в Slack и транскрипций совещаний, чтобы помочь выявить “потенциально проблемных игроков” – обсуждение, которое он позже назвал “гипотетическим”.
Ничипорчик (как сообщает WhyNowGaming) выступал на конференции Develop: Brighton на этой неделе с докладом под названием “ИИ в Gamedev: безопасна ли моя работа?”, который обещал “глубокое изучение того, как [TinyBuild] использовал ИИ в повседневной практике для экспоненциального увеличения эффективности”.
Особенно спорным оказался один раздел презентации, посвященный “ИИ для HR”, который начал привлекать внимание после того, как его содержание стало распространяться в интернете. Здесь Ничипорчик обсуждал, как ИИ может использоваться отделом кадров для выявления выгорания (позже описанного как синоним “токсичности”) среди сотрудников, сначала выявляя “потенциально проблемных членов команды”, затем собирая и анализируя их сообщения в Slack и автоматические транскрипции с Google Meet и Zoom с использованием Chat GPT, в процессе, который он называет “Анализ Я и Меня”.
“Существует прямая корреляция между тем, сколько раз кто-то использует ‘я’ или ‘меня’ на совещании”, предположил Ничипорчик, “по сравнению с общим количеством слов, которые они используют, с вероятностью возникновения выгорания у человека.”
По словам Ничипорчика, выявляя сотрудников, которые “слишком много говорят о себе”, которые “забирают слишком много времени на совещаниях”, чтобы “ничего не делать”, и которые получают негативные отзывы в 360-градусных обзорах со стороны коллег, затем можно “выявить человека, который находится на грани выгорания, который может быть причиной выгорания коллег, работающих с этим человеком, и вы сможете выявить это и исправить вовремя”.
- Неожиданный ужас Кокона как ошибка стала особенностью
- Последняя попытка FTC блокировать приобретение Microsoft компании A...
- Хакер GTA 6 признан негодным к суду
Здесь точные границы несколько дистопического видения Ничипорчика начинают становиться неясными. WhyNowGaming сообщает, что TinyBuild уже проводил эксперименты с использованием этой технологии по отношению к работникам, которые уже уволились из компании, и теперь начал использовать ее превентивно, отметив “первый случай на прошлой неделе, когда руководитель студии был в плохом состоянии, никто нам не сказал. Если бы мы подождали месяц, возможно, у нас бы уже не было студии.”
Однако в позднейшем заявлении для веб-сайта Ничипорчик опровергает версию WhyNowGaming, утверждая, что “часть моего выступления, посвященная HR, была гипотетической, поэтому и была ссылка на Black Mirror”, и что TinyBuild “не отслеживает сотрудников и не использует ИИ для выявления проблемных сотрудников”.
“Я мог бы сделать это более ясным, если бы рассматривалось вне контекста”, – сказал Ничипорчик в заявлении, предоставленном публикации после ее отчета. “Мы не отслеживаем сотрудников и не используем ИИ для выявления проблемных. Презентация исследовала, как могут быть использованы инструменты ИИ, и некоторые из них заходят в страшную территорию. Я хотел исследовать, как они могут быть использованы для блага.”
Однако вывод кажется довольно простым. Независимо от намерений Ничипорчика и внутренних практик TinyBuild, несомненно, будут и другие генеральные директора, рассматривающие использование ИИ, по крайней мере, в равной степени коварных способов. ИИ сейчас является актуальной темой, и, как недавно выяснил Крис Тапселл из Eurogamer, она вызывает очень противоречивые чувства у всех, кто работает в игровой индустрии, во всех ее областях – но ясно, что это не проблема, которая исчезнет.