Британские актеры и профсоюз Equity сражаются с ростом AI-технологий и модификаций глубокого фейкования

British actors and the Equity union fight against the rise of AI technologies and deepfake modifications.

“Есть ли мой голос в сообществе моддинга и изменения голоса? Да. Есть ли у меня какой-либо контроль над тем, для чего может использоваться мой голос? Пока что нет.”

Дэвид Менкин недавно снялся в роли Барнабаса Тармра в Final Fantasy 16, а также работал над Lego Star Wars, Valorant, Assassin’s Creed и многими другими проектами. И, как и многие другие озвучивающие актеры в игровой индустрии, он обеспокоен все более широким использованием искусственного интеллекта.

“ИИ – это инструмент, и, как и любой инструмент, он требует регулирования”, говорит Менкин. “Мы просто хотим знать, для чего будет использоваться наш голос и иметь возможность дать или отозвать согласие, если использование выходит за рамки нашего исходного контракта. И если наша работа приносит деньги вашему инструменту ИИ, мы хотим получать справедливую оплату.”

Это, безусловно, справедливая просьба. Но многие считают, что нормативные акты, касающиеся искусственного интеллекта, значительно отстают от темпа развития этой технологии, и теперь британский союз актеров Equity предпринимает шаги для изменения этой ситуации.

Новости: Сделка Microsoft с Activision Blizzard теперь окончательна? Посмотрите на YouTube

Использование ИИ в разработке игр уже является огромной темой – как сообщал Крис Тапселл из Eurogamer на GDC, особенно в области искусства и написания сценариев. Для озвучивающих актеров это создает ряд проблем, включая тревожную тенденцию использования голосов актеров в deepfake без согласия.

В твите, опубликованном в начале этого месяца моддером по имени Robbie92_, была поднята проблема использования голосов актеров сообществами моддинга для порнографического контента. “Как участник сцены моддинга Skyrim, я глубоко обеспокоен такой практикой, как использование клонирования голоса с помощью ИИ для создания и распространения порнографического контента без согласия”, написал он, приложив список затронутых исполнителей.

“Их выступления были злоупотреблены, подвергнуты клонированию с помощью инструментов ИИ и использованы для создания deepfake голосовых фрагментов с эротическим диалогом. Я считаю, что создание и распространение порнографических deepfake абсолютно злобное и что у нас, как сообщества, есть ответственность действовать.”

Некоторые из этих озвучивающих актеров с недоверием отреагировали на твит, кажется, даже не зная о том, что их голос был использован. “Что за дерьмо?!” ответил актер голоса в игре Mortal Kombat Ричард Эпкар.

В твите конкретно упоминается ElevenLabs, инструмент клонирования голоса с помощью ИИ, который – согласно своим условиям использования – предусматривает, что пользователи либо являются создателями и владельцами используемых файлов, либо имеют письменное согласие каждого идентифицируемого лица, включенного в файлы. ElevenLabs не ответил на запрос Eurogamer для комментария.

Ясно, что согласие не всегда получается.

После создания модов с клонированными голосами с помощью ИИ они размещаются на популярном сайте модификаций Nexus Mods. Когда Eurogamer обратился в Nexus Mods, нас направили на статью от апреля, где подробно описывается позиция сайта по отношению к содержанию, созданному с использованием ИИ.

“Если вы как создатель контента решаете включить в свои модификационные проекты контент, созданный с помощью ИИ, это не нарушает ни одного из наших правил сообщества”, – говорится в статье. “Однако, если мы получим достоверную жалобу от стороны, которая считает ваши работы вредными для них – это может быть озвучивающий актер или компания, владеющая правами на персонажа/ресурсы – мы удалим контент, если это сочтется целесообразным.

“Чтобы избежать проблем с вашими модами, мы рекомендуем вам избегать использования этих инструментов, если у вас нет явного разрешения на использование всех ресурсов. Это особенно важно для голосового актерского искусства, но также касается изображений, моделей, кода и всего остального, что можно создать с помощью этой технологии.”

Но это означает, что актерам самим приходится оспаривать использование их голоса в нелицензионных игровых модификациях, а не – на данный момент – какие-либо более широкие нормативные акты.

Вот где вступает в игру Equity UK. В прошлом месяце Equity выпустил свой “революционный инструментарий по использованию ИИ для защиты исполнителей от всплеска нерегулируемых технологий”.

Этот инструментарий был разработан в партнерстве с экспертом по интеллектуальной собственности доктором Матильдой Павис и устанавливает “этическое использование ИИ” и предоставляет шаблоны для исполнителей, чтобы они могли отстаивать свои права.

Кроме того, Equity призывает к срочным действиям со стороны правительства против того, что они называют “клонированием выступлений”, определяемым как: “процесс создания синтетического выступления путем записи, использования или воспроизведения выступления, голоса или образа Артиста с помощью систем машинного обучения и эквивалентных технологий”.

“Equity предпринимает действия и предоставляет нашим членам инструменты, необходимые для защиты их законных прав.”

“С ростом использования искусственного интеллекта в развлекательной индустрии, Equity предпринимает меры и предоставляет нашим членам инструменты, необходимые для защиты их прав”, – сказал Лиам Бадд, представитель Equity по новым медиа.

“Мы гордимся тем, что мы являемся лидерами в создании уникального контракта по искусственному интеллекту и установлении новых стандартов в индустрии. Несмотря на то, что Equity будет продолжать взаимодействовать с производителями развлекательной индустрии, правительство должно предпринять решительные меры для надлежащего регулирования растущего использования искусственного интеллекта.”

В марте 2023 года Интеллектуальное собственность обязалось создать кодекс практики для генеративного искусственного интеллекта к настоящему лету. Правительство также проводит консультации по подходу, ориентированному на инновации, в регулировании искусственного интеллекта, как указано в недавней белой книге.

Для Equity Визион Стейтмент в их инструментарии устанавливает новые стандарты в индустрии, заявляя, что артисты имеют право на:

  1. соглашаться (или не соглашаться) на прошлые, текущие и будущие выступления
  2. предоставлять лицензию на свои выступления или образ на личной, неисключительной и временной основе
  3. быть идентифицированными и возражать против несанкционированного использования своих выступлений и работ
  4. получать прозрачную информацию
  5. осуществлять значимые консультации
  6. получать справедливое и пропорциональное вознаграждение
  7. иметь равный доступ и обращение
  8. быть занятыми на основе коллективного соглашения

Менкин является частью команды актеров, работающих с Equity, чтобы привлечь внимание к этой проблеме.

“В прошлом году мы обратились в UKIE с ясными примерами того, почему нам нужно отраслевое регулирование, обновленные законы об авторском праве, более четкие нормы интеллектуальной собственности и коды практики, но, к сожалению, ответ был недостаточным”, – говорит он.

С тех пор на этом годовом конференции Equity были выдвинуты и приняты предложения о большем внимании к играм и искусственному интеллекту.

“Работа ведется, но законодательство занимает время”, – говорит Менкин. “Тем временем нам нужно получить образование, и вот почему Equity выпустил инструментарий по искусственному интеллекту, с руководствами по пониманию обстановки в области искусственного интеллекта и наших прав, а также шаблонами контрактов, когда язык наших клиентов и работодателей недостаточно понятен.”

Аналогичные инициативы также запускаются во всем мире, включая Америку с SAG-AFTRA и Национальной ассоциацией озвучивания (NAVA).

Менкин настаивает на усилении регулирования использования искусственного интеллекта в играх.

“Мы, как правило, часто слышим, что нет другого варианта, кроме как отказаться от всех наших прав, не имея ясного представления о том, для чего именно будет использоваться наша работа.”

“Игры и искусственный интеллект верят в саморегулирование”, – говорит он. “Компании часто говорят о стремлении к разнообразию и кодексах практики, но саморегулирование редко приносит пользу тем, кто находится на нижних ступенях лестницы, особенно субподрядчикам, таким как актеры, писатели, композиторы и т. д. Нам, как правило, говорят, что у нас нет другого варианта, кроме как отказаться от всех наших прав, не имея ясного представления о том, для чего именно будет использоваться наша работа.

“В эпоху искусственного интеллекта мы больше не можем принимать такие условия.”

Джейн Перри, обладательница премии BAFTA за озвучивание, известная своей работой в играх Returnal и Hitman, также считает, что необходим орган, регулирующий использование искусственного интеллекта.

“Я знаю о поддержке, предоставляемой Equity. Я думаю, что они делают все, что в их силах, в рамках существующей законодательной базы здесь, в Великобритании. Мы не можем требовать промышленных действий, как делают наши американские коллеги”, – говорит она.

“Я считаю, что хотя нам предлагают указания на то, на что нужно обратить внимание в контрактах, которые мы подписываем, и предлагают некоторые руководства по авторскому праву и т. д., мне кажется, что здесь отсутствует то, что является ключевым, – это некий орган, который мог бы эффективно регулировать использование искусственного интеллекта и контролировать его использование.”

Она добавляет: “Использование искусственного интеллекта развивается быстрее, чем наша способность создавать границы вокруг него. Учитывая недостаток ресурсов у Equity в Великобритании, они не могут функционировать в качестве такого органа. Было бы замечательно, если бы наше правительство действовало быстро и оказывало помощь в этом вопросе.”

Перри остается обеспокоенной будущим искусственного интеллекта и его значением для озвучивания. Ее опыт работы в играх включает взаимодействие с энтузиастами этой отрасли, но это станет устаревшим, если озвучивание голосом искусственного интеллекта станет популярным.

“Как актеру, мне приятно отвечать на эти вопросы и рассказывать о том, что происходит за кулисами”, – говорит она.

«Голос содержит в себе биографию, о которой слушатель может или не может знать. И все же, это не буду я».

«Я часто задаюсь вопросом, когда наступит время, когда ‘мои’ персонажи будут озвучены ИИ-генерированной версией моего голоса, кто будет отвечать на эти вопросы? Выборы персонажей и выражение надежд, страхов и желаний не будут определяться моим собственным жизненным опытом. У меня не будет возможности искать в своем сердце и душе, как играть сцену или как настраивать и реагировать на отношения, установленные в игровой сюжете.

“У меня, казалось бы, не будет никакого влияния на создание персонажа. И все же, это будет мой голос, звук которого резонирует и звенит в связи со всем, что произошло со мной за всю мою жизнь. Голос содержит в себе биографию, о которой слушатель может или не может знать. И все же, это не буду я».

Она добавляет, что ИИ “не все так плохо” и подходит для определенных других работ и отраслей. “Но мы должны задать себе вопрос о желании съесть свой хвост”, – говорит она.

“Я понимаю, что это весело и захватывающе играть с ИИ и видеть, насколько далеко мы можем зайти в экспериментах с голосами и лицами людей. Но давайте будем осознавать тот тяжелый факт, что отбирание работы у людей вызовет множество проблем: финансовые проблемы – одна из них, а чувство цели – другая. Мы уже это видим. В то же время, прибыльные маржи увеличиваются для уже раздувшихся корпораций».

Работы остается еще много. Но Equity – и другие профсоюзы – начинают осознавать реальную опасность, которую представляет собой ИИ для актеров. Однако, пока не будет введено должное регулирование, ответственность, к сожалению, лежит на актерах, чтобы защитить себя.