Дипфейки: защитить, но не задушить?

24 июня 2024, 10:39
0

Дипфейки: защитить, но не задушить?

Что такое дипфейки? Какие проблемы с ними связаны? Какие задачи стоят, чтобы их разрешить? Об этом рассказал Валерий Сидоренко, генеральный директор Digital-агентства Интериум.
 Дипфейки: защитить, но не задушить?

Тема дипфейков, заведомо ложных изображений, звуков, видео, нарисованных на компьютере и созданных с целью ввести зрителей в заблуждение, является острой и актуальной, особенно в наше «время диджитал».

О том, какие проблемы с ними связаны, какие задачи стоят, чтобы их решить, рассказал 17 июня в Москве на форуме «Время цифры» Валерий Сидоренко, генеральный директор Digital-агентства Интериум, член Общественного Совета при Минцифры, член Совета предпринимателей Москвы.

В рамках панельной дискуссии ««Человек» и закон», посвящённой выстраиванию системы правил и регулированию в мире дипфейков, Валерий выделил три вида контента, в которых используются дипфейки, созданные с помощью искусственного интеллекта:

- легальный: (коммерческий ИИ, бизнес, контент на ТВ, в соцсетях компаний, реклама и т.д).

Для наглядности приведём пример: «МегаФон» снял рекламу с дипфейком Брюса Уиллиса, и это было легально, так как компания купила на него авторские права, поскольку сам актер не смог бы сняться по ряду причин.

- полулегальный (потребительский): контент, создаваемый людьми для веселья и развлечения, не несущий в себе негатива или коммерческой составляющий. И очень важно как раз в этом сегменте не убить креатив излишним регулированием

- нелегальный: фейки, мошенничество, вбросы, реклама запрещённого контента.  


Спикер отметил, что при этом существует целый ряд проблем:

- качество материалов, созданных с помощью искусственного интеллекта, растёт каждый месяц

Например, очень качественным является нашумевший ролик «Air Head by Shy Kids» — полноценный короткометражный фильм, полностью нарисованный нейросетью Sora. И это проблема, так как надежных детекторов, определяющих, дипфейк это или нет, не существует. Пока «спасают» артефакты в виде шести пальцев или сдвоенных ушей, но через пару лет ИИ научится делать абсолютно реалистичные изображения и видео.

- стало частым нелегальное использование лиц и голосов разных медийных личностей

Интересный кейс: во время выборов в Словении по соцсетям распространили дипфейк-аудио оппозиционера Михаля Шимечки, на котором он якобы обсуждает вбросы голосов. Во вбросах обвиняли Россию, Китай, Украину и другие страны.

- легальные дипфейки могут переходить в статус нелегальных

Так, голос актрисы озвучки Алены Андроновой, продавшей голос нейросети крупного банка,  хакеры стали применять для озвучки видео 18+.

И если создание дипфейка происходило в «серой» юрисдикции (это еще одна проблема), то жаловаться бесполезно. Где нет регулирования, там нельзя ни отстоять свои права на легальный дипфейк, ни защитить себя. Очень важно, чтобы наша страна не оказалась среди аутсайдеров.


В связи с этим Валерий выделил задачи, которые помогут сделать проблему дипфейков менее острой:

- мировой опыт говорит о необходимости первого шага в виде внедрения маркировки контента (особенно видео и изображений), а также этических требований

- подход к маркировке должен быть гибким: нельзя применять одни и те же стандарты к коммерческому, легальному сегменту и к потребительскому, чтобы не убить креатив

- для потребительского крайней важно максимальное упрощение регулирования, например, автоматическая интеграция российских соцсетей в систему маркировки

- в случае с нелегальными дипфейками - усиление ответственности перед законом, но это и так произойдет в ближайшее время


Более того, в своём выступлении Валерий отметил важность отраслевых организаций (компаний, PR-агентств, производителей ИИ-контента и т.д.), которые должны активно взаимодействовать с государством, чтобы регулирование дипфейков изначально строилось без перекосов.  


Таким образом, можно точно сделать вывод: защитить, нельзя задушить.


Ответить?
Введите капчу

✉️✨
Письма Коссы — лаконичная рассылка для тех, кто ценит своё время: cossa.pulse.is