Видео на проверку
Почему вопрос регулирования дипфейков пора решитьПожалуй, самыми заметными для общественности дипфейками являются подделки речей экс-президентов США – Барака Обамы и Дональда Трампа. Одним из последних популярных фальшивых видео стал набравший более 1,3 млн просмотров ролик с Илоном Маском, созданный московским программистом после запуска космического корабля Crew Dragon в мае 2021 г. Конечно, есть огромное количество и других, менее заметных аналогичных видео, но для каждого человека эта технология может быть очень опасна.
Начнем с очевидного факта – такая публикация может нанести вред моральному состоянию человека. Причем в случае с дипфейками число пострадавших людей невозможно даже спрогнозировать. Ведь при просмотре подделки страдает не только «выступающий» спикер, которому наносится репутационный вред. Но и аудитория, которая может быть дезинформирована. Второй, не менее очевидный факт – это мошенничество. Ведь если технологии искусственного интеллекта могут подделывать речь президентов, то злоумышленники в скором времени смогут дойти и до обычных людей и списывать с их счетов деньги. Да, для этого необходимо развитие технологий, но на данный момент никто не может исключить, что через какое-то время жертвами синтеза речи не станет больше людей.
Одним из примеров такого мошенничества является история, произошедшая с руководителем энергетической компании в 2019 г. Когда он, получив звонок якобы от своего руководства, перевел $243 000. В данном случае голос и даже акцент босса были сымитированы при помощи искусственного интеллекта. После первого успешного вымогательства злоумышленники повторили попытку, во время которой и вскрылась правда. Полиция так и не смогла идентифицировать личности преступников.
Эксперты сообщают, что на данный момент основной объем дипфейков занимают подделки видео для взрослых, от которых уже неоднократно страдали знаменитости.
Несмотря на все опасности, у технологии дипфейков, созданной в 2014 г., есть и полезные стороны. Например, в сфере культуры. Эта технология открывает широкий спектр для развития киноиндустрии. Использование прототипа актера для съемки фильма без его участия может в корне изменить этот сегмент производства контента. Например, можно искусственно состарить или омолодить человека, доснять фильм с изображением уже умершего артиста, использовать ИИ для более четкой мимики при создании дубляжа на другом языке. Ранее уже была создана выставка Сальвадора Дали, на которой присутствовал его цифровой двойник, воссозданный специалистами после изучения сотен документов.
Но даже при таком вроде бы положительном использовании этой технологии у общества остается много вопросов этического и юридического характера. Для использования прототипа любого человека в съемках, пусть даже с помощью дипфейка, нужна законодательная база, которой пока не существует. А в случае воссоздания образа уже умершего человека возникает еще большее число юридических нюансов.
Чем раньше будет регулирование – тем проще
По прогнозу Gartner, объемы информации, созданные генеративным искусственным интеллектом, будут только расти и к 2025 г. могут достигнуть 10% от всего числа новых данных. При этом вопрос о законодательном регулировании пока не решен практически ни в одной стране мира.
Первопроходцем в этом направлении стал Китай, который с 1 января 2020 г. объявил уголовным преступлением любую публикацию ложной информации, в том числе дипфейки. В частности, все синтезированные кадры должны иметь специальную маркировку, которая позволяет пользователю заранее понимать, что это не оригинал, а вымысел.
В США дипфейки посчитали угрозой нацбезопасности. Калифорния стала первым штатом, где запретили распространение дипфейков с кандидатами во время предвыборных кампаний. Другой же законопроект может ввести регулирование использования технологий синтеза изображений человека для изготовления порнографического контента без согласия изображаемых.
В России глава государства Владимир Путин неоднократно отмечал необходимость создания безопасной среды в цифровом пространстве. В разрезе регулирования ИИ первые инициативы были уже предприняты. В 2020 г. правительство утвердило Концепцию регулирования искусственного интеллекта и робототехники до 2024 г. В документе сформулированы «базовые этические нормы» для ИИ и роботов, среди них – приоритет благополучия и безопасности человека, защиты его основополагающих прав и свобод, запрет на причинение вреда человеку по инициативе ИИ, требования безопасности при разработке ИИ. Ключевыми областями для внедрения новых технологий и роботов в концепции называются: здравоохранение, транспорт, государственное и муниципальное управление, градостроительство и умные города, финансы, промышленность и космос.
В октябре 2021 г. в России был подписан Кодекс этики искусственного интеллекта, разработанный с учетом требований Национальной стратегии развития искусственного интеллекта на период до 2030 г. Авторами документа выступили Альянс в сфере искусственного интеллекта совместно с Аналитическим центром при правительстве РФ и Минэкономразвития. Кодекс станет частью федерального проекта «Искусственный интеллект» и Стратегии развития информационного общества на 2017–2030 гг. В кодексе сказано, что при развитии технологий ИИ человек, его права и свободы должны рассматриваться как наивысшая ценность. Также документом регламентируется, что ответственность за последствия применения систем ИИ всегда несет человек.
Дипфейки являются одной из наиболее сложных технологий для регулирования, так как при любом взаимодействии возникают этические вопросы, еще не описанные законодательно. На мой взгляд, данная сфера требует особенного внимания регуляторов по всему миру. Нужно отслеживать и маркировать лжеконтент, созданный программами. На данный момент ключевой задачей как государства, так и компаний должна стать разработка средств идентификации дипфейков, которые в ближайшем будущем люди смогут устанавливать на гаджеты для распознания достоверности контента. Такие системы смогут быть похожи по использованию и способу распространения на антивирусные программы.
Это должно произойти раньше, чем технология станет «промышленно-мошеннической». Также по этому направлению можно изучить уже имеющуюся практику разных соцсетей. Например, Twitter, Facebook и TikTok уже попытались самостоятельно отрегулировать распространение дипфейков.