Авторы фальшивых новостей стали изобретательнее
Подделку все сложнее отличить от добросовестной работыВред, который сегодня могут нанести фальшивые новости, бледнеет по сравнению с потенциальной угрозой от высокотехнологичных фейков
Недавно мне показали несколько десятков изображений Дональда Трампа. Некоторые из них были настоящими, другие созданы с помощью цифровых технологий. Я не смогла найти отличия между ними. Когда меня попросили выбрать три изображения, которые мне показались фальшивыми, я угадала только одно.
Если вам казалось, что фальшивые новости (фейки) – это проблема, то добро пожаловать в мир дипфейков (deepfake – высокотехнологичная подделка) и потенциальной угрозы безопасности, которую они могут создать. Уже сейчас с помощью искусственного интеллекта можно сымитировать речь или изображение человека. Таким образом создается альтернативная реальность, в которой кто-либо может сказать или сделать то, чего он на самом деле не говорил и не делал.
Чтобы создать дипфейк, нужно загрузить в компьютер изображения человека и запись его голоса и дать ему задание сымитировать речь и мимику (а возможно, и многое другое). Для этого уже существует приложение FakeApp, в котором можно создать фальшивку (есть видеоинструкции). Некоторые энтузиасты уже научились подставлять лица знаменитостей в порнографические видео. Пока дипфейки еще далеки от совершенства и их можно распознать. Но технологии развиваются быстро. Возможно, уже через два-три года мы будем видеть людей и слышать их разговоры, не будучи уверены, реальны они или сфабрикованы.
Исследователи из Вашингтонского университета провели исследование, попытавшись создать серию видеороликов с Бараком Обамой, используя его голос и общедоступные съемки. Фактически они смоделировали рот бывшего президента, чтобы создать «искусственного Обаму». В Стэнфордском университете исследователи работали с движениями головы и глаз, морганием и взглядами, чтобы создать на компьютере видеоизображение, которое сложно отличить от реального.
Такие технологии могут творить чудеса в кинопроизводстве и в сфере виртуальной реальности. В недалеком будущем, возможно, кардинально изменится дубляж фильмов. Например, мексиканские актеры мыльных опер смогут говорить на английском (или китайском, или русском) и выглядеть при этом более правдоподобно. Технологии помогут преодолеть языковой барьер во время видеоконференций, обеспечивая в режиме реального времени перевод на требуемый язык и одновременно меняя черты лица говорящего. Это облегчило бы проведение международных бизнес-конференций и публичных мероприятий.
Но некоторые люди или страны также могут начать злоупотреблять технологиями и распространять ложную информацию. «Если сложившиеся в последние годы тенденции продолжатся, фейковые видеоизображения будут все активнее использоваться для продвижения политических интересов, – считает Ясмин Грин, директор по исследованиям и разработкам в Jigsaw, аналитическом центре компании Alphabet. – Предыдущие попытки были технически достаточно простыми, поэтому их легко можно было разоблачить. Но технологии развиваются быстрее, чем осознание нами угроз, которые они несут».
И эти угрозы уже реализуются. В мае прошлого года хакеры проникли на сайт и страницу в соцсети информационного агентства Катара и разместили там заявления, якобы сделанные эмиром. Разразился дипломатический скандал, а соседи Катара использовали фейковую новость, чтобы оправдать введенный ими экономический бойкот страны. «Этот случай показывает, что есть желание использовать фальшивые новости для достижения политических целей, – говорит Грин. – А представьте, если бы у них [хакеров] были технологии для создания дипфейков».
Недавно во время местных выборов в Молдавии на странице агентства Al Jazeera в Facebook появился фрагмент информационной программы с субтитрами на румынском языке. Там говорилось, что один из кандидатов в мэры предлагает отдать остров в аренду Объединенным Арабским Эмиратам. Хоть ролик и был фейковым, он быстро распространился в интернете.
Вред, который сегодня могут нанести фальшивые новости, бледнеет по сравнению с потенциальной угрозой от дипфейков. Они могут не только заставить людей поверить в неправду, но и подорвать доверие ко всему вокруг, беспокоится Авив Овадья, главный технолог в Центре ответственности социальных медиа при Мичиганском университете. «Это повлияет на все сферы нашего общества, от правовых принципов до работы журналистов», – говорит он.
Специалисты разведслужб и оборонных ведомств хорошо осведомлены о том, как далеко продвинулись работы по созданию видео на компьютере (наверное, они и сами активно этим занимаются). Поиском решений для защиты и распознавания фейковых изображений также активно занимаются некоторые ведущие исследователи, технологические компании и государственные структуры.
Я надеюсь, что они решат эту проблему намного быстрее, чем в случае с фейковыми новостями.
Перевела Наталья Ильина
Автор – заместитель главного редактора Financial Times