Дипфейки: что это такое и как они меняют наш мир?

Алгоритмы, позволяющие имитировать изображение или речь, могут стать оружием дезинформации
Dreamstime / PhotoXPress
Dreamstime / PhotoXPress

В последние годы термин «дипфейк» (deepfake) все чаще появляется в заголовках новостей. Дипфейк – это технология, которая использует искусственный интеллект (ИИ) для создания реалистичных, но поддельных видеороликов или изображений. Основной принцип работы заключается в использовании алгоритмов глубокого обучения (deep learning), которые перерабатывают огромные объемы данных и могут синтезировать новые изображения или видео на их основе.

Чаще всего дипфейки применяются для замены лиц на видео или изменения речи. В результате пользователю кажется, что реальный человек что-то говорит или делает, чего на самом деле не было.

Для создания дипфейков обычно используются нейронные сети, такие как генеративно-состязательные сети (GANs). Эти сети состоят из двух частей: генератора, который создает фейковые изображения, и дискриминатора, который пытается отличить их от настоящих. Процесс продолжается до тех пор, пока дискриминатор не сможет отличить фальшивку от оригинала, что приводит к созданию чрезвычайно правдоподобных подделок.

Несмотря на негативную репутацию, дипфейки могут использоваться легально и приносить пользу в различных сферах. Один из примеров легитимного использования дипфейков – это съемки кино. Режиссеры могут «воскрешать» актеров, которые уже ушли из жизни, или вводить омоложенную версию состарившегося артиста. Так это было сделано, например, с Питером Кушингом в фильме «Изгой-один: Звездные войны. Истории» или с Кэрри Фишер, дипфейк которой играл принцессу Лею в фильме «Звездные войны: Скайуокер. Восход». Такая технология позволяет сохранять визуальную идентичность персонажей и избегать использования дублеров.

Помимо того, дипфейки могут быть использованы для создания реалистичных симуляций в образовательных целях. Например, в обучении медицинских работников или сотрудников служб безопасности. Такие симуляции позволяют моделировать сложные сценарии, которые было бы трудно воспроизвести в реальной жизни.

Но, к сожалению, дипфейки также часто используются в противоправных и неэтичных целях, что порождает множество серьезных проблем. Вполне ожидаемо, что первым делом дипфейки начали использовать для создания поддельной порнографии, когда в реальный ролик вставлялся визуальный образ реального человека.

Кроме того, дипфейки могут использоваться мошенниками и киберпреступниками для создания поддельных видео с целью обмана или вымогательства. Например, уже было зафиксировано несколько случаев, когда мошенники использовали дипфейк голосового вызова, чтобы заставить директора компании перевести крупную сумму, полагая, что он говорит со своим начальником. Подделка была настолько качественной, что никто не заподозрил обман до того, как стало слишком поздно.

Появление дипфейков привело к росту опасений по поводу их воздействия на общество. Наиболее серьезной угрозой является возможность распространения дезинформации. В мире, где верить своим глазам уже недостаточно, доверие к информации становится ключевым вопросом. В политике дипфейки могут быть использованы для создания фальшивых заявлений от лица известных политиков или общественных деятелей. Такие видео могут быть использованы для подрыва репутации и манипулирования общественным мнением.

Еще одна проблема – это конфиденциальность и безопасность. Дипфейки могут быть использованы для создания компрометирующих материалов, что может нанести непоправимый ущерб репутации человека или компании.