ЦБ предупредил об участившихся случаях использования дипфейков мошенниками

Созданные ролики они рассылают контактам человека, чье изображение было сгенерировано ИИ

Мошенники стали чаще применять технологию дипфейк – видео, созданное с помощью искусственного интеллекта, которое может быть использовано для подмены личности. Об этом предупредили в Банке России.

«С помощью нейросетей мошенники создают реалистичное видеоизображение человека. Затем сгенерированный образ рассылают его друзьям или родным через мессенджеры или социальные сети. В коротком фальшивом видеоролике виртуальный клон реального человека рассказывает якобы о своей проблеме (болезнь, ДТП, увольнение) и просит перевести деньги на определенный счет», – говорится в сообщении.

Бывают и случаи, когда мошенники создают дипфейки работодателей, сотрудников госорганов или известных личностей из той сферы деятельности, в которой работает их жертва.

Для создания дипфейка злоумышленники используют фото, видео и записи голоса. По данным регулятора, мошенники получают их через взлом чужого аккаунта в социальных сетях или мессенджерах.

ЦБ предлагает в качестве защиты несколько вариантов: позвонить тому, от чьего лица просят деньги, задать в сообщении личный вопрос, ответ на который знает только ваш знакомый, а также проверить видеосообщение на предмет монотонной речи собеседника, неестественной мимики и дефектов звука.

В феврале «Ведомости» со ссылкой на источник писали, что Минцифры совместно с МВД и Роскомнадзором займется проработкой вопросов правового регулирования цифровой технологии подмены личности (дипфейк) в целях недопущения ее использования в противоправных целях.

Опрошенные юристы при этом отмечали, что дипфейк – всего лишь инструмент, с помощью которого можно совершить правонарушение или преступление, по сути, уже предусмотренное законом. Так что в целом дополнительное законодательство тут может быть избыточно.