Мошенники начали воровать голоса россиян из видео в соцсетях

Мошенники начали воровать голоса граждан России из видео в социальных сетях для выманивания денег у родственников. Об этом рассказал член комитета Госдумы по информполитике Антон Немкин, пишет «РИА Новости».

Перед использованием технологии искусственного интеллекта (ИИ) для подделки голосов мошенники собирают образцы речи пользователей в социальных сетях. Синтезированный голос, по словам Немкина, может звучать «почти неотличимо от оригинала».

Далее злоумышленники задействуют свои схемы. «Одной из самых распространенных схем является звонок от "родственника" в беде. Мошенники звонят голосом близкого человека – ребенка, родителя или супруга – и сообщают о срочной ситуации: аварии, задержании полицией, необходимости срочного лечения. Используя эмоциональное давление, они просят срочно перевести деньги на указанный счет», – сказал он.

Немкин предупредил, что часто мошенники могут знать реальные данные жертвы, такие как имена родственников или детали их жизни, что делает обман еще более правдоподобным. Используют такую схему и для обмана сотрудников компаний. Мошенники звонят бухгалтеру или другому финансовому сотруднику от лица руководства и просят перевести средства на указанный счет под предлогом важной сделки или урегулирования форс-мажорной ситуации.

До этого пользователей предупреждали о подобной схеме с видеороликами. Такая технология называется дипфейк – она использует искусственный интеллект для создания реалистичных, но поддельных видеороликов или изображений.

В августе 2024 г. Банк России сообщил, что мошенники стали чаще применять технологию дипфейк. Для создания фейкового видео злоумышленники используют фото, видео, а также записи голоса. По данным регулятора, мошенники получают их через взлом чужого аккаунта в социальных сетях или мессенджерах.