Фишинг 2.0: почему нейросети делают атаки более убедительными и опасными

Фишинг - один из самых давних и эффективных методов кибермошенничества, и с приходом генеративного искусственного интеллекта (ИИ) он вышел на новый виток эволюции. Если раньше подделки в электронных письмах или сообщениях можно было распознать по грубым ошибкам и шаблонности, то сегодня нейросети помогают злоумышленникам создавать почти безупречные по стилю и содержанию фишинговые письма. Так зарождается «фишинг 2.0» – более убедительный, целенаправленный и массовый, представляющий повышенную опасность для бизнеса и пользователей.

Развитие генеративных моделей (таких как LLaMA, Grok, ChatGPT и им подобные) радикально изменило характер фишинговых атак. Алгоритмы машинного обучения теперь задействованы не только для защиты, но и в арсенале самих атакующих. По данным компании «Информзащита», сегодня около 80% фишинговых атак так или иначе используют ИИ. Мошенники применяют нейросети, чтобы автоматизировать, масштабировать и ускорять подготовку атакующих кампаний. Фишинг стал поставлен на поток. Широкое распространение получили готовые инструменты – фишинговые наборы и сервисы, которые можно приобрести в теневом интернете. Это упрощает подготовку даже для низкоквалифицированных злоумышленников. ИИ-инструменты, в свою очередь, позволяют генерировать контент (тексты, изображения, код) под конкретные цели атакующих, что превращает фишинг в полностью «настраиваемую» угрозу.

Генеративные нейросети способны создавать чрезвычайно правдоподобные фишинговые письма. Более чем в 65% случаев мошенники применяют ИИ для написания текста сообщений. Такие письма выглядят максимально естественными и персонализированными, точно копируя стиль известных компаний или государственных учреждений. Например, алгоритм может воспроизвести манеру деловой переписки CEO крупной корпорации или язык официальных уведомлений госоргана. Одновременно почти в половине инцидентов ИИ используется и для автоматизации массовой рассылки, что позволяет увеличить число потенциальных жертв в сотни раз без дополнительного участия человека. В итоге фишинговые атаки стали более массовыми и продуманными, чем когда-либо.

ИИ-генерируемый фишинг оказался значительно сложнее обнаружить традиционными методами. Во-первых, нейросети устранили многие «сигналы», по которым пользователи и фильтры раньше вычисляли подделку. Тексты теперь грамматически правильны, стилистически убедительны и контекстуально уместны. Письмо, написанное ИИ от имени, скажем, вашего коллеги или банка, будет содержать актуальную информацию, правильные обращения и формулировки, характерные для этого отправителя. Во-вторых, благодаря машинному анализу открытых данных фишинг стал глубокого персонального уровня. Злоумышленники могут с помощью ИИ собрать из открытых источников сведения о конкретном человеке (должность, круг контактов, недавние события) и сгенерировать письмо, идеально бьющее по его ситуации. Такие целевые атаки создают у жертвы полную иллюзию достоверности обращения.

Кроме того, ИИ теперь генерирует не только тексты, но и другие виды контента для обмана. Появились дипфейк-инструменты, которые генерирует фальшивое изображение или видео с реальным человеком, либо синтезирует его голос. В 2025 году произошёл резонансный случай: мошенники создали видеообращение, где «генеральный директор» YouTube Нил Мохан якобы рассказывает о новой политике монетизации, и рассылали приватные ссылки на это видео с целью выманить учетные данные пользователей. Компания оперативно опровергла подлинность видео, но сам факт показал, насколько далеко зашла технология фишинга. Аналогично фиксируются эпизоды, когда синтезированный голос начальника звонит сотруднику и просит срочно выполнить финансовый перевод или выдать доступы. Персонализированные письма, «говорящие» чат-боты и дипфейки стали новым оружием злоумышленников.

Все это делает атаки скрытными для традиционных защитных средств. Содержимое сообщений больше не содержит типичных ошибок или грубых несоответствий, поэтому автоматические фильтры могут пропустить их. Поведение самих вредоносных кампаний тоже маскируется под легитимное: к примеру, фишинговые сайты переведены на защищённый протокол HTTPS, домены напоминают настоящие, а время рассылки подбирается под рабочие часы жертв. Искусственный интеллект совершенствует и масштабирует фишинг до уровня, позволяющего легко обходить классические средства защиты. Недаром эксперты отмечают, что «фишинг 2.0» практически неотличим от реальной коммуникации и обнаружить его становится все труднее как людям, так и защитным системам.

По исследованию Positive Technologies, в 2023 году почти 43% всех успешных кибератак на организации начались с приёмов социальной инженерии (фишинговых писем, фальшивых сообщений и т. п.). А ФБР (США) в своём отчете зафиксировало, что в 2024 году совокупные потери от интернет-мошенничеств превысили $16 млрд, что на 33% больше, чем годом ранее. При этом самым массовым типом киберпреступлений по числу жалоб как раз стали фишинговые и спуфинг-атаки.

В России в 2025 годе набрал обороты целенаправленный, «точечный» фишинг. Так только в начале года targeted-атаκи было уже на 32–37% выше, чем годом ранее. Это говорит о том, что злоумышленники всё активнее используют фишинг не для массового спама, а для прицельных ударов по конкретным компаниям и должностным лицам.

Одновременно растёт и размах обнаруживаемых фишинговых инфраструктур. Так, Роскомнадзор сообщил, что в 2025 году при мониторинге сети было заблокировано более 119 тыс. фишинговых сайтов, что на 441% больше, чем годом ранее. Эта цифра отражает как расширение активности мошенников, так и усиление мер противодействия. Банки, телеком-операторы и крупные интернет-компании тоже фиксируют возросшее число попыток атак на своих клиентов. В целом эксперты сходятся во мнении: фишинг остаётся самой массовой и опасной киберугрозой.

По мнению Алексея Николаевича Чернякова, кандидата философских наук, доцента кафедры информационных технологий Факультета информационных технологий и анализа больших данных Финансового университета при Правительстве Российской Федерации, появление «фишинга 2.0» требует от компаний и госструктур новой стратегии кибербезопасности. ИИ позволил мошенникам вывести атаки на принципиально иной уровень, поэтому противодействие должно строиться на сочетании передовых технологий и человеческого фактора. Искусственный интеллект совершенствует и масштабирует фишинг, позволяя легко обходить классические барьеры защиты. Эпоха «фишинга 2.0» бросает вызов всем участникам цифровой экономики. Фишинг эволюционирует – и наша защита должна эволюционировать не менее быстрыми темпами.

Другие пресс-релизы