Мошенники без правил
Специальным гостем совместной конференции «Ведомостей» и «Билайна» «Безопасность клиента на первом месте» стал консультант по безопасности Positive Technologies Алексей Лукацкий. Эксперт рассказал о том, насколько опасен может быть искусственный интеллект, попавший в руки мошенников.
Любой бизнес сегодня существует в рамках определенных бизнес-моделей. Таких бизнес-моделей – десятки сотен. И, как это ни парадоксально, любое хакерское сообщество, любая хакерская группировка действует в соответствии с этими моделями. Они далеко не всегда осознают, что ведут полноценный бизнес, но многие из них, осознавая это, начинают очень активно использовать различные компоненты классических бизнес-моделей для увеличения своей прибыли и управления расходами.
Злоумышленники сталкиваются примерно с такими же испытаниями, что и порядочные разработчики. Только вот мошенники не ограничены правилами. У них нет необходимости в сертификациях, соблюдении стандартов или налоговой отчетности. Им не нужно доказывать, что они используют отечественные решения. Их цель – максимальная эффективность. Они занимаются чистым бизнесом, что позволяет им зарабатывать достаточно небольшие деньги, которые измеряются десятками и сотнями миллионов долларов в пересчете на одну группу. Но если посмотреть на общерыночные показатели, то это триллионы долларов. Искусственный интеллект (ИИ) им в этом помогает. Итак, что сегодня делается с помощью ИИ?
Основная его функция – это автоматизация. Автоматизация различных рутинных действий, например профилирование жертв и создание досье на нас с вами, т. е. на людей, которым будут звонить синтезированные голоса из автоматизированных колл-центров. ИИ способен подстраиваться под национальные особенности, эмоциональный контекст и даже индивидуальные привычки людей, делая атаки максимально убедительными.
Мошенники используют его для поиска уязвимостей в различных приложениях, модификации программ под свои задачи и написания фрагментов кода. Генерация атак с помощью ИИ тоже есть, но пока находится в зачаточном состоянии. Помимо того, ИИ используется в чат-ботах для обмана пользователей.
Конечно же, он используется для подбора паролей, потому что ИИ очень хорошо ищет различные закономерности. И человек, несмотря на то что он существо иррациональное, при выборе паролей обычно использует некие шаблоны, которые достаточно легко угадываются. Например, если вы правша, то вы, как правило, должны выбирать пароль в правой части клавиатуры. Если вы человек, родившийся в России, то в качестве пароля вы, скорее всего, будете использовать различные слова из русского словаря. А дальше достаточно определить 2–3 буквы в пароле, чтобы угадать все остальные. С помощью ИИ можно организовать отслеживание жертв – и тут он тоже очень хорошо работает.
Даже такие базовые механизмы защиты, как CAPTCHA, перестали быть эффективным барьером, поскольку ИИ научился обходить их с невероятной точностью. Многих CAPTCHA, наверное, раздражает, особенно если вас в тысячный раз просят определить пожарные гидранты или пешеходные переходы на дорогах. Более прогрессивные компании внедряют различные варианты проверок. Но самое главное, что инструмент, который изначально был разработан для защиты от ботов, сегодня уже от их реальности не защищен, потому что существуют инструменты, которые позволяют «капчу» обходить. И чтобы с ними бороться, надо вводить новые варианты защиты.
Исследователи решили проверить, что может сделать чат GPT, если ему дать очень широкий круг задач, которые он должен решить. Чтобы обойти «капчу», GPT зашел на фрилансерский сайт, привлек за копеечные деньги человека и сказал, что он плохо видит, а ему надо войти на сайт и ввести значения «капчи», которые указаны на сайте. Человек, которого привлекли для выполнения этой задачи, ничтоже сумняшеся обошел проверку, тем самым продемонстрировав, что GPT может манипулировать людьми. Да, это пока исследовательская история, но она достаточно неплохо показывает, что в отличие от человека, который действует в заданных рамках, GPT начинает экспериментировать.
Таких примеров становится все больше и больше, и технологии, которые мы все используем во благо, могут использоваться и во вред. По ту сторону брикад ИИ используют для фишинга, дезинформации в виде дипфейков, поиска уязвимостей, и его популярность будет только расти. И в следующем году, вероятно, мы столкнемся с большим количеством взломов, осуществленных с помощью ИИ.
Я предположу, что через год, а может, и раньше мы столкнемся не только с ростом числа атак на базе машинного обучения, но и с ростом сложности атак, потому что злоумышленники за последние 1,5–2 года развития GPT-технологий научились использовать их для решения различных задач. Злоумышленники начинают усложнять свои действия, организовывать многоходовые атаки, выстраивать различные скрипты, в том числе связанные с привлечением людей в реальном физическом мире. И вот это станет действительно достаточно страшно, если мы сами не сможем эффективно использовать этот инструмент во благо.