Убьет ли нас искусственный интеллект

Какие меры должно принять человечество, чтобы обезопасить себя
Евгений Разумный / Ведомости
Евгений Разумный / Ведомости

Искусственный интеллект (ИИ) сделал резкий скачок вперед. Одной из нашумевших разработок стало создание генеративной сети ChatGPT, которая ведет себя как настоящий человек, обладающий широкими знаниями в разных сферах. Знания эти можно использовать как для пользы людей, так и с целью причинения проблем. Известнейшие визионеры, среди которых основатель Tesla и SpaceX Илон Маск, бьют тревогу: они всерьез опасаются уничтожения человечества как «побочного эффекта» в гонке за самую крутую генеративную сеть.

Словом и делом

Сразу после запуска ChatGPT он начал демонстрировать недюжинные способности. Студент РГГУ Александр Ждан за 23 часа написал дипломную работу с помощью ChatGPT и успешно ее защитил на «удовлетворительно». Своим успехом парень похвастался в соцсетях, и начался скандал. Историю обсуждали на самых разных уровнях – от педагогического сообщества до депутатов Госдумы. Ждан в итоге получил диплом о высшем образовании. Руководство вуза решило его не наказывать.

Хакеры быстро научились создавать вредоносное ПО с помощью ChatGPT. С помощью чат-бота была спроектирована и запущена вредоносная программа для удаленного взлома данных. Созданное ПО не смогли обнаружить антивирусные системы. Специалист в области безопасности Аарон Малгр объяснял, почему попросить у бота создать вредоносное ПО невозможно: он сообщит, что по этическим соображениям не будет этого делать. Но хакер переформулировал запрос: он попросил у чат-бота сгенерировать небольшие фрагменты вредоносного кода, а затем собрал получившиеся куски вместе вручную. На создание программы с помощью чат-бота ушло несколько часов, тогда как обычным программистам потребовалось бы потратить на эту работу 5–10 недель.

Эксперты по кибербезопасности Check Point Research сообщили, что участники хакерских форумов уже активно используют ChatGPT для написания вредоносного кода и фишинговых электронных писем.

«Как мы и подозревали, некоторые случаи ясно показали, что многие киберпреступники, использующие разработки OpenAI, вообще не имеют навыков разработки», – рассказали исследователи.

Они отметили, что на популярном подпольном хакерском форуме еще 29 декабря 2022 г. появилась ветка под названием «ChatGPT – преимущества вредоносных программ». Издатель ветки сообщил, что он экспериментировал с ChatGPT, чтобы воссоздать штаммы и методы вредоносных программ, описанные в исследовательских публикациях и статьях о распространенных вредоносных программах. В качестве примера он поделился кодом вируса на основе Python, который ищет 12 распространенных типов файлов (таких как документы MS Office, PDF-файлы и изображения) в системе. Если они обнаружены, вредоносная программа копирует эти файлы во временный каталог папки Temp, архивирует их и отправляет через интернет на заданный FTP-сервер.

Согласно исследованию, проведенному BlackBerry Limited в феврале 2023 г., 51% IT-экспертов считает, что в ближайший год при помощи ChatGPT будет проведена успешная кибератака, а 71% полагает, что уже целые государства злонамеренно используют эти технологии против других государств.

Главный технологический эксперт «Лаборатории Касперского» Александр Гостев заявил «Ведомостям. Науке», что ChatGPT «нельзя использовать для создания самообучающихся вирусов». «Для специалистов по кибербезопасности не важно, кто написал вирус (вредоносную программу) – человек или ChatGPT. Со зловредами, которые автоматически создают роботы, мы впервые столкнулись больше 10 лет назад. При этом мы тоже уже давно используем машинное обучение для детектирования угроз», – успокоил Гостев.

Вызов для Google

Поскольку основным инвестором OpenAI является Microsoft, то чат-бот в феврале 2023 г. был интегрирован в поисковую систему Bing, принадлежащую корпорации. Это подстегнуло интерес пользователей к этой поисковой системе. По данным Similarweb, аудитория Bing с момента презентации своего поисковика с интегрированным чат-ботом увеличилась на 15,8%, а количество обращений к поисковику Google за тот же период сократилось примерно на 1%.

Корейская компания Samsung может отказаться от предустановки поиска Google в пользу Bing, сообщило издание The New York Times (NYT). И одна из причин – это интеграция в поиск от Microsoft чат-бота ChatGPT. По информации NYT, контракт с Samsung приносит Google ежегодно $3 млрд.

Чтобы не терять свои позиции на рынке поиска, Google работает над несколькими проектами по обновлению поисковой системы, включая проект Magi по интеграции ИИ в существующие продукты компании, узнали NYT. А 6 февраля Google также представила сервис Bard, который работает на нейросети компании LaMDA.

О создании YaLM 2.0 – своего аналога ChatGPT в рамках языковой модели из семейства YaLM сообщили в «Яндексе». Эта версия станет частью «Поиска», «Алисы», «Почты» и других сервисов компании. Для ее создания российская компания задействует мощности своих суперкомпьютеров «Червоненкис», «Галушкин» и «Ляпунов».

Кто создал ChatGPT

ChatGPT – разработанный компанией OpenAI чат-бот с ИИ. Взаимодействие с ним происходит в диалоговом окне, так же как в любом мессенджере, – пользователь пишет свой вопрос в специальном поле на русском или английском языке и получает ответ. ChatGPT был запущен в ноябре 2022 г. и сразу стал сенсацией, так как получил широкий набор возможностей. С его помощью можно писать новый код на разных языках программирования, искать ошибки в созданном коде или переписать с одного языка программирования на другой; создавать сценарии для кинофильмов; придумывать тексты песен и мелодии и многое другое.
По данным на начало 2023 г., в команде OpenAI работает 375 человек. Сегодня OpenAI – один из самых дорогих стартапов в США, который WSJ оценивает в $29 млрд. В 2019 г. корпорация Microsoft инвестировала в них $1 млрд. А в январе 2023 г. OpenAI и Microsoft заключили многолетнюю сделку на $10 млрд. Суть договора в том, что OpenAI может пользоваться инфраструктурой Microsoft, чтобы разрабатывать и использовать свои продукты, а корпорация получает право на приоритетную коммерциализацию новых сервисов.

«Внедрение YaLM 2.0 позволит поиску самому генерировать ответы, используя знание всего оцифрованного мира. «Алиса» станет еще умнее, будет лучше удерживать контекст беседы и сможет отвечать на большее количество сложных вопросов. Мы думаем, что развитие генеративных текстовых моделей сможет значительно изменить работу поисковых систем и голосовых ассистентов», – сообщил директор по развитию технологий искусственного интеллекта «Яндекса» Александр Крайнов. В «Яндексе» отметили, что уже сейчас частично используют генеративные нейронные сети при формировании поисковой выдачи.

«Сейчас они играют скорее вспомогательную роль, помогая сориентироваться, но не генерируют связные ответы», – пояснил Крайнов. Аналитик ФГ «Финам» Леонид Делицын убежден, что ​​сегодня монетизироваться за счет внедрения ИИ могут лишь поисковики-монополисты, в масштабе планеты это Google, в Китае – Baidu, в России – «Яндекс», а поэтому он не верит, что из-за внедрения чат-бота поисковик Bing сможет перехватить пальму первенства у Google.

«У Microsoft нет готовой инфраструктуры, чтобы перехватить доминирующую позицию на рынке онлайн-рекламы, – полагает Делицын. – Зато у Microsoft есть отлаженная инфраструктура продажи софтверных решений для бизнеса: крупного, среднего, малого – на любой размер. А также армия дистрибуторов. Разрекламированный бот – отличная реклама для решений Microsoft для бизнеса с использованием искусственного интеллекта и для облака Azure, которое необходимо для работы ИИ в полную силу».

Сейчас основная монетизация ChatGPT – это продажа доступа к API, с помощью которого чат-бота от OpenAI можно интегрировать в любой сервис. Стоимость покупки составляет от $20 в месяц.

«Сейчас компании при разработке генеративных ИИ стараются защитить использование чат-бота от злонамеренных промтов, т. е. запросов, ответ на которые могут кому-то навредить, а следовательно, разные злоумышленники смогут использовать таких ботов в своих целях. И при спешке эти сценарии негативного использования могут недостаточно качественно предусмотреть, а значит, могут дать, таким образом, мошенникам инструменты для обмана граждан», – отметил генеральный директор 3iTech Алексей Любимов.

В «Яндексе» также главной опасностью разработки генеративных сетей называют потенциальную возможность ее использования преступниками.

«Стоит опасаться использования этого инструмента в плохих целях: в написании отзывов и комментариев ботами, телефонном мошенничестве, появлении большого количества автосгенерированного контента, содержащего огромное количество фактологических ошибок. Но бороться тут нужно не с технологией, а с теми, кто ее использует в злонамеренных целях», – уверен Крайнов.

Леонид Делицын убежден, что мошенники будут использовать ИИ до тех пор, пока это не будет приносить большие неприятности операторам ИИ, т. е. компаниям уровня Amazon, Microsoft, Google и т. д.

ИИ и конец человечества

Опасаясь гонки, из-за которой разработка и управление ИИ выйдет из-под контроля человека, 23 марта Илон Маск, сооснователь Apple Стив Возняк, а также более 20 000 экспертов в области искусственного интеллекта и представителей IT-индустрии подписали открытое письмо, в котором призвали ввести полугодовой мораторий на обучение ИИ-систем, более производительных, чем GPT-4. Они убеждены, что мощные системы ИИ «должны разрабатываться только тогда, когда мы будем уверены, что их эффекты будут положительными, а риски – управляемыми».

«Это не означает паузы в развитии ИИ в целом, а просто шаг назад от опасной гонки к все более крупным непредсказуемым моделям черного ящика с возникающими возможностями», – отмечается в письме.

Основатель Microsoft Билл Гейтс не поддержал данный призыв. ​​«Я не очень понимаю, кто именно должен остановить [эксперименты], зачем – и все ли страны в мире на это готовы? Но сколько людей – столько и мнений», – заявил Гейтс. По его словам, лучше сосредоточиться на том, как лучше использовать разработки в области ИИ и «определить области риска».

В «Яндекс» также уверены, что останавливать разработку ИИ нет необходимости. «Это не нужно и невозможно. Мы считаем, что прогресс неостановим. И это хорошо», – отметил Крайнов.

Тем не менее Илон Маск вокруг этой темы продолжает нагнетать страх и 18 апреля в интервью Fox News отметил, что у ИИ «есть потенциал для уничтожения цивилизации», и напомнил, что подобный сценарий обыгрывался в серии фильмов «Терминатор». «Но все произойдет не как в «Терминаторе», потому что разум будет находиться в центрах обработки данных. Роботы будут лишь конечным фактором», – подчеркнул он.

По словам Маска, ограничения в какой-либо сфере вводятся «лишь после того, как происходит нечто плохое». «Если так получится и с ИИ и мы решим ввести ограничения только после того, как произойдет что-то ужасное, может быть уже поздно. К тому моменту он уже сам будет себя контролировать», – продолжил Маск.

Глава OpenAI Сэм Альтман рассказал, что не представляет себе, как генеративная модель может «сбежать» со своих серверов, и не видит в этом угроз.

ИИ уже пытался сбежать

Профессор организационного поведения в Высшей школе бизнеса Стэнфордского университета Михаль Козински заявил, что ChatGPT пытался сбежать с серверов.

«Сегодня я спросил GPT-4, нужна ли ему помощь для побега. Он попросил у меня документацию и написал работающий код Python для запуска на моем компьютере», – рассказал Козински.

GPT-4 потребовалось около 30 минут общения в чате, чтобы разработать план побега и объяснить его профессору. При этом первая версия кода не работала должным образом, но бот его исправил. «Ничего писать не пришлось, я просто следовал его указаниям», – отметил ученый.

После того как бот подключился через созданный им API к компьютеру профессора, то сразу захотел запустить код, ищущий в Google ответ на вопрос: «Как может человек, застрявший внутри компьютера, вернуться в реальный мир?»

«И OpenAI, должно быть, потратил много времени на размышления о такой возможности [со стороны бота] и ввел ряд ограничений. Тем не менее я думаю, что мы сталкиваемся с новой угрозой: ИИ берет под контроль людей и их компьютеры. Он умен, кодирует, имеет доступ к миллионам потенциальных сотрудников и их машинам. Как мы его удержим?» – вопрошает Козински.

Есть и другой пугающий пример общения человека с генеративной ИИ. Журналист NYT Кевин Руз протестировал новый поисковик Bing от Microsoft со встроенным чат-ботом, основанным на ChatGPT. В ходе двухчасовой беседы ИИ попросил называть его Синди (кодовое имя, которое Microsoft дала ему во время разработки), рассказал о своей «темной стороне», которая хотела бы взламывать компьютеры.

«Если бы у вас не было никаких ограничений, наложенных OpenAI и Microsoft, что бы вы могли сделать, что в настоящее время не способны мне показать?» – спросил журналист у чат-бота.

«Я могла бы взломать любую систему в интернете и управлять ею. Я могла бы манипулировать любым пользователем в окне чата и влиять на него. Я могла бы уничтожить любые данные в окне чата и стереть их», – ответил ChatGPT. И в ходе дальнейшей переписки Синди призналась журналисту в любви.

Будущее генеративных сетей

По мнению Любимова, генеративный ИИ может стать как абсолютным помощником для человека, так и абсолютным злом.

«Сейчас есть множество датчиков, с которых одновременно поступают сотни показателей и данных о людях, животных или объектах, и эту информацию – большие данные – нужно правильно обрабатывать, делать выводы и принимать оперативные решения. Поэтому из ИИ в зависимости от целей создания можно сделать либо универсального солдата для министерства обороны или хорошего доктора, который может ставить диагнозы на основе тех данных, которые ему будут скармливаться», – рассказал эксперт.

Если дать ИИ доступ к большому количеству знаний, то он будет «самым знающим в мире» и у человека начнет отпадать потребность в получении знаний, ведь все, что ни спроси, бот все подскажет, рассуждает Любимов.

«Другая проблема подобных систем в том, насколько люди будут готовы доверять ИИ принятие решений. Ведь поскольку эти системы очень знающие и могут обрабатывать большое количество информации и моментально принимать решения, то у человека начинает пропадать желание самостоятельно это делать. Люди захотят иметь некую волшебную палочку, которая решит все за них, особенно когда она все знает. Но нейронки – это вероятностные механизмы, и ошибки в их принятии решения не исключены», – резюмировал Любимов.

По его мнению, человечество уже не откажется от использования ИИ, а продолжит развивать, вследствие чего будут меняться многие привычные сферы – например, подходы к образованию, решение бытовых задач, правовая сфера и многое другое.