О каких угрозах ИИ предупредил Владимир Путин
Президент оценил своего двойника-нейросетьРазвитие технологий искусственного интеллекта (ИИ) «непременно приведет к тому, что они могут начать угрожать человечеству – сопоставимо с развитием ядерного потенциала». Такой прогноз дал президент России Владимир Путин в рамках своего выступления на ежегодной пресс-конференции.
По словам Путина, предотвратить развитие технологий ИИ невозможно. Особенно когда речь идет о так называемом «сверхинтеллекте», когда робот начинает чувствовать, различать запахи, приобретать когнитивные возможности, а также способности к самообучению. «А значит, нужно возглавить – во всяком случае, нужно сделать все для того, чтобы мы могли быть одними из лидеров в этом направлении», – отметил президент.
В то же время, к чему приведет такое развитие, сейчас никто не знает, посетовал Путин. Страны должны говорить о разработке ограничений и самоограничений в части технологий ИИ, добавил он. «Да, нужно говорить о том, что нужно договариваться между лидерами, чтобы не создать условий, которые могут привести к каким-то опасностям для человечества», – продолжил президент.
В качестве примера Путин привел развитие технологий ядерной энергии, которые со временем превратились в ядерное оружие. И только после этого мировое сообщество начало договариваться между собой о самоограничениях в этом направлении.
«Так же будет, наверное, и с искусственным интеллектом. Когда лидеры этого направления, развития осознают, что возникают какие-то угрозы, тогда, наверное, начнут договариваться. Но до этого реальных договоренностей достичь вряд ли удастся. Но думать над этим, конечно, нужно уже сегодня», – заявил президент.
В этом году формат президентской пресс-конференции был совмещен с форматом прямой линии Путина, и президент отвечал как на вопросы журналистов, так и на вопросы обычных граждан. Вопрос о развитии ИИ был задан в формате видео от ребенка. Девочка спрашивала, сможет ли искусственный интеллект заменить ее саму, а также родителей и бабушку. «Что касается искусственного интеллекта, одно точно могу сказать совершенно [точно]: бабушку никто не заменит, это заменить невозможно», – ответил на это глава государства.
К вопросу от девочки был добавлен вопрос от студента из Санкт-Петербурга, также заданный в видеоформате. Для участия в президентской прямой линии студент использовал нейросеть, которая сгенерировала изображение и голос президента. ИИ в образе Путина поинтересовался, есть ли у Путина двойники. «Это мой первый двойник, кстати сказать», – отметил Путин, отвечая на вопрос о возможных угрозах ИИ.
«Благодаря ИИ можно создавать абсолютно неотличимые от реальности дипфейки людей, событий и т. д. и производить с их помощью непредставимого ранее масштаба операции по дезинформации, провокации, манипуляции общественным мнением. То есть мы оказываемся в мире, где невозможно более доверять вообще никаким источникам», – замечает гендиректор коммуникационного агентства iTrend Павел Житнюк.
Уже сейчас развитие технологий ИИ может нести риски для большого числа людей, говорят опрошенные «Ведомостями» эксперты.
«Непрозрачный механизм работы рекомендательных технологий, к примеру, вызывает риск манипулирования мнением пользователя. Его цель – удовлетворение интересов сервиса и создание “информационного пузыря”, в котором человек получает избирательную информацию, влияющую на формирование его позиции по определенным вопросам», – говорит основатель компании-разработчика «Роббо» Павел Фролов.
Возможность развития ИИ, имеющего моральные убеждения или способность принимать этические решения, вызывает вопросы о том, как контролировать его решения и действия, соглашается гендиректор компании-разработчика ingry.tech Георгий Банчиков. Использование автономных оружейных систем на базе ИИ может привести к непредсказуемым последствиям и обострению военных конфликтов, считает он. Помимо того, развитие ИИ может предоставить возможности для массовой слежки, взлома систем безопасности и использования персональных данных злоумышленниками, рассуждает эксперт.
По мнению Житнюка, предположение о том, что ИИ может получить доступ к оружию массового уничтожения, пока что не более чем «страшилка, как в фильме «Терминатор». «Все-таки для управления ядерными боеголовками применяются достаточно консервативные технологии, которые вряд ли имеют подключение к «интернету вещей», – добавил Житнюк.
Также, продолжил он, ИИ может стать «своеобразным инструментом в гонке вооружений», поскольку с его помощью можно производить масштабные операции воздействия на геополитических противников. И в целом, вопрос опасности ИИ лежит в этической плоскости, считает эксперт. «Человечество впервые в истории сталкивается с чем-то, наделенным равным или превосходящим [человека] разумом, и как себя вести в этой ситуации, пока не очень понятно», – резюмировал Житнюк.
В ноябре 2023 г. Путин в ходе выступления на международной конференции по искусственному интеллекту AI Journey давал ряд поручений по развитию отрасли ИИ. В частности, президент поручил правительству и компаниям, входящим в Альянс по развитию ИИ, работать над увеличением мощностей российских суперкомпьютеров, обеспечить к ним доступ студентам и аспирантам, а также в целом расширить подготовку ученых-разработчиков, разработать больше программ по ИИ.
Как отмечал тогда президент, в Кремле «готовы дополнительно финансировать исследования и разработки в области ИИ при условии софинансирования ведущими российскими компаниями», писали «РИА Новости».