Россия будет контролировать создание «сверхразума»

В России появился национальный кодекс этики в сфере искусственного интеллекта
Ответственность за последствия использования систем искусственного интеллекта должна сохраняться за человеком, а не за машиной
Ответственность за последствия использования систем искусственного интеллекта должна сохраняться за человеком, а не за машиной / Ivan Alvarado  / Reuters

Церемония подписания кодекса этики в сфере искусственного интеллекта (КЭСИИ) намечена на 26 октября в рамках первого международного форума «Этика искусственного интеллекта: начало доверия». Планируется участие чиновников администрации президента РФ и федерального правительства, а также представителей компаний – участников альянса в сфере ИИ: «Газпром нефти», МТС, Российского фонда прямых инвестиций, Сбербанка, «Яндекса», интернет-холдинга VK (бывшая Mail.ru Group).

Идею составления морально-нравственного кодекса в сфере ИИ подал президент России Владимир Путин, выступая 4 декабря 2020 г. на пленарном заседании международной онлайн-конференции AI Journey. «Кроме различных административных, законодательных ограничений, мне кажется, нужно подумать о том, чтобы выработать внутренний для среды морально-нравственный кодекс работы [ИИ]. Во многих средах он применяется», – сказал Путин (цитата по ТАСС). 

В разработке кодекса участвовали компании альянса, представители Аналитического центра при правительстве РФ, Минэкономразвития России, экспертного и академического сообщества. 

В сентябре прошли обсуждения документа в Общественной палате и Совете Федерации. В результате поступило «очень много предложений и в проект кодекса вносились многочисленные правки», рассказывает один из собеседников «Ведомостей». Некоторые из них сохранились в опубликованном на сайте альянса ранее тексте. Например, исходная формулировка одного из принципов использования искусственного интеллекта гласила, что технологии ИИ необходимо внедрять там, где это принесет пользу людям, и была переформулирована «Яндексом» в следующем виде: «Технологии ИИ нужно применять по назначению и внедрять там, где это принесет пользу людям». Представитель пресс-службы «Яндекса» назвал такую правку редакторской, а не смысловой. 

Рекомендации кодекса рассчитаны на системы искусственного интеллекта, применяемые исключительно в гражданских, невоенных целях, указано в тексте. Участниками отношений в сфере искусственного интеллекта, согласно кодексу, являются отечественные и иностранные разработчики, заказчики, поставщики, операторы систем искусственного интеллекта, регуляторы, а также другие лица, которые могут повлиять на искусственный интеллект. Для реализации положений кодекса будет создана комиссия, в которую войдут представители бизнес-сообщества, науки и госорганов. Кроме того, компании, подписавшие кодекс, должны будут назначить среди своих сотрудников уполномоченных по этике искусственного интеллекта, которые будут контролировать исполнение компанией положений кодекса. А для разбора наиболее спорных вопросов компании будут собирать внутреннюю комиссию по этике в сфере искусственного интеллекта. Согласно кодексу, бизнес будет вести свод наилучших и наихудших практик решения этических вопросов, возникающих в жизненном цикле искусственного интеллекта. Доступ к этому своду будет публичным.

Кодекс также рекомендует бизнесу добросовестно информировать своих пользователей об их взаимодействии с системами искусственного интеллекта, когда это затрагивает вопросы прав человека и критических сфер его жизни, и обеспечивать возможность прекратить такое взаимодействие по желанию человека. Ответственность за последствия использования систем искусственного интеллекта должна сохраняться за человеком, а не за машиной, подчеркивается в документе. 

Кодекс содержит рекомендацию компаниям сотрудничать между собой по вопросу выявления и проверки информации о способах создания универсальных систем искусственного интеллекта и предотвращения угроз, которые они несут. Такие системы также называют «сильными» ИИ или Artificial General Intelligence (AGI). Вопрос применения технологий сильного ИИ должен находиться под контролем государства, отмечается в кодексе.

«Сильный искусственный интеллект – это концепция, которая условно предполагает создание своего рода сверхразума, – пояснил «Ведомостям» один из разработчиков кодекса. – Это универсальный искусственный интеллект, который способен решать разнообразные задачи и бесконечно самосовершенствуется без участия человека. Многие считают, что до него еще лет сто, а кто-то вообще не верит в возможность его создания». Упоминание сильного ИИ было, видимо, внесено в кодекс на случай его создания в России, предположил он. 

Александр Ханин, руководитель компании МТС AI, сообщил «Ведомостям», что подписание кодекса этики ИИ – «естественный шаг» для компании. Выработка правовых и этических норм для использования ИИ потребовалась для защиты основных прав и свобод человека после того, как в мире появилась перспектива создания супероружия с искусственным интеллектом и возможность мошенничества с применением ИИ. «[Подписание кодекса этики в сфере ИИ] никак не повлияет на бизнес, потому что у нас изначально бизнес гражданского применения и никак не нарушает права и свободы человека», – сказал Ханин.