РПЦ призвала запретить ИИ с человеческим лицом
Патриаршая комиссия предложила ввести запрет на перенесение человеческого образа и его свойств на неодушевленные предметыВ Патриаршей комиссии по вопросам семьи, защиты материнства и детства РПЦ заявили о необходимости установить запрет на антропоморфизацию программ (перенесение человеческого образа и его свойств на неодушевленные предметы) и закрепить на законодательном уровне дисклеймер для нейросетей, указывающий на то, что человек общается с искусственным интеллектом. С такой позицией выступил председатель комиссии иерей Федор Лукьянов (отец Федор) на круглом столе, посвященном обсуждению правового регулирования и применения нейросетевых технологий в НИУ ВШЭ.
«Необходимо установить запрет на применение в программах и технологиях ИИ человеческих голосов, лиц, т. е. образа и подобия человека и его качеств как живого существа. Фактически нужен запрет на антропоморфизацию программ, технологий, роботов, т. е. запрет на перенесение человеческого образа и его свойств на неодушевленные предметы», – говорится в презентации отца Федора, с которой ознакомились «Ведомости».
Также необходимо разработать и закрепить на законодательном уровне введение дисклеймера для нейросетей, т. е. человек должен понимать, что общается с искусственным интеллектом, указал священник. При этом имеет смысл установить ответственность разработчика за содержание информации, транслируемой программой, по аналогии с Китаем, где такая ответственность закреплена не только в административном, но и в уголовном законодательстве.
Несовершеннолетних нужно защитить от доступа к нейросетям из-за высокой опасности влияния на детскую психику, обратил внимание в своем выступлении отец Федор. При этом технологию ChatGPT необходимо локализовать под российскую вычислительную инфраструктуру и телекоммуникационные сети, поскольку страны Запада строят свои нейросети на основе своей этики, которая может расходиться с российской, предложил он.
Данные вопросы и проблемы обсуждались в порядке экспертной дискуссии по этому направлению и выражают обеспокоенность православного экспертного сообщества, но говорить о направлении данных предложений в государственные органы пока преждевременно, сказал «Ведомостям» отец Федор. Мероприятие в НИУ ВШЭ проходило 18 апреля.
Реализация предложений отца Федора технически возможна, полагает юрист, член комитета ТПП РФ по предпринимательству в сфере медиакоммуникаций Павел Катков. Но это может ослабить российские нейросети в их конкуренции с западными, предупреждает он. Нужно, по его мнению, выбрать, что стране важнее: теологические ценности или конкурентное IT-преимущество.
РПЦ не может вносить законопроекты в Госдуму напрямую, но как организация, представляющая значительную часть общества, предлагает парламентариям и правительству разного рода инициативы, говорит руководитель департамента внешних коммуникаций консалтинговой группы «Полилог» Лариса Гелина. Также церковные юристы могут привлекаться для проработки конкретных законопроектов и законодательных актов.
Нейросети – сейчас одна из самых спорных тем для правового регулирования не только в России, продолжает Гелина. Выступление отца Федора в первую очередь показывает, что в РПЦ следят за современными трендами, и демонстрирует верующим готовность своевременно реагировать на новые вызовы. По ее словам, пока тема никак законодательно не закреплена и еще часто будут звучать публично предложения разной степени проработанности.
В современном мире существует практика создания андроидов, или антропоморфных роботов, с высокой степенью сходства с человеком, указывает аналитик агентства MForum Analytics Алексей Бойко. Можно говорить о том, что это вполне массовое направление во всех технологически развитых странах, включая Россию, и создание таких устройств может существенно облегчить и улучшить жизнь людей. На сегодня высокоразвитые речевые модели ИИ на основе нейросетей – это передовая технология и те люди и страны, которые будут лишены доступа к ней из-за самоограничения или из-за внешних факторов, будут проигрывать странам, которые такой доступ сохранят, обращает внимание Бойко.
В то же время мировой регуляторный опыт показал, что универсальные правила, применимые ко всем системам ИИ без учета их специфики, создать сложно, отмечает Андрей Незнамов, председатель комиссии по реализации Кодекса этики в сфере искусственного интеллекта, функционирующей на базе Альянса в сфере ИИ. Необходимо рассматривать контекст, в котором используются конкретные системы ИИ, а также степень риска, которую они могут нести, поэтому регулирование важно выстраивать по этому принципу.
В настоящий момент любое применение ИИ в России можно проверить на этичность. Для этого в октябре 2021 г. появился Кодекс этики в сфере ИИ. Документ установил ориентиры для разрешения этических дилемм, которые могут возникнуть при применении ИИ. В тоже время этот «свод правил» не накладывает дополнительных к действующему законодательству запретов, которые могут создать барьеры для развития технологий. Кодекс этики ИИ является сегодня наиболее релевантной площадкой для диалога по вопросам регулирования ИИ для всех заинтересованных сторон и пилотировать предложения можно там, указывает Незнамов.
Регулирование в сфере ИИ должно быть нацелено на обеспечение информационной безопасности, защиту персональных данных и недопущение распространения фейков, считает Гелина. Для религиозных организаций нейросети несут те же риски (например, фейковое фото папы римского в пуховике). Распространение ложной информации или некорректная интерпретация религиозных норм может нанести гораздо больше вреда, чем сам факт антропоморфизации программ, отметила она. В конце концов, было бы разумно, чтобы при общении с роботом по телефону «искусственный собеседник» предупреждал об этом человека, но делал это ненавязчиво, например один раз за сеанс общения, заключает Бойко.