На искусственный интеллект ищут управу
Его предлагают исключить из ряда сфер деятельностиРоссийский рынок ИИ сейчас никак не отрегулирован законодательно, что уже создает проблемы для граждан, – об этом предупреждает в своем заключении комиссия по правовому обеспечению цифровой экономики московского отделения (МО) АЮР. Письма с предложением отрегулировать рынок ИИ направлены в Совет Федерации, Госдуму, Минцифры, Роскомнадзор, перечислил представитель ассоциации.
По мнению авторов обращения, риски дискриминации ИИ граждан и организаций возникают из-за возможного наличия предубеждений в алгоритмах, умышленно или бессознательно привнесенных разработчиками, некачественных или неполных данных, используемых для обучения системы или принятия решений в конкретной ситуации. При этом выявить ошибки ИИ и обжаловать их сейчас крайне затруднительно, из-за того что доступ сторонних экспертов к ИИ-системам закрыт, говорится в заключении.
«В сфере госуправления системы алгоритмического принятия решений используются для привлечения к административной ответственности на основе данных видео- или фотофиксации, а также на основе иных технических данных – например, от сотовых операторов, – отмечает представитель МО АЮР. – Такого рода системы применялись для привлечения к ответственности весной прошлого года в Москве за нарушение режима самоизоляции. В СМИ фигурировало много курьезных случаев ошибочного привлечения к ответственности, например, парализованных граждан».
Зачастую ИИ отклоняет заявки на кредиты, поданные вполне добросовестными заемщиками, на основании неверно интерпретированных данных и сырых алгоритмов, приводит пример специалист, знакомый с работой крупных компаний, использующих ИИ: «При решении этого вопроса человеком оно могло бы быть иным».
Дорожная карта развития нейросетей и ИИ, разработанная Минкомсвязи (ныне Минцифры) в 2019 г., предполагает, что в 2021 г. объем этой сферы рынка должен составить 48 млрд руб. К 2024 г. он должен увеличиться до 160 млрд руб.
«Такого рода решения следует начать регулировать с госорганов, а не коммерческих компаний, ведь именно решения, принимаемые государством, имеют значительное влияние и последствия для человека. После апробирования такого регулирования на государственных информационных системах следует рассмотреть возможность формирования законодательства для коммерческих компаний», – говорится в заключении МО АЮР.
Юристы предлагают урегулировать использование ИИ в сферах, где его использование может иметь юридически значимые последствия. В пример авторы заключения приводят Францию, где ввели запрет на анализ и прогнозирование методами ИИ действий судей в ходе разбирательств – он касается всех, кто может повлиять на исход суда.
По словам Бориса Едидина, зампредседателя комиссии по правовому обеспечению цифровой экономики МО АЮР, радикального изменения действующего законодательства для реализации инициатив не потребуется – например, можно дополнить закон «О персональных данных»: «В нем можно прописать необходимость оценки ИИ-систем независимыми экспертами, предусмотреть на сайтах госструктур предупреждения о том, что на них используется ИИ, потребовать от внедряющих ИИ-системы предусматривать наличие запасного плана на случай сбоев и иных непредвиденных ситуаций».
Минцифры изучает предложения АЮР, отметил его представитель. Получение заключения подтвердил председатель комитета по информполитике, информтехнологиям и связи Госдумы Александр Хинштейн: «Рассматриваем предложения ассоциации. Мы, безусловно, будем интегрировать лучшие практики в свою работу».
В компаниях, занимающихся внедрением ИИ (среди них «Яндекс»), не ответили на запросы или отказались от комментариев.
«Разработчики будут сопротивляться определению ИИ как объекта права изо всех сил – ведь в этом случае всю ответственность за его ошибки будут нести они, – не сомневается руководитель Content-Review Сергей Половников. – А в случае признания такой ответственности неизбежно встанет вопрос о компенсации убытков, связанных с некорректными решениями, принятыми ИИ».
Регулирование технических процессов в сфере ИИ на уровне законов и нормативных актов может негативно повлиять на развитие рынка, при этом защита граждан и организаций от негативных последствий его использования не усилится, считает директор по стратегическим проектам Института исследований интернета Ирина Левова: «Надо усиливать саморегулирование. Например, у Ассоциации больших данных есть Кодекс этики и «Белая книга», т. е. набор лучших практик, который регулярно обновляется и добавляется новыми рекомендациями для проектов в области данных. Рекомендации МО АЮР можно включить в качестве еще одного кейса в «Белую книгу».
Определенные риски перегибов в связи с реализацией предложений АЮР есть, согласен руководитель направления «Разрешение IT & IP споров» юридической фирмы «Рустам Курмаев и партнеры» Ярослав Шицле: «Самые высокие связаны с административным согласованием и регламентацией использования персональных данных при их обработке ИИ. Если речь идет про инструменты, используемые в публично-правовых отношениях, например камеры, анализирующие дорожное движение и автоматические выписывающие штрафы, то регламентация обоснованна, поскольку при использовании такого инструмента граждане будут подвержены мерам административного воздействия». А если речь идет про программные продукты, например, банков, которые используют нейросеть для проверки заявок на выдачу кредита, то излишняя регламентация может заблокировать возможность использования такого инструмента в принципе, резюмирует Шицле.
UPD: «Проблема алгоритмической прозрачности систем ИИ – известная правовая проблема этой технологии. Этот вопрос сейчас активно обсуждается как на международном уровне, например, в Совете Европы в контексте будущего европейского регулирования ИИ, так и на уровне правительств разных стран», — отмечает управляющий директор центра регулирования ИИ Сбербанка Андрей Незнамов. Ни в коем случае нельзя унифицировать все системы ИИ – универсальное регулирование, как признано в мире, нецелесообразно, считает он.