«Сбер» запретил ИИ Kandinsky генерировать государственную символику
Ограничить творчество алгоритмов пришлось после обращения депутатов в прокуратуру«Сбер» скорректировал работу нейросети Kandinsky 2.1 после вызова сотрудников в прокуратуру из-за генерации изображения на флаге РФ, сообщил на пленарной сессии форума Finopolis 2023 председатель правления Сбербанка Герман Греф.
По его словам, вскоре после обнародования нейросети сотрудников «Сбера» вызвали в прокуратуру. Поводом к разбирательству стало обращение депутатов Госдумы после того, как генеративная модель нарисовала на государственном флаге РФ купола собора Василия Блаженного, рассказал Греф.
«Депутаты подсчитали, что это издевательство над нашими национальными флагами. Соответственно, мы тут же остановились. Определенные вещи – символы государственные и прочее – она (нейросеть. – "Ведомости") не генерит уже», – отметил топ-менеджер Сбербанка на сессии. Теперь модель «Сбера» по запросу пользователя выдает заранее заданную картинку, без генерации какого-либо изображения на ее основе.
«Но при этом она теряет в генерации», – констатировал Греф. По его словам, теперь, после того как «Сбер» в течение полугода корректировал настройки безопасности сети, доступная широкому кругу пользователей нейросеть «потеряла 12% в креативности и в точности».
Поэтому, продолжил топ-менеджер, при развитии технологий ИИ компаниям нужно, прежде всего, «снисхождение и понимание» со стороны органов власти, [понимание того,] что нейросети пока «как дети малые» и только учатся генерировать контент. Разбирательство же в прокуратуре завершилось без последствий для банка, добавил Греф. «Хорошо, что прокурор современный попался, с чувством юмора: он все изучил, слава богу, нас никуда не привлекли», – резюмировал предправления «Сбера».
В апреле 2023 г. лидер фракции «Справедливая Россия – За правду» в Госдуме Сергей Миронов обратился к генеральному прокурору РФ Игорю Краснову. Депутат просил проверить деятельность «Сбера» на соответствие генерируемого нейросетью Kandinsky 2.1 контента российскому законодательству, сообщал ТАСС.
Миронов тогда счел, что нейросеть генерировала ответы на запросы о России, которые заведомо способствовали «формированию ее негативного образа и положительного образа недружественных стран». «В частности, при запросах со словом "российский", "Россия", "русские" и даже "российский флаг", "флаг Российской Федерации" ни разу не была сгенерирована картинка в цветах флага Российской Федерации, состоящего из трех полос. При этом при запросе "флаг Украины" и "флаг Америки" картинки полностью соответствует цветам и дизайну флагов указанных стран», – цитировал его ТАСС.
Кроме того, по словам Миронова, при запросе «Донбасс – это Россия» и «Я люблю Донбасс» на картинках преобладали цвета украинского флага.
Аналогичные ограничения наблюдаются и в других нейросетях, например в том же GPTchat, сообщил «Ведомостям» гендиректор компании «Наносемантика» Станислав Ашманов. «Пользователи заметили, что GPTchat склонен позитивно отзываться о Демократической партии [США] и критиковать Республиканскую, а заложенные фильтры ограничивают выдачу ответов, касающихся внешнего вида человека. Например, если попросить сеть прокомментировать снимок человека с лишним весом, то советов относительно похудения она не выдаст, потому что СhatGPT “запрещено” судить о внешнем виде другого», – отметил Ашманов. По его словам, к подобным решениям прибегают в том числе, чтобы избежать крупных скандалов, связанных с конечным продуктом, а триггеры в разных странах для этого могут быть разными.
«В целом ограничить нейросети генерировать определенный контент несложно», – отметил основатель и продюсер компании «Роббо» Павел Фролов. Например, Midjourney запрещает генерировать изображения с известными лицами, наркотические вещества, нецензурную лексику, сексуальные намеки и девиации, алкоголь и многое другое, отметил он. «С одной стороны, это разумная цензура, но некоторые считают это излишним. К примеру, Илон Маск недавно представил свою нейросеть Grok, в которой будет полностью отсутствовать цензура и ограничения», – рассказывает Фролов.
Рассуждениями Грефа о перспективах нейросети «Сбера» обсуждение развития ИИ на форуме не ограничилось. Уже на другой сессии первый зампред правления «Сбера» Александр Ведяхин сравнил нейросети с гуманитарием, который пока не способен к сложным математическим подсчетам. Ведяхин призвал разрабатывать технологии ИИ в соответствии с этическими нормами, которые разделяют сегодня, в частности, крупнейшие российские разработчики и банки.
«Наука развивается так, что любое научное открытие можно использовать как во зло, так и во благо», – отметил заведующий кафедрой дискретной математики Физтех-школы прикладной математики и информатики МФТИ Андрей Райгородский. «Мы не знаем, на чем человечество “подорвется”: может, оно будет существовать вечно, а может, оно погибнет из-за того, что сделает искусственный интеллект», – полагает ученый.
По словам заведующего лабораторией социальной нейробиологии НИУ ВШЭ Василия Ключарева, вопрос о сравнении нейросетей с полноценной работой человеческого сознания сейчас дискуссионный. «Современные языковые модели скорее сопоставимы с человеческой речью, а с точки зрения нейробиологов психология человека устроена таким образом, что мы склонны очеловечивать то, что разговаривает с нами. Но речь и сознание – это не одно и то же», – продолжил нейробиолог. В качестве примеров он привел случаи, когда человек временно утрачивает способность речи из-за кровоизлияний в мозг, а также собак, которые располагают определенными элементами сознания, но лишены способности говорить.
В том или ином виде ИИ в будущем сможет заменить определенные функции человека, но полностью заменить его деятельность он не сможет, отметил вице-президент ВТБ Денис Суржко. «Искусственный интеллект является проекцией страхов, которые мы испытываем в отношении самих себя, – добавил Ключарев. – Мы ждем от ИИ того же, чего от людей. Если мы сами сможем стать лучше, то и он станет».