Эксперты объяснили, как маркировать созданный нейросетями контент

Маркировать созданный нейросетями контент возможно, считают опрошенные «Ведомостями» эксперты.

Утром 26 октября глава комитета Госдумы по информполитике Александр Хинштейн сообщил, что законодатели обсуждают структуру «цифрового кодекса», согласно которому предлагается прописать в законе маркировку контента, созданного технологией искусственного интеллекта (ИИ).

По словам руководителя отдела перспективных технологий Positive Technologies Александры Мурзиной, определить такой контент будет достаточно сложно – существующие программы проверки происхождения текстов и фотоизображений пока не стали успешными. Создатели сетей для генерации изображений Stable Diffusion, например, стали добавлять невидимые вотермарки на свои изображения. Но однозначно сказать, насколько хорошо работает эта технология, пока нельзя.

Проще всего обязать сервисы ИИ проставлять маркировки, а потом со стороны госорганов контролировать соблюдение этих требований, считает руководитель департамента Digital Risk Protection компании F.A.C.C.T. Станислав Гончаров. При этом ни одно из существующих решений не дает 100% достоверности.

«Думаю, что решение вопроса может лежать в плоскости законодательного запрета использовать созданные ИИ материалы без упоминания данного факта, с некой санкцией в случае обнаружения такого использования», – считает руководитель направления «Разрешение It&Ip споров» юрфирмы «Рустам Курмаев и партнеры» Ярослав Шицле.

По его мнению, существующие программные средства для распознавания оказываются все более бесполезными с каждым новым этапом развития ИИ. Медиаюрист Светлана Кузеванова же считает, что никто не может обязать человека маркировать свое авторство или то, что он использовал программу для создания контента, а введение санкций за это будет «максимально странной инициативой».