Искусственный интеллект становится искуснее

Как нейросети играют на эмоциях пользователей, и насколько в этом продвинулись российские разработчики
Евгений Разумный / Ведомости
Евгений Разумный / Ведомости

Российские компании импортозаместили сложнейшие системы распознавания текстов и речи на основе искусственного интеллекта (ИИ). И нейросети все быстрее приближаются к человеческому восприятию реальности. Роботы слушают и дают ответы, они научились считывать эмоции, чувства, потребности собеседника и даже имитировать удивление, испуг, радость, злость. Сама нейросеть, разумеется, ничего подобного не испытывает, но под человека мимикрирует исправно. «Ведомости. Инновации и технологии» разобрались, как далеко продвинулись российские разработчики в социализации кремниевого разума и возможен ли разговор с машиной «по душам».

Терминатор вам в помощь

Решения, связанные с распознаванием эмоций, внедряются в медицину, ритейл, банковское дело, страхование жизни – всюду, где убеждения и предпочтения клиента влияют на рост продаж. Мировой тренд ожидаемо подхватили крупные российские игроки. Сегодня наиболее развитый сегмент ИИ представляют голосовые помощники.

«Это и диалоговые боты-помощники, и речевая аналитика, и умные колонки, и интеллектуальные секретари, и боты для помощи оператору», ‒ перечисляет руководитель направления диалогового искусственного интеллекта и роботизации NAUMEN Александра Деханова. Рынок ежегодно прирастает на 20‒25%. По данным NAUMEN, чат-боты применяют 35% ритейлеров, 27% банков и 20% страховых компаний, а голосовые помощники ‒ 21% банков, 12% ритейлеров и 6,5% страховщиков.

В ближайшее время все больше компаний пойдет по пути создания собственных генеративных нейросетей и встраивания их в другие свои продукты, полагает директор по маркетингу и коммуникациям цифровой платформы «Ракета» Дарья Зубрицкая. По ее оценке, сегодня пионер развития ИИ в России ‒ «Яндекс» с его YandexGPT и голосовым помощником «Алиса». Компания наряду с Google, OpenAI и Meta (признана экстремистской и запрещена на территории РФ) в 2023 г. вошла в международный список лидеров в области развития ИИ, подготовленный Массачусетским технологическим институтом. Перечень составлен на основе количества и цитируемости научных публикаций по теме.

Для других российских компаний голосовые помощники тоже становятся полноценным элементом бренда. Например, «Тинькофф» развивает умного ассистента «Олега». В этом году был презентован новый навык помощника: компания запустила фабрику телефонных роботов, которые, притворяясь людьми, отвечают мошенникам вместо реального абонента и заставляют их как можно дольше висеть на линии. Например, злоумышленникам может ответить дед, который ищет свои очки, мама, отгоняющая задир от своего малыша на детской площадке, или уставший раздраженный мужчина за рулем. Робот реагирует на триггерные фразы и адаптируется к разговору: переспрашивает, поддакивает, «отвлекается» на внешние события, может усомниться в честности собеседника. Злоумышленник тратит время на ИИ, не подозревая, что сам попался на удочку.

Дело техники

Эксперты называют трендом российского рынка LLM (large language model) – большие языковые модели наподобие GigaChat от «Cбера». Наиболее прикладной способ применения инструментов на основе GigaChat ‒ анализ эмоций клиента в беседе с оператором колл-центра. Робот в онлайн-режиме обобщает содержание и тематику диалогов, оценивает их тональность, прогнозирует потребности клиентов и на основе этого дает подсказки оператору.

«В перспективе LLM могут существенно ускорить разработку сценариев диалоговых ассистентов, генерировать ответы на вопросы клиентов с учетом контекста диалога и в целом стать «вторым пилотом» для множества профессий в различных отраслях», ‒ уверен генеральный директор группы компаний ЦРТ Дмитрий Дырмовский.

При этом генерация эмоций в речи диалоговых ассистентов уже достигла человеческого уровня, полагает эксперт. Так, недавно в ЦРТ представили синтез речи с возможностью настройки эмоций и интонаций под кейс клиента. С помощью специальных генеративных моделей робот говорит на разных языках нейтрально, доброжелательно, грустно или злобно. Также можно настроить интенсивность эмоции и управлять тем, насколько выразительна будет нейросеть.

Исполнительный директор АО «СиСофт Разработка» Михаил Бочаров назвал огромными успехи российских разработчиков в области гибридного синтеза речи. Следующим этапом станет выход на аналогичный уровень в видео.

Что есть душа

В ЦРТ оценивают сходство ИИ с человеческим разумом по умению отвечать на неочевидные вопросы из разных предметных областей. «Используется общий бенчмарк MMLU (Massive Multitask Language Understanding ‒ понимание языка в режиме многозадачности ‒ «Ведомости. Инновации и технологии») ‒ подборка вопросов из астрономии, анатомии, физики, философии, этики, социологии и ряда других», ‒ поясняет Дырмовский.

При этом с развитием нейросетей критерии оценки подобия ИИ человеку меняются, отмечает Деханова. «Они пересматриваются и усложняются всякий раз, как только нейросеть подбирается к оценке «неотличим от человека» в какой-то из категорий», ‒ уточнила эксперт.

К примеру, раньше применяли тест Тьюринга, придуманный в 1950 г.: в процессе беседы ведущий должен был определить, с кем он общается, с роботом или с человеком. Теперь этот критерий уходит в прошлое. «Чтобы пройти тест Тьюринга, современному ИИ придется пожертвовать своей способностью к высокой скорости вычислений и делать специальные паузы, чтобы быть похожим на человека. А это совсем не то, чему мы сейчас хотим обучить ИИ», ‒ убежден Дырмовский.

Померимся эмпатией

Нейросеть можно научить распознавать сложные смысловые оттенки (как раз в эту сторону развивается генеративный ИИ) и даже повторять некоторые логические (и не очень) ходы, которые воспринимаются людьми как чувство юмора. Тем не менее распознавание эмоций и их имитация будут лишь частью вычислений и логики, заметил руководитель отдела бизнес-поддержки продаж департамента по развитию бизнеса «Дататех» Александр Чулапов. «Аналогов соматической нервной системы для ИИ пока не придумано, хотя не исключено, что они появятся в будущем», ‒ сказал эксперт.

Впрочем, многое зависит от того, для чего нейросеть предназначена. Например, никто не ждет сострадания от ассистента «Аида» (разработка «Сбера»), который сегодня в московских поликлиниках помогает врачам ставить предварительный диагноз.

С точки зрения Чулапова, полноценно сравнивать человеческий интеллект имеет смысл только с универсальным ИИ (AGI — artificial general intelligence). Это концепция искусственного разума, который будет способен решать любые задачи и соперничать с гениями. Он еще не создан, однако в сообществе разработчиков это своего рода ориентир, стандарт, задающий планку.

«При достижении порога человеческого знания будет интересно наблюдать процесс самостоятельного развития искусственного интеллекта, а также границы понимания человеком этого развития», ‒ отметил Чулапов. По его словам, возможно, люди не смогут легко и быстро воспринимать тексты, которые генеративный ИИ создаст в будущем. Важно, чтобы это произошло исключительно из-за роста возможностей ИИ, а не снижения способностей человека, заключил эксперт.

Кодекс этики

Другой аспект развития ИИ ‒ готовность людей доверять технологии.  Эксперт центра искусственного интеллекта «СКБ Контур» Антон Рогозин в качестве примера приводит исследование Университета Карнеги ‒Меллона, в котором изучалось влияние эмоций на восприятие клиентами ИИ чат-ботов в сфере обслуживания. Клиенты взаимодействовали либо с ИИ, либо со специалистом службы поддержки, чтобы решить гипотетическую проблему. «Результаты показали, что положительные эмоции, выраженные ИИ чат-ботом, могут благотворно повлиять на отношение клиента к компании, ‒ отмечает эксперт. ‒ Однако, если клиент не ожидает, что чат-бот проявит эмоции, реакция может оказаться негативной».

Сдерживающим фактором развития нейросетей отчасти выступает инстинкт самосохранения, без которого человечество не смогло бы выжить и эволюционировать. И подсознательно, и вполне сознательно человек относится с опаской к появлению в его жизни машин, способных на эмоции и самостоятельное принятие решений.

«Вопрос, насколько человечество готово к появлению по-настоящему «думающих» компьютеров, лежит в области этики, ‒ убеждена Зубрицкая. ‒ То же можно сказать и про безопасность: пока нет гарантии, что такой ИИ будет дружелюбен к людям».

Иными словами, вопрос в том, как разрабатывать подобные технологии в соответствии с человеческими ценностями, пояснил Рогозин. «ИИ становится все более сложным, из-за чего повышается риск его неправильного использования», ‒ заметил эксперт.

По данным ВЦИОМ, 48% россиян доверяют цифровым технологиям. При этом наша страна одной из первых в мире сформулировала пять рисков, сопровождающих внедрение цифры: дискриминация, потеря приватности, потеря контроля над ИИ, причинение вреда человеку ошибками алгоритма и применение в неприемлемых целях. Все они включены в «Кодекс этики искусственного интеллекта» как угрозы правам и свободам человека. В 2021 г. ведущие российские разработчики подписали  этот кодекс как обязательство совместно с государством не допускать подобных рисков.