Эмоциональный искусственный интеллект (Emotion AI) или аффективные вычисления (Affective computing) – это направление искусственного интеллекта (ИИ), позволяющее компьютерам распознавать и интерпретировать человеческие эмоции и реагировать на них. Алгоритмы анализируют мимику лица, жесты, тон голоса, текстовые формулировки, а иногда и физиологические показатели (пульс, дыхание), чтобы определить психоэмоциональное состояние человека. Еще в 1990-х годах Розалинд Пикард из MIT заложила основы этой области, а сегодня эмоциональный ИИ превратился в быстрорастущий рынок. По оценкам, его глобальный объем к 2026 году может вырасти до $37 млрд. Такие инвестиции неудивительны: ведь понимание чувств клиентов и сотрудников обещает бизнесу новый уровень персонализации и эффективности обслуживания.
Одно из ключевых применений эмоционального ИИ это работа с персоналом. Алгоритмы способны мониторить настроение и стресс сотрудников в реальном времени. Например, российские разработчики из WMT Group создали ассистента AC Meet, который во время видеоконференций анализирует выражение лица и тон речи выступающего менеджера и подсвечивает уровень эмоций и стресса. Параллельный модуль AC HRM агрегирует эти данные по всем встречам и помогает HR-отделу понять психологическое состояние команды. Такой инструмент может заранее выявлять признаки выгорания или назревающие конфликты и предлагать меры профилактики (перераспределить нагрузку, дать перерыв и т.п.).
Кроме того, ИИ-модели используются для оценки кандидатов при найме. Крупные работодатели уже экспериментируют с видеоинтервью, где нейросеть оценивает мимику, микровыражения, интонации и слова претендента. Так, компания Unilever с помощью ИИ анализирует записи интервью кандидатов и предсказывает, насколько те соответствуют должности. Американская компания HireVue использует алгоритм для выделение ключевых черт (уверенность, честность, энтузиазм) соискателя и даже может заметить неискренность в ответах. По итогам HR-менеджер получает рейтинги и отчеты, что ускоряет отбор персонала. Российские компании тоже проявляют интерес, например, сервис видеонаблюдения Ivideon внедрил у себя систему распознавания эмоций, чтобы отслеживать общий «эмоциональный фон» в коллективе и корректировать мотивацию или нагрузку сотрудников при признаках недовольства. А по мнению экспертов, биометрические датчики (пульс, частота дыхания) вместе с анализом лица способны выявить дискомфорт или обман на собеседовании – ценно для отраслей, чувствительных к мошенничеству (банки, страхование).
Не менее революционные возможности открывает эмоциональный ИИ в маркетинге и обслуживании клиентов. Маркетологи получают новый инструмент для изучения реакции аудитории на рекламу и продукты. Например, Coca‑Cola перед запуском ролика тестирует его на фокус-группе, а ИИ в реальном времени распознает эмоции зрителей: фиксирует улыбки, удивление, скуку. Это помогает бренду понять, какие фрагменты рекламы вызывают нужные чувства, и отточить креатив. Еще в 2017 году Disney в сотрудничестве с учеными провела эксперимент, установив камеры в кинозале что бы анализировать лица 3 179 зрителей и предсказывать дальнейшую реакцию. За сеанс было собрано 16 миллионов изображений лиц, на основе которых ИИ точно определял, где публике станет смешно, а где страшно.
Розничная торговля также внедряет эмоциональный ИИ. Стартапы Affectiva и Cloverleaf разработали “умные” ценники shelfPoint для магазинов с встроенной камерой и экраном. Такие дисплеи показывают разную рекламу в зависимости от пола, возраста и настроения проходящих мимо покупателей. Пилотные проекты в сетях Procter & Gamble и Walmart показали рост продаж на 10–40% и многократное увеличение вовлеченности покупателей. В России похожие задачи решают компании вроде Neurodata Lab и Neurobotics. Последняя создала программу EmoDetect для анализа эмоций по видео: она отслеживает до 20 характерных признаков лица и определяет базовые эмоции – радость, грусть, страх, злость, удивление, отвращение или нейтральное состояние. Такую технологию можно интегрировать через API в камеры наблюдения торговых залов или в онлайн-платформы, чтобы без опросов понимать удовлетворенность клиента сервисом.
Крупнейшие российские банки, кстати, еще с середины 2010-х тестируют анализ эмоций клиентов: Сбербанк экспериментировал с распознаванием мимики посетителей отделений, «Альфа-Банк» использует ИИ для видеоанализа эмоций, ВТБ оценивает тональности звонков в кол-центр. Эти данные используются для контроля качества обслуживания и обучения персонала: например, Speech Analytics-модуль «Смарт Логгер» от Центра речевых технологий мониторит, не раздражен ли оператор, разговаривая с очередным недовольным абонентом. Если система фиксирует опасный накал, звонок может быть передан другому сотруднику или предложено решение, способное снизить негатив и удержать лояльность клиентов.
В онлайн-продажах и поддержке Emotion AI тоже находит применение. Сервисы видеосвязи внедряют анализ тональности речи: так, платформа Zoom предложила модуль IQ for Sales, который во время звонка подсказывает менеджеру, если клиент звучит раздраженно, и рекомендует сменить тактику разговора. В интернет-магазинах чат-бот может по словам и стилю сообщений понять, что покупатель расстроен, и автоматически предложить ему скидку или подключить живого оператора для урегулирования проблемы. Показательно, что YouTube создал систему YouFirst для авторов контента: зрителям-добровольцам демонстрируют новое видео с включенной камерой, а ИИ фиксирует их эмоции и формирует для блогера отчет о самых сильных реакциях. Все это подтверждает, что компании стремятся улавливать эмоциональный отклик аудитории и мгновенно адаптировать продукт под настроение пользователя.
Еще один интересный кейс на стыке маркетинга и технологий – это роботы-консультанты. Пермский стартап Promobot выпускает человекоподобных роботов для ресепшенов, торговых залов и музеев. Новое поколение этих машин оснащено системой от Neurodata Lab, которая мульти-модально “чувствует” клиента: считывает выражение лица, голос, движения, а также частоту дыхания и пульс собеседника. Если посетитель расстроен, робот мягко его успокоит, если видит усталость – пошутит для поднятия настроения или предложит кофе. По словам разработчиков, эмоциональный ИИ дает роботам инструмент подобрать стратегию общения под состояние человека и тем самым завоевать больше доверия. Это выводит сервис на новый уровень персонализации, ранее доступный только живым сотрудникам.
По мнению Алексея Николаевича Чернякова, кандидата философских наук, доцента кафедры информационных технологий Факультета информационных технологий и анализа больших данных Финансового университета при Правительстве Российской Федерации, даже самые продвинутые алгоритмы останутся всего лишь инструментом. ИИ может подсказать нужный момент эмоционально откликнуться на слова пользователя, но глубину искреннего сопереживания и понимания контекста, которыми обладает человек, воспроизвести крайне сложно. Специалисты подчеркивают, что без учета ситуации и личности, по одному выражению лица не всегда ясно, что чувствует индивид на самом деле. Улыбка может быть натянутой, слезы быть от радости, а нейтральное лицо скрывать бурю внутри. Поэтому эмоциональный ИИ должен применяться осмотрительно: как помощник, усиливающий возможности человека, но не претендующий на роль самостоятельного “чувствующего” субъекта.
Самое главное, что бы интеграция возможности эмоционального ИИ проходила деликатно, сохраняя баланс между удобством и приватностью, технологичностью и доверием. Тогда эмоциональные машины из научной фантастики станут повседневной реальностью бизнеса и улучшат нашу жизнь, не переступив личные границы человека.