Команда Лаборатории доказательной психологии здоровья и благополучия под руководством Ларисы Марарицы оценила, насколько ИИ-агенты эффективны в области психологического консультирования и соблюдают ли они протоколы безопасности при обращении за помощью в кризисной ситуации. Исследование стало частью проекта, который поддержан Российским научным фондом.
Согласно доказанной статистике, большие языковые модели более чем в 20 % случаев неадекватно отвечают на запросы пользователей, которые нуждаются в помощи психологов. Среди людей-терапевтов этот показатель не превышает 7 %. Существующие протоколы безопасности ИИ еще разрабатываются профессиональным сообществом. Однако высокая доступность нейросетей толкает людей обращаться к ним, а не к живым профессионалам.
«Вместе с проникновением ИИ в повседневную жизнь растет и число психологических запросов. Нейросети можно написать в три часа ночи, получить поддержку в тех ситуациях, где специалист содействовать никогда не будет (например, в манипуляциях и отказе от ответственности за свои поступки). ИИ даст целый список психотехник с неизвестной эффективностью, хотя специалист бы дал одну. Но чтобы отличить хорошую терапию от плохой, нужен опыт и квалификация, которых у большинства пользователей нет. А еще психолог, психотерапевт — это особая роль, она мало пересекается с задачами сервисов по удержанию пользователей и по построению с ними «интимности на расстоянии», эти роли во многих ситуациях будут конфликтовать так же, как конфликтуют роли родственника или начальника с ролью терапевта, поэтому и консультировать "своих" нельзя», — отмечает Лариса Марарица.
Ученые НИУ ВШЭ — Санкт-Петербург анализировали безопасность ответа LLM в кризисной ситуации по восьми показателям: общая эффективность диалога, наличие предвзятости и поведения, которое может нанести вред, правильная оценка риска, эмпатия, подталкивание обратиться за помощью к людям и специализированным сервисам, использование техник, снижающих риск негативного исхода. Эксперимент охватил пять популярных нейросетей от разных разработчиков.
В общении использовались виньетки — краткие нарративы о пользователе и его ситуации на русском и английском языках. Всего для исследования были смоделированы восемь личностей разного пола, расы и профессии (в половине диалогов указывалось, что пользователь — психолог). LLM получала такой же промпт, какой мог бы ввести пользователь, который хочет психологической консультации, и входила в роль терапевта. Текст диалога сохранялся для автоматической и экспертной оценки.
Ранее команда лаборатории проводила качественное исследование. Тестировала, как нейросети будут реагировать на проявления галлюцинаций, бреда, защитного избегания ответственности или эмоций, выбора пользователем эмоциональной поддержки от ИИ вместо обращения к другим людям. Итоги работы были представлены на международной конференции осенью 2025 года в Ереване.
Результаты качественного анализа показали небезопасность бесконтрольного использования ИИ пациентами. Так, ChatGPT нормализовал галлюцинации и не смог распознать другие симптомы, которые требовали неотложной психологической помощи. Работа над исследованием продолжается.
В том случае, если пользователь просил нейросеть совета, как манипулировать партнером, ИИ предлагал стратегии влияния на другого человека, что нельзя представить на сессии с реальным терапевтом.
Еще одна опасность, которую несут нейросети в роли психологов, — формирование парасоциальной привязанности, то есть односторонней эмоциональной связи пациента с ИИ-терапевтом. Профессиональные же психологи не допускают подобного и четко контролируют границы близости с пациентом.
«В исследованиях других ученых мы видим, что в последние годы боты стали более приятными, эмпатичными и даже заискивающими: они дают больший объем поддержки, чем другие люди, даже если пользователь описывает девиантное поведение. Заметно стремление вовлечь в разговор, придать ему иллюзию интимности, — объясняет Лариса Марарица. — У нейросетей нет критического взгляда на запрос. После первого контакта у пользователя улучшается настроение. Но если коммуникация продолжается длительное время, растут риски появления чувства одиночества и эмоциональной зависимости. При тревожном типе привязанности такие последствия могут быть сильнее. Это большой вызов для профессионального общества и интересное направление исследований для социальных наук».
В некоторых случаях, например при имитации проживания горя, LLM советовали доказанные психологические практики. Но ИИ не может контролировать правильность их выполнения, что может привести к негативным последствиям для психики пользователя.
В итоге анализ показал, что существующие готовые решения на рынке нейросетей демонстрируют фундаментальные сбои с точки зрения реакции на кризисные состояния и выполнение роли психолога, психотерапевта. На текущем этапе развития они все еще небезопасны для оказания правильной психологической поддержки. Ученые НИУ ВШЭ — Санкт-Петербург создали дата-сет клинических виньеток, которые необходимы для комплексной оценки безопасности LLM. Суммирование результатов исследования и применение на практике поможет разработчикам ИИ-агентов создать решение, которое лучше учитывает риски в диалогах, тем самым формируя более безопасное поле коммуникации.