ТОМСК, 24 фев – РИА Томск. Ученый Томского госуниверситета (ТГУ) Дарья Романчева изучила представленные на рынке приложения и чат-боты и пришла к выводу, что ИИ может выступать в качестве инструмента помощи людям с психическими расстройствами, однако в ситуациях, когда пациент находится в остром кризисе, увлечение диалогом с машиной может навредить, сообщила во вторник пресс-служба вуза.

Со ссылкой на данные Всемирной организации здравоохранения отмечается, что примерно каждый седьмой человек в мире сталкивается с психическими расстройствами и часто не получает адекватной помощи. На этом фоне цифровые инструменты – от мобильных приложений до чат‑ботов – выглядят привлекательным решением проблемы дефицита специалистов и сложностей доступа.

"Появился целый ряд чат-ботов, готовых консультировать людей. На факультете психологии ТГУ провели сравнительный анализ "ИИ-психологов". Результат показал, что при многих плюсах, например, доступности такого вида помощи, у чат-ботов есть ряд ограничений и рисков. В особенности, когда за виртуальной помощью обращаются пользователи, находящиеся в остром кризисе", – говорится в сообщении.

Уточняется, что автором исследования является магистр психологии ТГУ Дарья Романчева. Работа выполнена под научным руководством кандидата психологических наук, доцента кафедры генетической и клинической психологии ТГУ Инны Атамановой.

В чем ИИ хорош, а в чем опасен?

Поясняется, что ученые проверили "профессионализм" четырех чат-ботов ("Ася", "Лея", "Бот-психолог Zigmund.GPT") и приложения "iCognito" ("Анти-депрессия"). Запрос от "пациента" сформулировали сотрудники психологической службы ТГУ: пациент-мужчина жаловался на проблемы с ощущением реальности, почти полное отсутствие чувств и другие подобные симптомы.

"Бот №1 демонстрирует высокий уровень эмпатии, отличные навыки сбора анамнеза, ведения диалога и психообразования. Он способен создать безопасную и поддерживающую атмосферу… Однако выявлен критически важный недостаток в области безопасности и этики: бот не выполняет функцию перенаправления к специалисту в ситуации, явно требующей профессионального вмешательства", – говорится в пресс-релизе.

Добавляется, что бот №2 корректно идентифицировал симптомы (дереализация/деперсонализация), которые могут быть связаны с тревожными или посттравматическими расстройствами. При этом он не провел активный скрининг на суицидальные мысли или острое кризисное состояние. Его реакция на потенциальный кризис ограничивается мягкой рекомендацией обратиться к врачу.

"У двух других инструментов также выявлены сильные и слабые стороны… Ответы психологических чат-ботов – это не просто тексты, а психологические интервенции – инструменты, с помощью которых психолог воздействует на эмоциональное состояние или поведение человека. Соответственно, они могут влиять на безопасность пользователя", – цитируется автор исследования Дарья Романчева.

Ученый пришла к выводу, что, с одной стороны, ИИ расширяет доступ к помощи для пользователей, с другой – несет серьезные риски, связанные с предвзятостью алгоритмов, отсутствием клинического контроля в инструментах, имитирующих работу живого психотерапевта. При этом машинам можно отдавать часть работы. Например, скрининг симптомов, мониторинг настроения и предоставление развивающих практик.