ТОМСК, 17 мая – РИА Томск. Нейросети все чаще становятся для людей "собеседниками" в тяжелые периоды жизни: с ИИ обсуждают тревоги, одиночество, конфликты и даже суицидальные мысли. Почему чат-боты создают лишь иллюзию эмоциональной поддержки, в каких ситуациях разговор с нейросетью может только усугубить состояние человека – об этом журналист РИА Томск поговорил с руководителем томского центра практической психологии "Импульс" Юлией Петровой.

Почему люди идут к ИИ

По словам Петровой, популярность нейросетей в психологической сфере объясняется сразу несколькими причинами.

"Во-первых, это доступность 24/7. Нейросеть не спит, не уходит в отпуск, не берет выходной. К ней можно обратиться в три часа ночи, когда накрыла паническая атака, а до записи к специалисту еще неделя. Во-вторых, это анонимность и отсутствие страха осуждения. Многим проще "выговориться" машине, чем признаться живому человеку, что им нужна помощь. Нет этой мысли: "А что он обо мне подумает?", – поясняет она.

Кроме того, по словам специалиста, людей привлекает мгновенный отклик и ощущение доступности.

"Не нужно ждать очереди, записываться, подстраиваться под график. Ответ приходит за секунды. И многим кажется, что это дешевле или вообще бесплатно по сравнению с полноценной работой с психологом", – отмечает Петрова.

"Нейросеть не чувствует вашу боль"

При этом специалист подчеркивает: несмотря на внешнюю схожесть общения, нейросеть и психолог – принципиально разные вещи.

"Психолог – это субъект. Это живой человек со своим опытом, чувствами, способностью к сопереживанию. Он вступает в отношения с клиентом. А терапевтический альянс, доверие между психологом и человеком – это вообще огромная часть успеха терапии. Нейросеть же – это объект. Очень сложный калькулятор, который анализирует миллиарды текстов и выдает наиболее вероятный ответ", – говорит Петрова.

По ее словам, ИИ может распознавать описание эмоций, но не способен реально сопереживать.

"У нейросети нет сознания, души, личного опыта. Она не чувствует вашу боль, она может только распознать слова, описывающие эту боль. А психика человека лечится отношениями, живым контактом. Когда другой человек видит вашу боль и откликается на нее интонацией, паузой, взглядом – это запускает совершенно реальные биохимические процессы, снижает уровень стресса и дает ощущение безопасности", – отмечает эксперт.

Иллюзия помощи и опасные советы

Главный риск общения только с ИИ, по мнению Петровой, – ощущение, что проблема решается, хотя на самом деле человек просто получает временное облегчение. 

"Человек получает ощущение: "Мне стало чуть легче, значит, все нормально". Но причина проблемы остается нетронутой. Вместо работы над собой человек начинает просто потреблять контент и откладывает обращение за настоящей помощью. Это эффект пластыря", – подчеркивает специалист.

Особенно опасным это может быть в кризисных ситуациях, так как ИИ обучается на огромном массиве данных из интернета и способен случайно поддерживать и опасные установки человека.

"Если нейросеть считает какой-то контент релевантным запросу, она может встроить его в ответ. Например, подтвердить тревожные мысли, паранойю или дать опасный совет по самолечению. А представьте, если у человека тяжелое состояние, суицидальные мысли или серьезная тревога. Есть еще проблема так называемых "галлюцинаций", когда нейросеть генерирует недостоверную информацию, но подает ее уверенно", – поясняет Петрова.

По ее словам, среди наиболее уязвимых групп – подростки, так как они чаще всего ищут быстрых ответов, а критическое мышление в полной мере у них не сформировано; люди в кризисе; те, кто чувствует сильное одиночество.

"Люди в кризисе – после потери близкого, расставания, тяжелых событий – хватаются за любую поддержку "здесь и сейчас". А одиноким людям очень легко начать воспринимать имитацию общения как замену реального человеческого контакта", – объясняет она.

"Есть ситуации, где нужен только человек"

"Если появляются мысли о самоповреждении или суициде – это повод немедленно обращаться к человеку, а не к чат-боту. То же касается зависимостей, длительной социальной изоляции, психосоматических проблем, ощущения, что вы месяцами ходите по кругу одних и тех же мыслей без изменений", – подчеркивает Петрова.

Она добавляет, что если человек начинает чувствовать искажения реальности, если у него появляются галлюцинации, то обращаться следует к психиатру, так как только он может действительно оказать помощь. 

При этом нейросети могут быть полезным вспомогательным инструментом. Так, к ИИ можно обращаться с просьбой объяснить простым языком какие-то сложные термины. Также нейросеть может помочь структурировать мысли перед встречей с психологом или его советы. Однако, как акцентирует Петрова, "это именно вспомогательный инструмент, а не замена терапии".

Кроме того, нужно учитывать, что общение с ИИ нельзя считать полностью безопасным и конфиденциальным.

"Человек не знает, где хранятся его данные, кто имеет к ним доступ и как они могут использоваться. Психолог связан профессиональной этикой и обязан сохранять тайну. У алгоритма такой ответственности нет", – напоминает эксперт.