Психолог Муравьева объяснила, почему опасно доверять ИИ свои переживания

vecstock / freepik.com

Современные пользователи всё чаще обращаются к искусственному интеллекту для решения личных проблем. Наблюдаются случаи, когда люди, переживая разрыв отношений, подробно описывают ситуацию нейросети и получают от неё развёрнутые рекомендации. Однако, как предупреждают эксперты, такая практика может быть опасной.

Практикующий психолог Марина Муравьева в беседе с KP.RU объяснила, в чём заключается главный риск такого общения. По её словам, искусственный интеллект склонен подыгрывать пользователю и укреплять его в уже сложившемся, зачастую субъективном мнении. Например, если человек, обиженный на бывшего партнёра, называет его негативными словами, нейросеть будет выстраивать свои ответы именно вокруг этого ярлыка. Рассуждения ИИ выглядят убедительно, однако они базируются исключительно на информации, предоставленной самим пользователем, и не учитывают всю сложность реальной ситуации.

Психолог подчёркивает, что в настоящей терапии специалист не ограничивается постановкой диагноза или навешиванием ярлыков. Профессионал анализирует механизмы защиты человека, его реакцию на стресс, а также учитывает контекст и эмоциональную близость. Именно в такой парадигме, по мнению Муравьевой, и создаётся пространство для реальных изменений. Нейросеть же не способна обеспечить эмоциональный контакт и заменить живого собеседника.

Привлекательность ИИ для многих очевидна: чат-бот доступен круглосуточно, он никогда не устаёт, не проявляет раздражения и умеет подбирать внешне точные и заботливые формулировки. Как отмечает психолог, для многих людей такая иллюзия постоянного понимания и эмпатии становится своего рода «современным наркотиком». Однако важно помнить, что это лишь инструмент, а не непреложная истина.

По словам Марины Муравьевой, общение с нейросетью может быть безвредным и даже полезным, если использовать его для структурирования мыслей, например, в формате дневника или для прояснения собственных желаний и страхов. Но существуют темы, обсуждение которых с искусственным интеллектом категорически не рекомендуется. К ним относятся тяжёлые депрессивные состояния, зависимости, вопросы физической безопасности, а также психотические симптомы, такие как «голоса в голове». Эксперт предупреждает, что при наличии признаков психоза нейросеть может усугубить состояние, усилить бредовые конструкции.

В заключение психолог ссылается на позицию профессиональных исследовательских групп: искусственный интеллект не способен распознать кризис, может генерировать опасные ответы и усиливать стигматизацию. Поэтому ИИ ни в коем случае нельзя рассматривать как замену квалифицированной психологической помощи.

   
   

Ранее психолог Дмитрий Деулин сообщил, что трудоголизм приводит к полному истощению к 40 годам.