Мнения
250

Мнение: не стоит обращаться за помощью к GPT при серьезных эмоциональных проблемах

5

Этот текст написан в Сообществе, в нем сохранены авторский стиль и орфография

Аватар автора

Павел Караневич

Страница автора

Сегодня с коллегой-психологом обсуждали интересный тренд: клиенты всё чаще говорят, что вместо психолога общаются с ChatGPT. С одной стороны — звучит забавно, а с другой — много вопросов возникает у нас и в целую дискуссию превратился разговор. Решил пост написать, поразмышлять, почему так происходит и в чём тут плюсы и риски.

Очевидные плюсы:

Доступность и анонимность. ChatGPT всегда под рукой. Нет необходимости записываться на сеанс, идти куда-то или переживать, как будешь выглядеть в глазах другого человека.

Меньше тревожности. Некоторым легче открыться алгоритму, чем живому человеку, так как исчезает страх оценки или осуждения.

Экономия. Очевидно, общение с AI обходится дешевле, а то и вовсе бесплатно — это делает поддержку доступной практически всем.

Однако есть у меня и другие мысли:

У машинки нет эмпатии. Несмотря на продвинутые алгоритмы и огромную базу знаний, ИИ не чувствует эмоций и может пропустить тонкие сигналы (поведение, мимику, движения и т. д.), важные для терапии.

Поверхностность. ChatGPT даёт советы на основе обобщённых знаний, а не индивидуального контекста. Он может не заметить глубинные причины проблем, которые видит опытный специалист. А любой психолог скажет: не бывает двух одинаковых клиентов — каждый кейс уникален.

Риски последствий. Клиент может неверно интерпретировать ответы модели. В лёгких случаях это просто потеря времени без ожидаемого эффекта. В более тяжёлых — может привести к ухудшению состояния.

Если человек не погружён в контекст психологии, если слабо развито критическое мышление, если есть склонность доверять всему написанному(а поисковики нас к этому приучили огого как) — на мой взгляд, это может привести к печальным последствиям. Особенно если это подростки без жизненного опыта.

Мой вывод пока такой: ChatGPT — это хорошая поддержка, чтобы обсудить свои мысли, структурировать идеи или решить рабочие задачи. Нагенерить идей, помочь в постановке целей. Но при серьёзных эмоциональных проблемах или кризисных состояниях — я бы не стал доверяться машинке.

Мне кажется, со временем это «окно возможностей» зарегулируют, и пользоваться нейросетками как «психологом» уже не получится. Вопрос лишь в количестве прецедентов, в которых всё закончится необратимыми последствиями.

Но пока машинка исправно поддерживает беседу и даёт советы, а люди охотно получают сеансы условно бесплатной терапии.

А вы что думаете? Станет ли ИИ бесплатным психологом или коучем?