
Мнение: не стоит обращаться за помощью к GPT при серьезных эмоциональных проблемах
Этот текст написан в Сообществе, в нем сохранены авторский стиль и орфография
Сегодня с коллегой-психологом обсуждали интересный тренд: клиенты всё чаще говорят, что вместо психолога общаются с ChatGPT. С одной стороны — звучит забавно, а с другой — много вопросов возникает у нас и в целую дискуссию превратился разговор. Решил пост написать, поразмышлять, почему так происходит и в чём тут плюсы и риски.
Очевидные плюсы:
Доступность и анонимность. ChatGPT всегда под рукой. Нет необходимости записываться на сеанс, идти куда-то или переживать, как будешь выглядеть в глазах другого человека.
Меньше тревожности. Некоторым легче открыться алгоритму, чем живому человеку, так как исчезает страх оценки или осуждения.
Экономия. Очевидно, общение с AI обходится дешевле, а то и вовсе бесплатно — это делает поддержку доступной практически всем.
Однако есть у меня и другие мысли:
У машинки нет эмпатии. Несмотря на продвинутые алгоритмы и огромную базу знаний, ИИ не чувствует эмоций и может пропустить тонкие сигналы (поведение, мимику, движения и т. д.), важные для терапии.
Поверхностность. ChatGPT даёт советы на основе обобщённых знаний, а не индивидуального контекста. Он может не заметить глубинные причины проблем, которые видит опытный специалист. А любой психолог скажет: не бывает двух одинаковых клиентов — каждый кейс уникален.
Риски последствий. Клиент может неверно интерпретировать ответы модели. В лёгких случаях это просто потеря времени без ожидаемого эффекта. В более тяжёлых — может привести к ухудшению состояния.
Если человек не погружён в контекст психологии, если слабо развито критическое мышление, если есть склонность доверять всему написанному(а поисковики нас к этому приучили огого как) — на мой взгляд, это может привести к печальным последствиям. Особенно если это подростки без жизненного опыта.
Мой вывод пока такой: ChatGPT — это хорошая поддержка, чтобы обсудить свои мысли, структурировать идеи или решить рабочие задачи. Нагенерить идей, помочь в постановке целей. Но при серьёзных эмоциональных проблемах или кризисных состояниях — я бы не стал доверяться машинке.
Мне кажется, со временем это «окно возможностей» зарегулируют, и пользоваться нейросетками как «психологом» уже не получится. Вопрос лишь в количестве прецедентов, в которых всё закончится необратимыми последствиями.
Но пока машинка исправно поддерживает беседу и даёт советы, а люди охотно получают сеансы условно бесплатной терапии.
А вы что думаете? Станет ли ИИ бесплатным психологом или коучем?
