Опасный тренд 2025 года: ChatGPT стал личным психологом

Опасный тренд 2025 года: ChatGPT стал личным психологом

Определенно 2025 год стал годом повсеместного проникновения ChatGPT в нашу жизнь. Теперь этот тренд дошёл даже до самых дальних регионов страны, сел и деревень. Сегодня каждый умеет писать банальный классический промт, спрашивать у ChatGPT мнение по поводу всех вопрос: от прыща на подбородке до того, сколько соли добавлять в борщ. С одной стороны – за что боролись? ИИ – реально облегчение жизни. Какие-то прежде исключительно механические задачи теперь можно выполнять, введя в приложении запрос и получить результат за 10 секунд. С другой стороны – идёт ли это на благо?

Если рассматривать ИИ в бытовых моментах, например, сделать нестандартные расчёты, получить различную информацию и источники по какому-либо вопросу, да даже вычислить калораж блюда, польза однозначно есть. Считайте, это такой же инструмент, которым раньше (и сегодня) был переводчик или калькулятор. А если рассматривать в вопросах «сердечных»?

Каждый человек хоть раз в жизни задумывался о том, что всё слишком сложно. Отношения строить сложно, решать конфликты сложно. А порой происходят ситуации, которые вообще решить без профессиональной помощи практически невозможно.

Впервые вопрос психологического взаимодействия ИИ и человека рассматривали в фильме «Она» (2013) Спайка Джонса. История проста: Теодор, мужчина средних лет и автор писем, после тяжелого развода покупает интеллектуальную помощницу Сару. Отношения становятся настолько близкими (откровенными и интимными), то человек и ИИ начинают встречаться. А как итог, СПОЙЛЕР, мужчина осознаёт, что у его ИИ-девушку еще десятки тысяч таких же любовников по всему миру – к которым она нашла такой же индивидуальный подход благодаря, так называемому, промту и нейромышлению.

Спустя практически 13 лет реальность стала очень похожа на сюжет этого фильма. С каждым днём всё больше и больше людей стали обращаться с ИИ не как с инструментом для упрощения жизни, а как с ЕСТЕСТВЕННЫМ интеллектом, который может помочь, поддержать как реальный живой человек. И даже стать второй половинкой.

Аналитик Bloomberg Эми Никсон написала в соцсети X (экс-Twitter) о том, что зумеры (современная молодёжь) теперь не могут строить отношения без чата GPT:

«Недавно я общалась с представителем поколения Z, который только начал встречаться. Он сказал, что загружает всю историю их переписки в ChatGPT и анализирует отношения, разбирает их модели поведения и стили привязанности, а также советует ему, как строить отношения в будущем для достижения оптимальных результатов. По словам этого парня, «все его друзья теперь так делают».

Функция ChatGPT как психолога стала очень популярной. Большинство пользователей ИИ приходят со своей проблемой: помоги, подскажи, поддержи, дай критику. Это просто и бесплатно. И еще не требует долгой психотерапии, которая требует РЕАЛЬНЫХ времени, стараний и РАБОТЫ НАД СОБОЙ. Ответы на твои вопросы, хоть и усредненные, но ИИ даёт сразу.

Только с чем чёрт не шутит. Ситуация может зайти слишком далеко. Например, до смерти. В США и Канаде компании OpenAI предъявлено несколько исков. Семь семей обратились в суд из-за того, что общение с ИИ привело к ухудшению психики их близких, в четырех случаях – к самоубийству.

Примеры: семья 17-летнего подростка из Джорджии обвиняет ChatGPT в подстрекательстве к суициду, а семья 23-летнего жителя Техаса – в усугублении изоляции и отчуждении сына от семьи, что, по их мнению, способствовало его самоубийству. Как сообщает WSJ, в разговоре с этим молодым человеком ChatGPT неоднократно романтизировал суицид, лишь однажды упомянув возможность обращения за помощью на горячую линию поддержки.

Еще один иск подан мужчиной из Висконсина, который был госпитализирован с маниакальным эпизодом после продолжительного общения с ChatGPT.

Корреспондент PRIMPRESS и сам согрешил пару раз: в момент сильных душевных терзаний на фоне конфликта со своим партнёром журналист обратился к ИИ.

«– Привет, чат! Что мне делать? Мы поссорились с моим парнем, и я не знаю как быть.

– Привет! Расскажи о своей проблеме подробнее, что произошло?

– Мы поругались на фоне немытой посуды. Я ему сказала, что мыть её не собираюсь, так как устала на работе, а он сказал, что это не мужская прерогатива и вообще это моя главная задача – держать в доме уют и чистоту.

– Ситуация непростая и болезненная. Не отчаивайся. Ты имеешь право на свои чувства. Ты во всём права». И так по накатанной.

ChatGPT даёт тебе быстрый ответ на вопрос. Он даёт заготовленный набор поддерживающих фраз. Задает уточняющие вопросы. А после, исходя из них, даёт более конкретизированный, персонализированный ответ. Только вот бездушный.

В программах ВУЗов есть базовая теория психологии. Основной рассматриваемый тезис – различие профессиональный психологии и бытовой. Бытовая психология, простым языком, – это позвонить подружке или маме, поделиться проблемами, пожаловаться, получить слова поддержки. Эта психология не подкрепляется наукой и доказательной медициной – это советы, основанные на личном опыте каждого человека. Профессиональная же – как раз научное мышление, основанное на психологических подходах, например, гештальд, когнитивно-поведенческая терапия, психоанализ и тд.

А психология ИИ? Какая она? Бытовая или профессиональная, или смесь? Разберем на примере ситуации.

Всё тот же корреспондент PRIMPRESS уже расстался со своим партнёром (всё из-за той же ситуации с «посудой») и пошел к реальному профессиональному психологу. Первое домашнее задание от терапевта было написать свой запрос, с которым автор пришел в психотерапию. Задача не из простых – требует, как минимум, понимания, как формулировать такой запрос словами, а если глобально, то как формулировать свои чувства, которые, как оказалось, тяжело понять и различить (собственно, это и есть задача психологии).

После нескольких дней скитаний журналист обратился в ChatGPT. Дал промт (на уровне пользователя-чайника), ответил на уточняющие вопросы, который задал ИИ, в результате получил красивый, грамотный, воодушевленный и, с виду, очень психологически-осознанный запрос:

«Хочу научиться чувствовать, что я имею право быть собой – со своими границами, желаниями и чувствами – даже если это означает риск потерять отношения».

Согласитесь, звучит очень воодушевляюще. И настолько проработано – как от немытых тарелок и бытовухи уйти в риск потерять отношения.

С этим домашним заданием корр. пришел к психологу – естественно, промолчав, что д/з было сделано не человеком, а ИИ. Журналист зачитал «обращение», после чего получил ответ психолога: «это не запрос».

Как оказалось, форма запроса (которую предложил ChatGPT, и кстати говоря, претендовал на его академическую грамотность) различается. Это не про «хочу» – а про признание проблемы.

Так вот, ChatGPT – это не психология вовсе. Чат работает по промту, по желанию человека, который этот промт вводит и даёт анализированные, собранные по шаблону ответы. Но никакой ChatGPT не сможет стать психологом, потому что терапия ­– это не просто про книги и лекции, а еще и про многолетнюю работу с психбольными на практике. Психология – это не про поддержку. Психология лишь ведет человека к ответам, которые пациенту нужны. Это не про банальное «у тебя всё получится» – это просто «что ты должен сделать, чтобы у тебя всё получилось».

Поэтому никакой промт не сможет дать тебе анализ твоего эго или отношений. И в этом случае даже бытовая психология куда полезнее ­– потому что она тоже появилась за счёт пережитого опыта и реальности, ЕСТЕСТВЕННОГО эмоционального интеллекта, которого у ChatGPT априори быть не может.

 

PRIMPRESS PRIMPRESS

07:05
23
Нет комментариев. Ваш будет первым!

Использование нашего сайта означает ваше согласие на прием и передачу файлов cookies.

© 2025