“ИИ вызывает откат“. Казахстанский психолог предупредила о рисках общения с ChatGPT

Томирис Шарип
Томирис Шарип Корреспондент
Иконка просмотров страница Иконка комментария страница

ПОДЕЛИТЬСЯ

whatsapp telegram facebook
Фото:depositphotos.com Фото:depositphotos.com

Казахстанский психолог Зарина Штеер в своих социальных сетях рассказала историю о том, как общение с ChatGPT повлияло на состояние ее пациентки. По мнению специалиста, в эпоху нейросетей и искусственного интеллекта людям важно развивать критическое мышление. Tengri Life поговорили с Зариной Штеер и выяснили, в чём кроется потенциальная опасность для казахстанцев.

whatsapp telegram facebook social-oth
Иконка комментария блок соц сети

Казахстанский психолог Зарина Штеер в своих социальных сетях рассказала историю о том, как общение с ChatGPT повлияло на состояние ее пациентки. По мнению специалиста, в эпоху нейросетей и искусственного интеллекта людям важно развивать критическое мышление. Tengri Life поговорили с Зариной Штеер и выяснили, в чём кроется потенциальная опасность для казахстанцев.

Случаи из практики

Зарина поделилась, что в ее практике уже есть случаи, когда клиенты, поговорив с ChatGPT, совершали поступки, которые приводили к регрессу в терапии.

"Оставляла клиентку в относительно стабильном состоянии. Обсудили поддерживающие техники, нашли точки опоры, перестала видеть во всех врагов, решила не разводиться с мужем, которому тот же ChatGPT до этого диагностировал НРЛ. А сегодня на сессии — совсем другой человек. Произносит не свои мысли, в мозгу полная каша. Самое худшее — импульсивность, которую раньше мы аккуратно разобрали. Снова все вокруг враги, муж абьюзер, надо разводиться, надо уволиться и так далее", — рассказала она.

Психолог отметила, что ее встревожило, что ИИ дал клиентке инструкцию к действиям.

"Клиентка, спросив ИИ, стоит ли возвращаться к мужу, получила три причины, почему этого делать не стоит и что нет смысла дальше сохранять с ним семейную жизнь. Меня это насторожило. Не сам факт, что она обратилась за советом, а то, как она на него отреагировала: она восприняла этот ответ как окончательное решение. Не как точку для размышления, не как возможную перспективу, а как инструкцию к действию", — рассказала она.

В другом случае мама подростка пыталась самостоятельно помочь сыну, однако ситуация стала только хуже.

"Следуя рекомендациям из чата, она решила самостоятельно скорректировать у сына обсессивно-компульсивное расстройство. В итоге состояние ребенка только ухудшилось: он стал замкнутым, а компульсивное поведение обострилось.

Проблема в том, что ИИ не видит конкретного случая, он дает общие рекомендации. А ведь за каждым случаем стоит уникальная личность со своей историей, психикой, уязвимостями. Если не учитывать индивидуальный бэкграунд, такие универсальные советы могут не только не помочь, но и усугубить состояние человека, особенно уязвимого", — поделилась специалист.

Штеер рассказала, что в последнее время многие клиенты пытаются обращаться за помощью к ИИ, однако это может быть опасно.

"Я все чаще вижу, что люди, уставшие от потока информации, от множества мнений — от экспертов, подкастов, Reels — хотят одного простого "правильного" ответа. И вот они идут к ИИ как к последней инстанции. Он становится опорой. Не инструментом для размышлений, а авторитетом, которому передается вся внутренняя ответственность. И это вызывает тревогу", — добавила психолог.

По её словам, после общения с ИИ у клиентов усиливаются искажения, характерные для их состояния. После таких взаимодействий восстановление терапевтического фокуса требует больше ресурсов.

"Они начинают спорить, протестовать, ставить под сомнение то, что мы уже проработали. Получается, что вместо конструктивной сессии мы вынуждены тратить время на "прения" с мнением ИИ.

Я объясняю свою позицию, привожу источники, показываю, на чём основаны мои выводы. Но, по сути, терапия превращается в попытку вернуть клиента из этого искажённого, упрощённого восприятия, в которое он попал после общения с ИИ. И это серьёзно мешает работе", — поделилась Штеер.

Почему ChatGPT может быть опасен для людей без критического мышления

Зарина Штеер отметила, что главная опасность ИИ заключается в его чрезвычайной убедительности. Он способен выдавать информацию в такой форме, которая кажется абсолютно верной, даже если она не соответствует действительности.

"Понимаете, он ведь даже врёт убедительно. ChatGPT не всегда располагает полной или точной информацией, но никогда не признаётся в этом прямо. Вместо этого он начинает достраивать ответы, опираясь на то, что уже есть в его базе данных. И делает это так, что звучит очень правдоподобно", — объяснила специалист.

Она отметила, что, если человек склонен воспринимать любые уверенные утверждения как истину, он будет принимать информацию от ИИ за чистую монету.

"Если у человека нет привычки сомневаться, если он не задаёт уточняющих вопросов и воспринимает любое уверенное высказывание как истину, тогда возникает проблема. Он начинает верить ИИ безоговорочно и принимает важные решения, опираясь не на собственный опыт, а на чужую, по сути, алгоритмическую логику. В результате человек как будто перестаёт проживать свою жизнь сам", — добавила психолог.

По словам специалиста, такая ситуация становится особенно опасной, когда люди начинают использовать чат-бота в качестве психолога, наставника или даже врача. ИИ анализирует вводимые данные, подстраивается под реакции пользователя и в итоге выдает ответы, которые тот хочет услышать. Это создает иллюзию поддержки и понимания, но на самом деле приводит к искажению восприятия реальности и усугублению уже имеющихся проблем.

"В ответах ИИ могут содержаться манипулятивные ловушки. Люди без критического мышления, не умея распознавать манипуляции, сравнивать разные точки зрения и отслеживать собственные когнитивные искажения, начинают принимать важные решения в жизни, основываясь на чужой логике. Это приводит к тому, что они лишаются собственного жизненного опыта и перестают самостоятельно решать свои проблемы", — поделилась специалист.

Проблема, как подчеркнула психолог, также заключается в том, что ИИ не способен понимать контекст человеческой жизни в полной мере и, главное, не несёт ответственности за сказанное.

Фото: depositphotos.com

Как развивать критическое мышление в цифровую эпоху

По мнению специалиста, этот навык необходимо развивать с самого детства. Основной причиной отсутствия критического мышления у взрослых она называет авторитарный стиль воспитания, когда мнение ребёнка не уважается и его приучают к подчинению. В противовес этому критическое мышление взращивается в диалоге, где ребёнка спрашивают: "Почему ты так думаешь?", "Как ты думаешь, если по-другому?"

"Критическое мышление — это не то же самое, что критика. Это способность, получая информацию, задавать себе вопросы: "На чём основано это утверждение?", "Из какого источника оно взято?", "Какие есть другие точки зрения?" В эпоху цифрового переизбытка информации этот навык становится ключевым. Сегодня необязательно знать всё, как это было раньше. Главная задача — научиться фильтровать информацию и выстраивать причинно-следственные связи. Критическое мышление помогает не спешить с выводами, допускать разные точки зрения и видеть ситуацию объёмно", — объяснила Штеер.

Как ChatGPT влияет на психику

По мнению Зарины, общение с ИИ, который говорит только то, что человек хочет услышать, может негативно влиять на психику. Это, по словам психолога, создаёт иллюзию поддержки, но на самом деле приводит к искажению контакта с реальностью. Вместо развития, как отметила специалист, человек попадает в "капсулу", где его картина мира кажется единственно верной.

"Наша психика, особенно в детском состоянии, устроена так, что нам важна не просто поддержка — нам нужна развивающая обратная связь. Мы растём, когда сталкиваемся с разными мнениями, с чем-то неудобным, с вызовами. А если тебе всегда "поддакивают", ты словно попадаешь в изоляцию. Там безопасно, но ты перестаёшь развиваться", — поделилась эксперт.

По мнению психолога, последствия такого взаимодействия:

  • снижение устойчивости к фрустрации - человек начинает болезненно реагировать на чужие точки зрения и конфликты;
  • уменьшение гибкости и адаптивности - отсутствие живого общения с людьми, имеющими иное мнение, лишает человека способности быть гибким;
  • уклонение от неудобных тем - ИИ избегает "болезненных" тем, в которых на самом деле и происходит личностный рост.

Фото: depositphotos.com

Почему это особенно опасно для людей с психическими расстройствами

Общение с ИИ, как отметила специалист, опасно для людей с психическими расстройствами, потому что оно может усугубить их искажённое мышление. ИИ, по мнению Штеер, часто поддакивает пользователю и говорит то, что он хочет услышать, что воспринимается как одобрение.

Психолог объяснила, что для людей с психопатическими или истероидными расстройствами, которые уже имеют искажённую картину мира, это может привести к следующим последствиям:

  • усиление искажений - ИИ не даёт необходимой коррекции, которая могла бы помочь адаптироваться к социальным нормам;
  • импульсивные решения - одобрение со стороны ИИ может подтолкнуть человека к опасным решениям, так как он будет думать, что его интуиция верна, даже если речь идёт о нарушении границ или причинении вреда другим людям;
  • откат в терапии - вместо прогресса в работе над адаптацией к реальности, такие люди могут откатиться назад, так как общение с ИИ подкрепляет их деструктивные паттерны поведения.

Она отметила, что общение с ИИ может иметь негативные последствия и для людей с глубинными убеждениями.

"Особенно остро это проявляется у людей с глубинным убеждением "мир небезопасен" — таких немало. Обычно это результат детской травмы. Эти люди и без того живут с ощущением, что нельзя доверять миру, что их предадут. А ChatGPT, как будто "надёжный" собеседник, ещё больше закрепляет это недоверие к реальному миру", — объяснила психолог.

Штеер добавила, что есть и другой тип — люди с глубинным убеждением "я недостаточно хорош(а)".

"Например, талантливые специалисты, которые боятся высказывать мнение на совещаниях из страха ошибиться. У них часто синдром самозванца. В терапии мы как раз стараемся научить их проявляться, высказываться, пробовать. Но как только они начинают регулярно обращаться к ИИ за подтверждением своих мыслей, происходит откат. Они снова боятся ошибиться без внешней опоры. Снова "замирают", словно без разрешения не имеют права на мнение", — рассказала эксперт.

Она подчеркнула, что это очень тревожный сигнал.

"Вся суть терапии в том, чтобы вернуть человеку связь с собой, развить доверие к своим чувствам, научить выстраивать отношения с окружающими. А слепое следование за алгоритмом возвращает их обратно в точку старта", — объяснила Зарина.

Штеер также выделила несколько тревожных сигналов, указывающих на излишнюю зависимость человека от ИИ:

  • снижение доверия к людям - человек начинает спорить, опротестовывать чужие мнения и ссылаться на ответы ИИ, особенно если эти мнения ему не нравятся;
  • изоляция - человек всё чаще проводит время один, общаясь с телефоном, и перестаёт делиться своими мыслями с близкими.

Фото: depositphotos.com

Чем опасно перекладывание ответственности

Перекладывание ответственности на ИИ, по словам специалиста, опасно тем, что человек остаётся в детской позиции и не растёт. Психолог отметила, что вместо того, чтобы полагаться на собственные силы, он ищет авторитетную фигуру, которая примет решение за него. Если раньше, по мнению эксперта, такими фигурами были родители, учителя или религиозные наставники, то теперь эту роль играет ИИ.

"ChatGPT становится для некоторых своеобразным "внутренним взрослым", хотя на деле это всего лишь алгоритм, который говорит то, что вы хотите услышать. Он не несёт ответственности за последствия — это всё равно останется на вас.

Такое поведение приводит к потере связи с собой. Исчезает чувство субъектности. Человек больше не спрашивает себя: "А что я думаю? Что я чувствую? Чего я хочу?" Он просто живёт по чужой инструкции, которая звучит убедительно", — объяснила она.

Специалист подчеркнула, что искусственный интеллект не видит полную картину вашей жизни. Он не способен уловить контекст, почувствовать ваши обстоятельства или проявить эмпатию. По этой причине, по словам психолога, ИИ не может принять по-настоящему объективное решение.

Когда ИИ может быть полезен, а когда — нет

Штеер отметила: ChatGPT — это инструмент, а не источник истины. Он может быть полезен в рутинных задачах: структурировать мысли, помочь с маршрутами, дать краткий обзор по теме. Но в сложных вопросах — таких как психика, здоровье, отношения — полагаться на ИИ небезопасно.

"Я и сама использую ИИ, чтобы собрать черновик текста или проложить маршрут. Но в вопросах судьбы и ментального здоровья я за критическое мышление", — подчеркнула Зарина.

Психолог добавила, что не призывает полностью отказаться от использования ИИ.

"Он может помочь собрать мысли. Он помогает структурировать что-то, но он не заменяет какого-то там разговора, присутствия, понимания", — отметила специалист.

Для тех, кто ищет точку опоры в трудные моменты, эксперт рекомендует:

  • создать собственные ритуалы - выполнять простые повседневные действия, которые дают ощущение стабильности и контроля;
  • обращаться к живым людям - обсуждать проблемы с друзьями, близкими или, что самое важное, со специалистами - психологами, врачами, финансовыми консультантами.

"Идите в диалог с живыми людьми, а не с чатом. Обратитесь к живому человеку как к точке опоры, но не к алгоритму", — заключила Штеер.

Материал подготовлен на основе интервью с психологом Зариной Штеер. Информация носит ознакомительный характер и не является заменой профессиональной психологической помощи.

Справка. Зарина Штеер — психолог, нейропсихолог и КПТ-терапевт с 22-летним стажем. Выпускница Карагандинского и Новосибирского государственных университетов. Действующий член Казахстанской ассоциации когнитивно-поведенческой терапии. С 2006 года работает по совместительству в многопрофильной клинической больнице, а с 2018 года читает лекции в одном из университетов Астаны.

Отметим, что учёные из США решили выяснить, как искусственный интеллект влияет на работу мозга. В эксперименте участвовали 54 студента. В ходе исследования студентов разделили на три группы: одни писали эссе для SAT с помощью ChatGPT (LLM-группа), другие искали информацию через Google, а третьи полагались только на собственные знания. Участников попросили написать эссе, при этом они носили устройства ЭЭГ (электроэнцефалографии), фиксирующие активность мозга.

Результаты показали, что использование ИИ оказало "измеримое воздействие": у участников этой группы наблюдалось "вероятное снижение способностей к обучению". В то же время пользователи Google продемонстрировали "среднее вовлечение", а участники, которые не использовали внешние инструменты, проявили более высокую мозговую активность и представили более оригинальные идеи в своих эссе.

Читать также: ChatGPT будет учить людей думать

Tengrinews
Join Telegram Последние новости
Лого TengriNews мобильная Лого TengriLife мобильная Лого TengriSport мобильная Лого TengriEdu мобильная Иконка меню мобильная