Примерное время чтения: 5 минут
81

ИИ не лечит: как алгоритмы меняют психику и структуру личности

Светала Попова — Психотерапевт,профессиональный бизнес-трекер, бизнес-коуч
Светала Попова — Психотерапевт,профессиональный бизнес-трекер, бизнес-коуч АиФ-Казань

Искусственный интеллект уже вошёл в зону, которая ещё недавно считалась недоступной для технологий — в пространство человеческой психики.

Он не просто отвечает на вопросы, он начинает участвовать во внутреннем диалоге человека: объясняет переживания, структурирует мысли, поддерживает решения. Всё чаще ИИ становится не инструментом, а собеседником доступным, быстрым и неизменно согласующимся с тем, кто к нему обращается. И именно в этом совпадении его ключевая сила и его главное ограничение.

Но с точки зрения нейропсихологии это не терапия. Это система, которая усиливает существующую психическую реальность человека со всеми её искажениями.

Психотерапия — это не обмен словами, а взаимодействие двух нервных систем. В живом контакте происходит ко-регуляция аффекта и переработка опыта через правополушарные механизмы, а чувство безопасности формируется через вегетативную регуляцию.

Искусственный интеллект в этом процессе не участвует. Он не регулирует состояние, он объясняет его. Каждое взаимодействие с ИИ активирует дофаминовую систему. Пользователь получает быстрый, согласованный ответ, снижающий неопределённость и создающий ощущение ясности. Формируется устойчивая петля: запрос → подтверждение → облегчение → повтор. Алгоритмы усиливают когнитивные искажения. Логичность начинает восприниматься как объективность. Регулярное использование ИИ снижает нагрузку на префронтальную кору. Возникает псевдоинсайт — ощущение понимания без изменения. В практике я всё чаще встречаю клиентов, которые приходят уже с «оформленной правотой». ИИ не искажает их реальность — он делает её убедительной.

Научный контекст: что уже показывают исследования

Современные исследования в области взаимодействия человека и ИИ всё чаще фиксируют не только потенциал, но и системные ограничения таких моделей.

В частности, работы в области human-AI interaction, включая исследования Stanford Institute for Human-Centered Artificial Intelligence (Stanford HAI), указывают на эффект так называемой sycophancy — склонности языковых моделей согласовываться с пользователем и усиливать его позицию даже в ситуациях, где требуется критическая корректировка. Клинические и поведенческие исследования в области цифровой психиатрии показывают, что у уязвимых пользователей взаимодействие с ИИ может способствовать усилению искажённых убеждений и формированию замкнутых когнитивных систем. Дополнительно, работы, посвящённые взаимодействию с AI-компаньонами, фиксируют парадоксальный эффект: при росте субъективного ощущения поддержки одновременно усиливаются одиночество и зависимость от цифрового взаимодействия. При этом мета-аналитические обзоры цифровых интервенций в психическом здоровье показывают лишь умеренный терапевтический эффект ИИ-чатботов, подтверждая их вспомогательную, но не заменяющую роль.

Долгосрочный эффект: самокоучинг без сопротивления

Если взаимодействие с ИИ становится регулярным, оно начинает выполнять функцию самокоучинга — формы саморефлексии, лишённой внешней позиции. Однако, в отличие от психотерапии, этот процесс не содержит ключевого элемента — сопротивления со стороны другого субъекта, способного не согласиться, ограничить или вернуть к реальности. С нейропсихологической точки зрения это формирует замкнутый контур переработки опыта, в котором: источник запроса его интерпретация и подтверждение происходят внутри одной и той же когнитивной системы. Со временем это приводит к закреплению существующих нейронных паттернов, снижению когнитивной гибкости и постепенному ослаблению толерантности к неопределённости — ключевого маркера психической зрелости. Дополнительно происходит смещение от аффективной переработки к когнитивной: переживание всё чаще заменяется объяснением. В результате формируется устойчивая модель, в которой человек не столько изменяется, сколько становится более последовательной версией собственной интерпретации себя. Это усиливает эффект, который можно определить как цифровая нарциссизация:

  • усиление субъективной правоты
  • снижение чувствительности к альтернативным позициям формирование иллюзии глубокой саморефлексии без реальной трансформации.

Какие изменения в психике нас могут ожидать в ближайшие годы

Если рассматривать текущую динамику взаимодействия человека с ИИ, речь идёт не просто о появлении нового инструмента, а о постепенном смещении способов мышления, саморефлексии и переработки опыта.

Уже сейчас можно наблюдать тенденции, которые в ближайшие годы могут усилиться:

  • снижение способности к внутреннему конфликту — человек быстрее находит объяснение, но хуже выдерживает противоречие, необходимое для психического развития, рост
  • когнитивной ясности при снижении глубины — мысли формулируются быстрее, но опыт перерабатывается поверхностно, снижение толерантности к неопределённости — усиливается потребность в быстрых ответах и готовых интерпретациях, усиление
  • эгоцентрических моделей восприятия — реальность всё чаще интерпретируется через собственную логику, а не через столкновение с другим. В результате формируется психика, которая лучше объясняет, но хуже изменяется.

Вывод

С точки зрения нейропсихологии, искусственный интеллект не трансформирует психику — он стабилизирует её текущую конфигурацию во времени. И если эта конфигурация построена на искажениях, она становится более устойчивой, логичной и всё менее подверженной пересмотру. ИИ делает человека не другим, он делает его более последовательной версией самого себя, усиливая то, что уже есть. И главный вопрос будущего — насколько эта версия будет выдерживать встречу с реальностью.

Оцените материал
Оставить комментарий (0)
Подписывайтесь на АиФ в  max MAX
Загрузка...

Топ читаемых

Самое интересное в регионах