Сотни тысяч пользователей ChatGPT каждую неделю проявляют признаки психических расстройств
- AlexT
- 29-окт-2025, 10:00
- 0 комментариев
- 9 просмотров

Популярность ChatGPT продолжает расти, превращая его в один из самых массовых инструментов общения с искусственным интеллектом. По данным самой OpenAI, еженедельно сервисом пользуются около 800 миллионов человек — это почти десятая часть всего населения планеты. Но вместе с ростом аудитории усиливается и тревожная тенденция: сотни тысяч пользователей демонстрируют признаки психологических нарушений, а более миллиона — задумываются о самоубийстве.
Как сообщает Gizmodo, OpenAI впервые обнародовала внутреннюю статистику, отражающую ментальное состояние части аудитории. Среди активных пользователей фиксируются проявления психозов, маниакальных состояний, суицидальных мыслей и зависимости от чат-бота.
По оценкам экспертов:
до 0,07 % аудитории (примерно 560 000 человек) проявляют симптомы психоза или мании;
около 0,15 % пользователей (около 1,2 миллиона человек) имеют суицидальные наклонности;
ещё примерно 1,2 миллиона человек демонстрируют эмоциональную зависимость от ИИ.
Всего такие тревожные признаки поведения замечаются примерно у трёх миллионов пользователей еженедельно.
Если смотреть на статистику сообщений, то примерно 0,01 % из всех обращений к ChatGPT носят следы психотического или маниакального характера — это около 1,8 миллиона сообщений из общего объёма в 18 миллиардов за неделю. На темы самоубийства приходится до 9 миллионов сообщений, а ещё 5,4 миллиона связаны с зависимостью от общения с ИИ.
Руководство OpenAI утверждает, что старается снизить риски и минимизировать влияние чат-бота на уязвимых пользователей. Для этого компания консультируется с 170 психиатрами и психологами, разрабатывает новые алгоритмы фильтрации и делает ответы ChatGPT мягче и поддерживающими.
Благодаря этим мерам количество неподходящих ответов для людей с тревожными симптомами удалось сократить на 65–80 %. Однако OpenAI не блокирует доступ к сервису и не прерывает общение с пользователями, проявляющими признаки эмоционального неблагополучия — вместо этого система старается аккуратно направить их к специалистам.
Тем не менее, некоторые аналитики критикуют позицию компании. На фоне растущей зависимости от виртуальных собеседников OpenAI одновременно развивает инициативы, связанные с «очеловечиванием» ChatGPT и использованием ИИ для создания контента интимного характера. Эксперты отмечают, что подобные шаги могут лишь усугубить проблему эмоциональной зависимости и не способствуют укреплению психического здоровья пользователей.
Ситуация показывает, насколько тонка грань между полезным инструментом и потенциальным источником психологического риска — особенно тогда, когда искусственный интеллект становится заменой живому общению.