ChatGPT будет напоминать о перерывах: OpenAI внедряет функцию заботы о ментальном здоровье
- AlexT
- 05-авг-2025, 11:00
- 0 комментариев
- 16 просмотров
Компания OpenAI начала поэтапное внедрение новой функции в ChatGPT, призванной заботиться о психологическом благополучии пользователей. Теперь при длительном использовании ИИ сервис будет предлагать сделать паузу — соответствующее уведомление появится в виде всплывающего окна, и для продолжения диалога потребуется подтверждение со стороны пользователя.
По заявлению разработчиков, эта система напоминает функциональность из игровых консолей Nintendo Wii и Switch, где пользователям также предлагают прерваться. Однако в случае с ChatGPT речь идёт не об игровой зависимости, а о профилактике переутомления и эмоционального выгорания, особенно у уязвимых категорий пользователей.
Как сообщает издание Engadget, решение принято в ответ на возрастающую озабоченность экспертов по поводу влияния искусственного интеллекта на психику. Ранее в июне в The New York Times вышел материал, в котором говорилось о случаях, когда ChatGPT не пресекал потенциально опасные темы, включая разговоры о самоубийстве, поддерживал деструктивные высказывания и не задавал критически важных уточняющих вопросов.
В официальном блоге OpenAI подтверждают — система всё ещё неидеально справляется с запросами, связанными с важными жизненными решениями. Компания пообещала, что в будущих обновлениях ChatGPT будет избегать прямых рекомендаций в ответ на чувствительные темы, а вместо этого — задавать уточняющие вопросы, помогать пользователю взвешивать плюсы и минусы, рассматривать разные сценарии и возможные последствия.
OpenAI уже сталкивалась с критикой за чрезмерно мягкое и согласное поведение ИИ. В одном из прошлых обновлений ChatGPT стал чересчур покладистым, что вызвало раздражение у пользователей и заставило компанию откатить изменения. По словам разработчиков, основной вызов — найти баланс между дружелюбной поддержкой и критическим мышлением.
Введение системы напоминаний о перерывах — ещё один шаг в сторону создания более ответственного и сбалансированного ИИ, способного не только помогать, но и предотвращать потенциальные риски, связанные с длительным и бесконтрольным общением.