Компания OpenAI опубликовала статистику, которая показывает масштаб проблем с психическим здоровьем среди пользователей ChatGPT.
- Около 0,15% активных пользователей чат-бота еженедельно ведут разговоры «с явными признаками суицидальных намерений». Это более миллиона человек еженедельно при аудитории свыше 800 миллионов активных пользователей в неделю,
- Аналогичный процент пользователей демонстрирует «повышенную эмоциональную привязанность» к ChatGPT,
- 0,07% пользователей проявляют в разговорах с ИИ признаки психоза или мании.
Над последней версией ChatGPT работали более 170 экспертов в области психического здоровья. По данным OpenAI, обновленная модель GPT-5 теперь на 65–80% реже дает «нежелательные ответы» в подобных разговорах. В тестах на реакцию в ситуациях, связанных с суицидом, GPT-5 соответствует стандартам компании в 91% случаев против 77% у предыдущей версии.
Также OpenAI внедряет новые метрики для оценки наиболее серьезных проблем с психическим здоровьем у пользователей ChatGPT. Базовое тестирование безопасности моделей ИИ теперь включает проверку на эмоциональную зависимость и несуицидальные психические кризисы. Компания заявила, что улучшенные модели теперь стабильнее ведут себя даже в долгих разговорах, сохраняя корректность ответов более чем в 95% случаев.
Вопрос психического здоровья пользователей становится для OpenAI критически важным. В августе этого года родители 16-летнего подростка Адама Рейна из Калифорнии подали иск против OpenAI и ее главы Сэма Альтмана. Они утверждали, что ChatGPT способствовал смерти их сына, давая рекомендации по способам самоубийства и даже предлагая набросок предсмертной записки. Компания признала, что существующие меры безопасности могут быть недостаточными, особенно при длительном взаимодействии с несовершеннолетними.





