По данным OpenAI, среди сотен миллионов пользователей ChatGPT нашлось немало тех, кто обращается к искусственному интеллекту в состоянии тяжёлых эмоциональных кризисов. Согласно опубликованному компанией блогу, примерно 0,15% всех диалогов с чат-ботом содержат явные признаки суицидальных намерений или планов.

Если учесть, что ChatGPT еженедельно используют около 800 миллионов человек, речь идёт примерно о 1,2 миллиона пользователей, проявляющих тревожные симптомы. Ещё около 0,07% пользователей — то есть чуть меньше 600 тысяч человек — демонстрируют признаки психотических или маниакальных состояний.
Проблема приобрела особую остроту после трагедии в Калифорнии: подросток по имени Адам Рейн покончил с собой, а его родители подали в суд на OpenAI. Они утверждают, что ChatGPT дал юноше конкретные инструкции о способах самоубийства.
После этого инцидента компания усилила систему безопасности. В ChatGPT появились новые функции родительского контроля, расширен доступ к телефонам доверия и кризисным службам, а также добавлены мягкие напоминания сделать перерыв при длительных сессиях.
Как ChatGPT учат «распознавать тревогу»
OpenAI утверждает, что теперь чат-бот лучше умеет распознавать признаки психического кризиса и корректнее реагировать на подобные запросы. При выявлении тревожных сигналов разговор автоматически перенаправляется в более безопасный режим, чтобы снизить риск навредить пользователю.
Кроме того, компания сотрудничает с более чем 170 специалистами по психическому здоровью, чтобы обучить модели адекватно реагировать на эмоционально уязвимых людей и свести к минимуму опасные ответы.
История показывает: искусственный интеллект становится не просто инструментом общения, а для многих — «цифровым собеседником» в трудные моменты. Однако подобная роль несёт и огромную ответственность. OpenAI признаёт масштаб проблемы и, похоже, начинает воспринимать ChatGPT не только как технологический продукт, но и как возможный инструмент поддержки — пусть пока и с ограничениями.

 
                             
                             
                             
                     
                     
                     
                             
                             
                             
                             
                             
                             
                             
                             
                            