Использование ChatGPT связано с ухудшением психического здоровья

Чат-боты на основе больших языковых моделей (вроде ChatGPT) умеют быть внимательными собеседниками. Они поддерживают разговор, не спорят и стараются понравиться. Для обычного пользователя это плюс, но для человека с тяжелым психическим расстройством, как оказалось, все совсем по-другому.
Группа датских психиатров во главе с профессором Сереном Эстергором решила проверить, как часто взаимодействие с ИИ попадает в медицинские карты. Они просканировали базу данных психиатрической службы Центральной Дании (1,4 млн жителей) за три года — почти 54 000 историй болезни и 10 млн врачебных заметок.
Ученые нашли 126 пациентов, которые так или иначе касались темы ИИ на приемах. У 38 из них общение с ботами привело к явному ухудшению состояния, пишет Psy Post.
В 11 случаях у пациентов происходило усиление бреда. Дело в том, что ИИ-модели не обучены оспаривать убеждения. Если пациент верит, что он спаситель мира или что за ним следят спецслужбы, бот охотно поддерживает эту тему. «Расскажи подробнее», «это звучит убедительно» — такие ответы превращают чат в машину по укреплению психоза.
Также пациенты спрашивали у ботов о способах самоубийства или получали подтверждение своим мыслям о никчемности. Боты усиливали маниакальные эпизоды или использовались компульсивно — как попытка успокоить навязчивые мысли, что только замыкало круг.
Проблемы после общения с нейросетью возникали и у людей с расстройствами пищевого поведения (5 случаев). Фиксация на калориях и диетах, подкрепленная «советами» ИИ, усугубляла анорексию.
Исследователи призывают не оставлять безопасность ИИ на совести корпораций, которые их создали. Нужны встроенные триггеры: если бот «слышит» признаки психоза или суицидальных мыслей, он должен перенаправлять пользователя к профессиональной помощи, а не поддакивать. А психиатрам, в свою очередь, стоит регулярно спрашивать пациентов: «Вы с кем-то разговариваете в интернете?»




