Врачи сообщили о тревожном случае: ИИ дал смертельно опасный совет
Фото: pixabay
Как указано в исследовании врачей Вашингтонского университета, мужчина обеспокоился вредом избыточного потребления натрия (соли). Почитав литературу, он не нашел информации о том, чем безопасным можно заменить хлорид натрия, и обратился за советом к ChatGPT. Искусственный интеллект предложил ему заменить хлорид на бромид, не уточнив при этом, что данное вещество токсично при длительном употреблении. Мужчина купил бромистый натрий онлайн и стал принимать его регулярно, пишет "Наука".
Бромистые соединения в начале XX века применялись для лечения бессонницы и тревожности. Но позже выяснилось, что они опасны: могут вызывать так называемый бромизм – хроническое отравление, сопровождающееся неврологическими и психическими нарушениями. В 1980-х бромид практически исчез из медицинской практики, но до сих пор встречается в некоторых ветеринарных препаратах и пищевых добавках.
Через три месяца после начала приема бромида мужчина попал в больницу. Он утверждал, что его отравил сосед. Мужчина страдал паранойей, галлюцинациями и был сильно возбужден. Также американец отказывался пить воду, хотя испытывал жажду. Вскоре состояние переросло в острый психоз – он даже пытался убежать из отделения. Пациента после приведения в норму биологических показателей госпитализировали в психиатрическое отделение.
После улучшения состояния пациент рассказал о замене хлорида натрия на бромид. Врачи заподозрили бромизм еще на ранней стадии, но подтвердить это смогли только после разговора с мужчиной.
Через три недели его выписали, отменив все препараты.
Врачи считают этот случай тревожным сигналом. Он показывает, что ИИ вроде ChatGPT способен давать советы, вырванные из контекста, и не всегда понимает, в каком именно смысле задан вопрос. Кроме того, ИИ по-прежнему выдает "галлюцинации" (придумывает ответы).
"Хотя такие инструменты, как ChatGPT, могут обеспечить связь между учеными и широкой публикой, ИИ также несет риск распространения информации, вырванной из контекста", – отмечают врачи.
Медицинский эксперт, подчеркивают они, никогда бы не рекомендовал замену соли на бромид.
В последнее время все чаще появляются предупреждения психиатров об опасности ChatGPT. По их мнению, нейросеть стала выдавать странные и ложные утверждения, вызывая тревожность у пользователей.