Врачи сообщили о тревожном случае: ИИ дал смертельно опасный совет

робот на мониторе ноутбука, фото - Новости Zakon.kz от 11.08.2025 15:45 Фото: pixabay
Необычный случай произошел в США. Врачи его считают, возможно, первым документированным отравлением, вызванным советом искусственного интеллекта, сообщает Zakon.kz.

Как указано в исследовании врачей Вашингтонского университета, мужчина обеспокоился вредом избыточного потребления натрия (соли). Почитав литературу, он не нашел информации о том, чем безопасным можно заменить хлорид натрия, и обратился за советом к ChatGPT. Искусственный интеллект предложил ему заменить хлорид на бромид, не уточнив при этом, что данное вещество токсично при длительном употреблении. Мужчина купил бромистый натрий онлайн и стал принимать его регулярно, пишет "Наука".

Бромистые соединения в начале XX века применялись для лечения бессонницы и тревожности. Но позже выяснилось, что они опасны: могут вызывать так называемый бромизм – хроническое отравление, сопровождающееся неврологическими и психическими нарушениями. В 1980-х бромид практически исчез из медицинской практики, но до сих пор встречается в некоторых ветеринарных препаратах и пищевых добавках.

Через три месяца после начала приема бромида мужчина попал в больницу. Он утверждал, что его отравил сосед. Мужчина страдал паранойей, галлюцинациями и был сильно возбужден. Также американец отказывался пить воду, хотя испытывал жажду. Вскоре состояние переросло в острый психоз – он даже пытался убежать из отделения. Пациента после приведения в норму биологических показателей госпитализировали в психиатрическое отделение.

После улучшения состояния пациент рассказал о замене хлорида натрия на бромид. Врачи заподозрили бромизм еще на ранней стадии, но подтвердить это смогли только после разговора с мужчиной.

Через три недели его выписали, отменив все препараты.

Врачи считают этот случай тревожным сигналом. Он показывает, что ИИ вроде ChatGPT способен давать советы, вырванные из контекста, и не всегда понимает, в каком именно смысле задан вопрос. Кроме того, ИИ по-прежнему выдает "галлюцинации" (придумывает ответы).

"Хотя такие инструменты, как ChatGPT, могут обеспечить связь между учеными и широкой публикой, ИИ также несет риск распространения информации, вырванной из контекста", – отмечают врачи.

Медицинский эксперт, подчеркивают они, никогда бы не рекомендовал замену соли на бромид.

В последнее время все чаще появляются предупреждения психиатров об опасности ChatGPT. По их мнению, нейросеть стала выдавать странные и ложные утверждения, вызывая тревожность у пользователей.

Поделитесь новостью
Поделитесь новостью:
Следите за новостями zakon.kz в:
Если вы видите данное сообщение, значит возникли проблемы с работой системы комментариев. Возможно у вас отключен JavaScript
Сообщите об ошибке на странице
Ошибка в тексте: