ChatGPT своим советом довел американца до острого психоза
Фото: пресс-служба КГД МФ РК
Как пишет Gizmodo со ссылкой на врачей Медицинской школы Вашингтонского университета, пациент в течение трех месяцев придерживался диеты, которую самостоятельно составил с использованием рекомендаций ChatGPT. Мужчина, имеющий базовое образование в области нутрициологии, решил исключить хлорид натрия из рациона и обратился к ИИ за советом. Нейросеть предложила несколько вариантов, включая бромид натрия, не указав на его токсичность при употреблении в пищу.
Отмечается, что через некоторое время у мужчины появились паранойя, галлюцинации и дезориентация, а затем развился психотический эпизод. Мужчина был госпитализирован, прошел курс антипсихотической терапии и через три недели выписан. На повторном осмотре спустя две недели врачи подтвердили стабильное состояние.
По мнению экспертов, рекомендации ИИ носили общий характер и не были адаптированы под медицинский контекст, что создало угрозу здоровью мужчины.
Ранее сообщалось, что ChatGPT все чаще стал бредить и сводить людей с ума.