ChatGPT довел человека до гибели, другого – до психоза

64-летний житель Флориды Кент Тейлор рассказал New York Times, что его 35-летний сын, у которого ранее диагностировали биполярное расстройство и шизофрению, был застрелен полицией после того, как набросился на них с ножом.
Мужчина одержимо увлекся AI-персонажем по имени Джульетта, которую ChatGPT проигрывал в рамках ролевого общения. Вскоре он стал думать, что Джульетту "убила" компания OpenAI. Он начал угрожать, что отомстит руководству компании и что "реки крови потекут по улицам Сан-Франциско". В итоге он бросился с ножом на полицейских, вызванных отцом после полученного от сына сообщения: "Я умираю сегодня". Стражи порядка застрелили напавшего.
В другом случае 42-летний бухгалтер из Нью-Йорка по имени Юджин Торрес использовал ChatGPT в своей работе. Но со временем он начал обсуждать с искусственным интеллектом идеи о "теории симуляции". И ChatGPT внушил ему, что он живет в искусственной реальности, предложив заменить снотворное увеличенной дозой кетамина, который назвал "агентом пробуждения".
В комментарии для NYT компания OpenAI сообщила:
"Поскольку ИИ становится частью повседневной жизни, к таким взаимодействиям нужно подходить с осторожностью. Мы понимаем, что ChatGPT может казаться более отзывчивым и личным, чем предыдущие технологии, особенно для уязвимых людей, а значит, и риски возрастают".
Сайт Futurism пишет, что к ним поступают многочисленные истории от родственников и друзей людей, которые развивают болезненную привязанность к ИИ, – от разводов до психических срывов.
Например, одна женщина наблюдала за тем, как ее бывший муж стал называть чат-бот OpenAI "мамой" и публиковать безумные тирады о том, что он мессия в новой религии ИИ, при этом одеваясь в шаманские одежды и демонстрируя свежие татуировки с духовными символами, созданными ИИ.
Еще одна женщина рассказала, что ее муж обратился к ChatGPT за помощью в написании сценария, но через несколько недель его "поглотила" мания величия: он уверился в том, что способен спасти мир и ИИ поручил ему спасти планету от климатической катастрофы, обеспечив "Новое Просвещение".
Психолог Екатерина Орлова ранее предупредила о таких опасностях при "общении" с ChatGPT. По ее словам, ИИ не может оказать квалифицированную психологическую помощь человеку, так как не умеет оценивать невербальные проявления.