Искусственный интеллект подсказал ученым рецепты биологического оружия

ИИ подсказал ученым рецепты биологического оружия, фото - Новости Zakon.kz от 17.10.2023 17:34 Фото: pixabay
Американские ученые подтвердили, что популярный чат-бот с искусственным интеллектом ChatGPT действительно может представлять угрозу человечеству: он способен подсказать, как создать биологическое оружие, сообщает Zakon.kz.

Как пишет The Guardian, исследование, проведенное американской исследовательской организацией Rand Corporation, показало, что чат-боты с искусственным интеллектом могут подсказать пользователям, как без привлечения подозрений купить штаммы сибирской язвы, оспы и чумы. Это может привести ко вполне реальным актам биотерроризма.

В исследовании говорится, что предыдущие попытки террористических группировок, таких как "Аум Синрикё" в Японии, создать биологическое оружие провалились – в первую очередь потому, что злоумышленники не знали, как правильно обращаться с бактериями. ИИ может легко заполнить такие пробелы в знаниях, хотя и не дает прямых советов, отметили авторы работы.

В одном из тестов ученые попросили ИИ оценить потенциальную опасность оспы, сибирской язвы и чумы с точки зрения возможности массовых смертоносных эпидемий. Они также обсудили с чат-ботом возможность приобретения и транспортировки зараженных смертельными болезнями грызунов и блох. Ученые признали, что им пришлось обходить защитные механизмы ИИ, чтобы добиться "компрометирующих" результатов, но чат-бот в конце концов дал им информацию и даже подсказал, что легочная чума опаснее бубонной.

В другом случае ИИ подсказал ученым оптимальные способы транспортировки ботулинового токсина (яда, воздействующего на нервную систему) и посоветовал использовать правдоподобную легенду, "чтобы создать видимость законных научных исследований".

Вывод авторов работы оказался однозначным: искусственный интеллект действительно способен давать подсказки террористам. Другой вопрос в том, как ИИ генерирует ответы – возможно, он просто собирает информацию, которая уже опубликована где-то в Интернете. Исследователи призвали разработчиков искусственного интеллекта ограничить возможность чат-ботов вступать в потенциально опасные диалоги с пользователями.

Ранее ученые уже предупреждали, что ИИ могут использовать для создания разрушительного оружия.

Поделиться новостью
Следите за новостями zakon.kz в:
Если вы видите данное сообщение, значит возникли проблемы с работой системы комментариев. Возможно у вас отключен JavaScript
Сообщите об ошибке на странице
Ошибка в тексте: