Эксперт призвал не делиться личными секретами с искусственным интеллектом

Эксперт призвал не делиться личными секретами с искусственным интеллектом, фото - Новости Zakon.kz от 26.12.2023 18:03 Фото: pixabay
Делиться личными секретами и пытаться подружиться с чат-ботами с искусственным интеллектом вроде ChatGPT может быть неосмотрительно и даже опасно. Об этом предупредил один из экспертов по разработке ИИ, сообщает Zakon.kz.

Как сообщает The Guardian, профессор по разработке искусственного интеллекта Оксфордского университета Майк Вулдридж предупредил, что рассказывать ChatGPT слишком много о себе может быть опасно.

По словам Вулдриджа, беседовать с чат-ботом на интимные темы или предоставлять ему личные данные будет "крайне неразумно". Дело в том, что вся информация, собранная ChatGPT, будет использована для "тренировки" его последующих версий. Поэтому делиться с искусственным интеллектом политическими предпочтениями или обсуждать с ним проблемы на работе – не лучшая идея.

Кроме того, пользователям лучше не ждать, что ИИ будет общаться с ними откровенно и искренне, поскольку чат-бот натренирован "говорить" то, что хочет услышать его собеседник. Хотя у людей возникает соблазн отыскать у ChatGPT или других подобных ботов нечто вроде сознания, это лишь иллюзия. ИИ не будет вникать в человеческие проблемы.

"У искуственного интеллекта нет эмпатии. У него нет сочувствия. Эта технология изначально спроектирована так, чтобы попытаться говорить вам то, что вы ожидаете услышать. Буквально этим она и занимается", – подчеркнул профессор.

Майк Вулдридж предупредил, что любая информация, которую вы "скармливаете" ChatGPT, будет использована для обучения следующей версии искусственного интеллекта. И даже если пользователь поймет, что "выболтал" чат-боту слишком много, отозвать "лишнюю" информацию будет уже невозможно.

Ранее стало известно, что искусственный интеллект начнет проверять бизнес в Казахстане.

Поделиться новостью
Следите за новостями zakon.kz в:
Если вы видите данное сообщение, значит возникли проблемы с работой системы комментариев. Возможно у вас отключен JavaScript
Сообщите об ошибке на странице
Ошибка в тексте: