Лента новостей
0

Стивен Хокинг предрек победу искусственного интеллекта над человечеством

Zakon.kz, фото - Новости Zakon.kz от 03.12.2014 15:26 Zakon.kz
Ученый опасается, что в ближайшем будущем будут созданы машины, способные превзойти человека.
Развитие систем искусственного интеллекта угрожает человечеству, считает британский физик-теоретик Стивен Хокинг, сообщает Lenta.ru.

«Появление полноценного искусственного интеллекта может стать концом человеческой расы. Такой разум возьмет инициативу на себя и станет сам себя совершенствовать со все возрастающей скоростью. Возможности людей ограничены слишком медленной эволюцией, мы не сможем тягаться со скоростью машин и проиграем», — сказал ученый в интервью BBC.

Вместе с тем, он признает, что существующие примитивные формы искусственного интеллекта доказали свою пользу. Ученый опасается, что в ближайшем будущем будут созданы машины, способные превзойти человека.

Сам Хокинг, страдающий латеральным амиотрофическим склерозом, для передачи речи пользуется специальной системой компании Intel: она анализирует ход мыслей и предлагает слова, которые профессор мог бы употребить в следующей фразе. В итоге голос Хокинга генерируется программно, имеет механическое звучание и не изменялся со времени создания технологии. «Он стал моей визитной карточкой, и я ни за что не поменяю его на более "живой" голос с британским акцентом», — заверяет ученый.

Стивен Хокинг является создателем и руководителем Центра теоретической космологии в Кембриджском университете. Один из самых известных физиков-теоретиков нашего времени. Несмотря на тяжелое заболевание, приковавшее его к инвалидному креслу, ученый активно занимается популяризацией науки, высказывается по ключевым вопросам развития различных отраслей человеческого знания и общества.

Фото: Matt Dunham / AP
Следите за новостями zakon.kz в:
Поделиться
Если вы видите данное сообщение, значит возникли проблемы с работой системы комментариев. Возможно у вас отключен JavaScript
Будьте в тренде!
Включите уведомления и получайте главные новости первым!

Уведомления можно отключить в браузере в любой момент

Подпишитесь на наши уведомления!
Нажмите на иконку колокольчика, чтобы включить уведомления
Сообщите об ошибке на странице
Ошибка в тексте: