Стивен Хокинг, самый известный физик в мире, высказал предостережение насчет искусственного интеллекта, заметив, что это может стать “крупнейшим событием в истории человечества”, но оно может стать “последним”.
В обзорных публикациях The Independent, Хокинг и три других ученых написали, что игнорирование угрозы от искусственного интеллекта может быть “самой большой ошибкой в истории”, а также, что было проведено не достаточно исследований относительно возможных рисков.
Ученые полагают “потенциальные преимущества огромны; все, что может предложить цивилизация является продуктом человеческого разума; мы не можем предсказать, что мы можем достичь, используя возможности искусственного интеллекта, но прекращение войн, ликвидация бедности и болезней будет, безусловно, самыми важными целями. Успех в создании искусственного интеллекта будет крупнейшим событием в истории человечества.
К сожалению, это также может стать последним событием, если мы не научимся избегать рисков. В ближайшей перспективе, военные различных стран рассматривают как возможность использование систем автономного оружия, которые могут выбирать и ликвидировать военные цели; ООН выступила с инициативой о запрете такого оружия. В долгосрочной перспективе, искусственный интеллект может привнести как большое богатство, так и огромную дезорганизацию”.
Ученые пишут, что велика вероятность того, что не будут придуманы средства, которые смогут предотвратить самосовершенствование машин со сверхчеловеческим интеллектом.