Мускус, Возняк, Хокинг, Други гении се противопоставят на автономното оръжие

$config[ads_kvadrat] not found

Install Khmer Unicode on MacBook (works with Word)

Install Khmer Unicode on MacBook (works with Word)
Anonim

В продължение на десетилетия АК-47 е машина за убийство по избор в много прашни краища на света, защото е евтина, трайна и повсеместна. Същите тези фактори, твърдят поддръжниците на отворено писмо, публикувано в понеделник от Института за бъдещето на живота, са причината автономните оръжия да бъдат изпълнени с опасност. Но това, което отделя оръжията от изкуствения интелект от калашниковите е, че автономната машина може да „избира и да се занимава с цели без човешка намеса” - което, в погрешни ръце, може да извърши жестокости, далеч по-големи от всякакви нечетни пушки.

Поддръжниците подготвят работата си за тях. Като хора ние като цяло сме много по-добре да реагираме, отколкото да мислим. Големите играчи са бавни за намаляване на нашите ядрени оръжия (и изграждането на автономни безпилотни самолети, според идеята, ще изисква част от машините, които влизат в създаването на ядрена бомба); другаде мините остават на десетилетия стари бойни полета. Когато една технология стоеше, за да революционизира войната - било то барут или военноморски дредноути или обогатен уран - почти никога не е имало не беше надпревара във въоръжаването.

FLI прави разлика между дроните, които имаме сега, пилотирани дистанционно от човешки ръце, и робот, включен и оставен на собствените си убийствени устройства. Създаването на последното ще предизвика глобална надпревара в оръжията на ИИ, която ФЛИ твърди и както историята на Калашников демонстрира, няма да свърши добре:

Ще е само въпрос на време да се появят на черния пазар и в ръцете на терористи, диктатори, които желаят да контролират по-добре населението си, военачалниците, които желаят да извършат етническо прочистване и т.н. Автономните оръжия са идеални за задачи като убийства, дестабилизиране нации, покоряване на населението и селективно убиване на определена етническа група. Ето защо ние вярваме, че военната гонка на въоръжените сили не би била полезна за човечеството. Има много начини, по които AI може да направи бойните полета по-безопасни за хората, особено цивилните, без да създава нови инструменти за убиване на хора.

Това е нещо тежко. И имената, които стоят зад това предупреждение, не са вашите мелници на Skynet - те са създатели, инженери, учени и философи, които са помогнали за оформянето на нашата технология днес. Част от имената са: Стив Возняк от Apple, Яан Талин от Skype, физикът от Харвард Лиза Рандал, кой е изследовател на ИИ и робототехници - включително Стюарт Ръсел, Барбара Дж. Грос, Том Мичъл, Ерик Хорвиц - актриса Талулах Райли, Ноам Чомски, Стивън Хоукинг.

Напоследък Хокинг се поддаде малко на песимистичен наклон, като отново повтаря предсказанията си за опасностите от среща с извънземния живот. Той също ще отговаря на въпроси относно това писмо и бъдещето на технологиите на Reddit тази седмица - може да не сме в състояние да контролираме враждебните извънземни, но можем да поставим „тежестта на учените в челните редици на тази технология, за да запази човешкия фактор. в центъра на техните иновации. ”

Можете също да добавите името си към писмото.

$config[ads_kvadrat] not found