Ще кажат автономните оръжия "не" на незаконни поръчки?

$config[ads_kvadrat] not found

Время и Стекло Так выпала Карта HD VKlipe Net

Время и Стекло Так выпала Карта HD VKlipe Net
Anonim

Байназар Мохамед Назар беше в безсъзнание на операционната маса, когато таванът започна да се разпада. Бащата на четирима души се е регистрирал в болницата предишния ден, след като е бил прострелян в крака, и е преминал втората си операция след два дни, за да оправи травмата. Когато американците започнаха да разрушават сградата, лекарите, които работеха с него, нямаха друг избор, освен да избягат сами, колкото можеха по-бързо.

Андрю Quilty в Външна политика разказва историята на живота и смъртта на Байназар в статия, която включва снимка на тялото му, покрита с отломки на операционната маса. Байназар е бил един от 31-те души, които САЩ убиха, когато удари болницата, управлявана от "Лекари без граници" (наричана още MSF) в Кундуз, Афганистан, на 2 октомври.

След стачки с висок ранг, граждански жертви, политиците и експертите питат как може да се случи подобно нещо и какво може да се направи, за да не се случи отново. Сред привържениците на автономните оръжейни системи, наричани понякога „убийствени роботи”, един популярен аргумент е, че човешката грешка (или злоба) е причина за голяма степен на престъпленията, извършени по време на войната. Теоретично е възможно, казват те, че роботите могат да бъдат по-прецизни в насочването си и по-малко склонни към грешки, отколкото хората.

"Всъщност, човешките преценки могат да се окажат по-малко надеждни от техническите показатели в разгара на битката", пише Майкъл Шмит, професор в Американския военноморски колеж. "Тези, които вярват по друг начин, не са преживели мъглата на войната."

Въздушен удар на САЩ в болница MSF в Афганистан ", причинен главно от човешка грешка" http://t.co/X9TGIA81aD pic.twitter.com/TUwit97206

- Телеграфни новини (@TelegraphNews) 25 ноември 2015 г.

Въпросът е следният: можете ли да програмирате инструментите на войната, за да ограничите човешкото поведение, за да направите стачки като болницата в Кундуз невъзможно или поне по-малко вероятно?

Вероятно не - поне за близко бъдеще. Но някои програмисти за изкуствен интелект са проектирали робот, който може да каже „не“ на хората. Дизайнът на експеримента е прост: човекът казва на робот да върви напред от масата, която роботът първоначално отказва да направи. Когато човекът каже на робота, че ще го хване, роботът приема поръчката.

Това е дълъг път от полуавтономна атака на хеликоптер, която казва на човешкия си екипаж, че не може да извърши въздушен удар срещу болница, защото това би било военно престъпление, но основната предпоставка е до голяма степен същата. Както други изтъкнаха, човешката тревога за този вид развитие в роботите е често срещана в научната фантастика - мисля, че HAL-9000 казва: „Не мога да го направя, Дейв“, когато заключва човека извън космическата станция в 2001: Космическа одисея.

Що се отнася до спецификата на стачката в Кундуз, много от фактите около нападението остават спорни. MSF поиска независимо разследване, на което правителството на САЩ се противопоставя, вместо да обещае да извърши свои собствени прегледи.

Някои части от едно американско разследване бяха публикувани по-рано този месец и бяха открити човешки и механични грешки, причинени от стачката. Но по-рано тази седмица двама членове на службите излязоха да противоречат на констатациите на доклада. Те казват, че стачката не е грешка. В счетоводството си, отчетено първо от AP, Сили за специални операции на САЩ призоваха в стачката, защото макар че болницата се използваше като талибански команден и контролен център.

В официалната версия механична повреда доведе до това, че екипажът на кораба AC-130 първоначално получи координати за празно поле. След това екипажът търси сграда в района, която отговаря на описанието, което им е било дадено, и откри огън. Когато инструментите им се калибрират отново, те дадоха на екипажа правилните координати за целта си, но екипажът продължи да стреля по болницата.

Ако това твърдение е вярно - че компютърът е в крайна сметка точен и хората го игнорират - то дава известна увереност на поддръжниците на по-голяма автономия в оръжейните системи. Въпреки това, американската война срещу тероризма е пълна с примери за това, че военните или ЦРУ удряха "правилната" цел и все пак в крайна сметка убиха огромно количество цивилни. Автоматизацията няма да разреши лошото разузнаване и опитите за програмиране на сближаването на морала няма да сложат край на военните престъпления.

В Съединените щати има силно изкушение да стерилизира войната и автоматизацията, като премахне американците от опасния начин, който е предопределен да промени самото определение на войната. Предпочитанието на Обама за убийство на безпилотни самолети и съпътстващите го уверения, че дроните са най-прецизните оръжия, създадени някога, са най-ясната проява на тези цели. "Те са били прецизни, прецизни удари срещу Ал Кайда и техните филиали", каза Обама в мача на 2012 г. в Google.

Правителственото проучване от 2013 г. обаче контрастира с тези твърдения. Установено е, че безпилотни самолети в Афганистан причиняват 10 пъти повече смъртни случаи от цивилни като безпилотни превозни средства. "Дроните не са магически по-добри в избягването на цивилни, отколкото на изтребители", каза Сара Холевински, съавтор на изследването. Пазителят, "Когато на пилоти, летящи самолети, бяха дадени ясни директиви и обучение по гражданска защита, те успяха да намалят броя на жертвите."

Военните харчат милиони за разработване на системи за работа в екип между хора и роботи, което допълнително размива линиите между мисиите, извършвани от пилотирани или безпилотни оръжия. "Това, което искаме да направим в борбата с човеко-машинните битки, е да го изведем на следващото ниво, да гледаме на неща като роящи тактики", заяви заместник-министърът на отбраната Боб Работа на официалния блог на науката. - Може ли F-35 да влезе в битка с четирима безпилотни крилати?

Дали тези криминали ще кажат не, ако човешкият пилот им даде заповед, която е аналогична на излизането от масата? Какво ще кажете за заповед за унищожаване на болница или училище? Мъглата на войната ще се прилага и в двата случая. И ако решим да преодолеем машините, фразата "човешка грешка" ще бъде един от най-страшните термини в конфликтите на бъдещето.

$config[ads_kvadrat] not found