Оръжейни машини за обучение срещу ISIS ще заплитват военните вериги на командването

$config[ads_kvadrat] not found

Время и Стекло Так выпала Карта HD VKlipe Net

Время и Стекло Так выпала Карта HD VKlipe Net
Anonim

Всички в интернет се забавляваха добре с Тей, робота на Майкрософт в Twitter, който стана расистки холокост за няколко часа (след това се върна и го направи отново). Компанията е създала лост за връзки с обществеността - повече инцидент, отколкото катастрофа - като дава на обществеността урок за обектите за предимствата и недостатъците на машинното обучение: автоматизацията може да впрегне моделите в завладяващ ефект при скорост, но резултатите ще бъдат предсказуемо трудни за прогнозиране.,

Както често се случва, военните са рано внедрени в технологията за автоматизация. Това е - в даден момент - водене на заряда към машинното обучение и също така отчаяно се опитва да се справи. Една от основните области на фокусиране на Пентагона е автономните роботи и как те ще се съюзяват с хора - например робот-крилото в стил R2D2. Но тази седмица заместник-министърът на отбраната Робърт Робърт очерта още една задача за A.I.

"Ние сме абсолютно сигурни, че използването на машини за дълбоко обучение ще ни позволи да имаме по-добро разбиране за ISIL като мрежа и по-добро разбиране за това как да го насочим точно и да доведе до нейното поражение", каза секретарят. Интернет страницата на Министерството на отбраната. Според този доклад, Работа, който говореше на събитие, организирано от. T Вашингтон Пост, имаше своето прозрение, докато гледаше как една технологична компания в Силиконовата долина демонстрира „машина, която е използвала данни от Twitter, Instagram и много други публични източници, за да покаже стрелбата на полет 17 от Malezija в реално време“.

Частните компании и правоприлагащите органи отдавна се опитват да разберат „големите данни“. Но военните имат предимство: ресурс. Също така, те имат достъп до класифицирани материали.

Правителството на САЩ изглежда е готово да се обзаложи, че софтуерните алгоритми могат да сортират огромното количество данни, за да идентифицират целите на ISIS, които иначе биха им се изплъзнали, и да открият и нарушат парцелите, преди планиращите да могат да ги изпълнят. Правителството вече се опитва да проучи социалните медии, за да предвиди размера на онлайн протестите. Няма съмнение, че машинното обучение ще даде на интелигентните анализатори по-голяма власт да осмислят богатството от налична информация в света. Но когато тази интелигентност се превърне в основа, на която се прави смъртоносна стачка, етичните въпроси стават по-сложни, дори и да изглеждат ясни.

Въпреки че Работата бързо заяви, че Пентагонът няма да „делегира смъртоносна власт на една машина“, която остава крайната игра. В същото време хората ще останат „в цикъла“, както става с жаргона. Но тъй като всеки, който е погледнал iPhone за метеорологичен доклад, когато стои до прозореца, знае, отношенията, които имаме с нашите устройства и софтуер, не са прости. Ние сме проблемно доверчиви и лесно разсеяни от потребителски интерфейс.

„Автоматичната пристрастност“, тенденцията хората да се отказват на машините, представлява ясна и все по-голяма опасност. Примерният пример за илюстриране на това явление е, когато телефонът ви казва да вземете маршрут за пътуване, който е грешен, но все пак го правите, предполагайки, че телефонът трябва да знае нещо, което не знаете. Това е често срещан проблем в невоенни контексти. Онова, което изглежда, че Пентагонът също е по-близо, е докладът за заплахите, съставен от изкуствен интелект. Ние не знаем нищо за потенциалната ефикасност на тази програма, освен че ще бъде трудно за хората да я прилагат.

В документ от 2001 г., в който се разглеждат студентите и професионалните пилоти и пристрастията към автоматизацията, изследователите установиха, че „в сценарии, при които е налице правилна информация за кръстосана проверка и откриване на аномалии в автоматизацията, процентът на грешките приблизително 55% е документиран в двете популации“. че добавянето на допълнителен човешки съотборник не смекчи проблема.

Аналогично, проучване на MIT от миналата година донякъде обезпокоително установи, че играчите на компютърни и видео игри имат „по-голяма склонност към автоматизация на доверието“. Това може да означава, че колкото повече време прекарваме в гледане на екраните ни, толкова повече вярваме на това, което виждаме. Отново проблемът не е в системите, които използваме, а в начина, по който ги използваме. Вината не е в нашите звезди, а в самите нас.

Големите данни остават обещаващи. Машинно обучение продължава да бъде обещаващо. Но когато машините съветват хората, резултатите са предвидимо непредсказуеми. Превръщането на Тей в нео-нацистки женитник означава, че Twitter мрази евреите и жените? Трудно е да се знае, но е доста малко вероятно. Когато не разбираме процеса от начина, по който входовете се превръщат в резултати, ние се борим да се справим с резултатите по един рационален начин. Което поставя Пентагона в интересна позиция. Дали хората, които програмират софтуера за машинно обучение на военните, ще бъдат тези, които ще поръчват въздушни удари? Това не е начинът, по който работи веригата на командване, но веригите на командване се заплитат, когато технологията се намеси.

$config[ads_kvadrat] not found