Ето как можем да спрем бъдещето на Rogue A.I. от имитация на HAL 9000

$config[ads_kvadrat] not found

Velcro - HAL 9000's Dephts

Velcro - HAL 9000's Dephts
Anonim

Как да спрем едно бъдещо A.I. да не се подчиняват на заповедите и да избират своя път? Може да звучи като от парцела 2001: Космическа одисея, но един експерт твърди, че това е нещо, за което може би вече трябва да започнем да мислим. Разбира се, бихме могли да изключим алгоритъма за търсене на Google, ако той някога се е измъкнал, но когато се сблъска с финансови и правни последици, може да бъде по-лесно да се каже, отколкото да се направи. В бъдеще, тъй като ние зависим от по-напредналите А., това може да се окаже невъзможно.

„Този ​​алгоритъм не е съзнателно проектиран себе си да бъде невъзможно да се рестартира или да се изключи, но е съвместно еволюирало по този начин ”, казва Стюарт Армстронг, изследовател в Института за бъдещето на човечеството, на срещата на Pirate Summit 2016. Това означава, че промяна с неволни резултати може да бъде трудно да се коригира и може да не е първата A.I. да се озове в тази ситуация.

Решението на Исак Азимов беше трите закона на роботиката, чиито идеи за твърди кодове не причиняват вреда на хората. Проблемът е, че вредата е по-скоро субективна и отворена за тълкуване. Хората работят повече върху ценностите, като разбирането, че е лошо да причиняват вреда и да тълкуват ситуацията, отколкото да се работи по някакво твърдо правило, че те никога не трябва да навредят.

"Поради този проблем проблемът е, че хората са много по-склонни да използват машинното обучение, за да получат ценности, вместо да се опитват да ги кодират по този традиционен начин", казва Армстронг. „Ценностите са стабилни по такъв начин, че други неща не са в A.I. Ценностите се защитават вътрешно. ”

Но дори и в тези ситуации е важно да се проектира A.I. да ги прекъсне, докато те работят. Безопасната прекъсване позволява безопасни промени в политиката, които могат да предотвратят непредвидени последици от научените ценности. Ако HAL 9000 някога се е опитвал да спре отварянето на вратичките, е важно да установим, че стойностите на A.I. са объркани и да се намесят, без да извадят системата офлайн.

$config[ads_kvadrat] not found