А.С. Експерт Вирджиния Динум: Проблем с количката показва защо имаме нужда от прозрачност

$config[ads_kvadrat] not found

Время и Стекло Так выпала Карта HD VKlipe Net

Время и Стекло Так выпала Карта HD VKlipe Net
Anonim

Изкуственият интелект се нуждае от прозрачност, за да може хората да я държат под внимание, твърди изследовател. Вирджиния Динум, доцент в Технологичния университет в Делфт, каза пред публика в Нюйоркския университет, че ако не разберем защо машините действат по начина, по който правят, няма да можем да преценяваме техните решения.

Dignum цитира историята на Дейвид Бери, научен писател и изследовател, публикувана в Психология днес: "Доказателствата сочат, че когато хората работят с машини, те чувстват по-малко чувство за агенция, отколкото когато работят самостоятелно или с други хора."

„Проблемът с количката“, обясни Динум, е област, в която хората могат да слагат сляпа вяра в една машина, за да изберат точния резултат. Въпросът е дали да се превключи лоста на хипотетичен бягащ влак, така че да убие един човек вместо пет. Хората очакват машините да разрешат проблема по възможно най-рационалния начин. Това обаче не винаги е така, а прозрачността ще помогне да се обясни как машината е стигнала до решението си.

"Не само една дълбока, невронна мрежа от събития, която никой не може да разбере, а да направи тези обяснения по начин, който хората могат да разберат", каза тя.

А.С. това, което прави работата му ясна е област, която DARPA проучва. През август агенцията публикува съобщение, че търси екипи, които се интересуват от обяснимото A.I. проекти, известни като XAI. Тези системи ще помогнат на изследователите да разберат защо един A.I. взе решението, което направи, като даде повече възможност да се реши какво да прави с получената информация, а не сляпо да се довери на машината.

С машинното обучение, Dignum отбеляза, че прозрачността е по-важна от всякога. "Не можем да очакваме системите, и особено машините за машинно обучение, да се учат и да знаят всичко веднага", каза тя.„Не очакваме нашите шофьори, когато шофират, напълно да разберат законите за движение по пътищата. В много страни те използват тези “L” табели, за да покажат: “Уча се, извинете ме за грешките, които мога да направя.” Гледайки AI, разбирам как се стига до определени решения и действайки въз основа на това, ще бъде от решаващо значение за спиране на машини, които все още се учат от лоши решения.

$config[ads_kvadrat] not found