А.И .: Изследователи показват как машините могат да фалшифицират пътя чрез разговорите

$config[ads_kvadrat] not found

Ð-оггано ft_ Ð"уф & Ð-К-47 - Тем

Ð-оггано ft_ Ð"уф & Ð-К-47 - Тем
Anonim

Ако не друго, можете много да направите това за изкуствен интелект: рядко се страхуват да изглеждат глупави. Ако ученето A.I. срещне нещо извън неговите предварително програмирани знания, то обикновено няма да бъде срамежливо да пита човека, с когото говори, да изясни.

Това обаче може да доведе до доста монотонен разговор за човека, участващ в разговора с чатбота, гласовия асистент или общо познатия робот: „Какво е ябълка?“ „Какво е тирамису?“ „Какво е изсушено месо?“ „Какво знаеш? буквално нещо за храната, която си глупава рецепта?

Вие разбирате идеята и тъй като изследователи от университета в Осака в Япония посочват в скорошна светлина върху своята работа, последният ред е показателен за реалния проблем, пред който е изправен ИИ: задаването на въпроси може да е най-добрият начин за тях да се научат, но това не е така. Много се броят, ако поредицата от въпроси е толкова дразнеща или досадна, че човек избягва. Това не е достатъчно за A.I. да знам какво не знае. Също така трябва да знае как да държи хората достатъчно ангажирани, за да запълнят пропуските в неговото знание.

Техният новосъздаден метод използва това, което е известно като лексикално придобиване чрез имплицитно потвърждение, което в основата си е фантастичен начин да се каже, че сега изкуственият интелект може да подправя пътя си чрез разговори точно както хората могат. Той издърпва този трик не като иска от хората да потвърдят какво нещо е, а по-скоро да каже нещо друго, което индиректно дава на партньора в разговора да потвърди или отрече инстинктът на А.И.

Нека да разгледаме един пример.

A.I. знае достатъчно, за да предположи за произхода на фразата „nasi goreng“, ако съдим, че звучи индонезийски. Фактът, че човекът каза, че ще се опита готвач това ястие подсказва, че това е храна от някакъв вид, и така A.I. генерира това твърдение, а не въпрос, въпреки че в него се крие един - за качеството на индонезийските ресторанти в района.

A.I. вероятно биха могли да използват основни данни за последните откривания на ресторанти и техните онлайн прегледи, за да разберат дали това твърдение има смисъл фактически, може би иначе казва нещо като „Наистина тук трябва да има повече добри индонезийски ресторанти“, ако не е намерено много възможности.

Но това е само за да намали объркването, тъй като дори човешкото несъгласие с изявлението все още ще отговори на основния въпрос за това дали nasi goreng е индонезийски. Само ако лицето пита какво е A.I. говори за това, че е ясно, че машината е допуснала грешка.

Така че, ако си мислите, че самоличността ви по време на разговори на партита е нещо, което само хората биха могли да направят… съжалявам, автоматизацията наистина идва за всички нас.

$config[ads_kvadrat] not found