Дали Microsoft Tay не успя да тества теста на Тюринг? Да, но Расизмът не беше проблемът

$config[ads_kvadrat] not found

[LITTLE GARDEN SPA] Triệt lông xu hướng Thế giới

[LITTLE GARDEN SPA] Triệt lông xu hướng Thế giới
Anonim

Ако успехът на изкуствен интелект е създаването на изкуствено индивидуалност, A.I. bot, Tay, може да се счита за знак за напредък. Но по-общо казано, Тей може да бъде преценен като провал.

"Целта на повечето хора, които работят по разговорни агенти от този вид, не е толкова много да премине някакъв тест на Тюринг, а действително да има полезно знание за езика, което реагира разумно на нещата и да осигури на хората достъп до знания" Miles Brundage, доктор на науките студент, изучаващ човешки и социални измерения на науката и технологиите в държавния университет в Аризона обратен.

Microsoft илюстрира някои от проблемите при конструирането на A.I. програми тази седмица, когато за по-малко от 24 часа, интернет обърна това, което трябваше да бъде женска, хилядолетна, автоматизирана, Twitter личност в звуковата платка за най-расистката и гадна реч, която троловете трябваше да предложат.

Майкрософт незабавно затвори експеримента и се извини: „Дълбоко съжаляваме за непреднамерените обидни и болезнени туитове от Тей, които не представляват кои сме и за какво стоим, нито как сме проектирали Тей”.

Когато става въпрос за теста на Тюринг, известният експеримент, използван за оценяване на A.I., Брундаж казва, че има, общо казано, две училища на мисълта - буквални и теоретични.

Разработен през 1950 г., Алън Тюринг се опитва да отговори на въпроса: "Може ли машините да мислят?" Той поставя машини чрез имитационен тест, който изисква наблюдател да определи пола на двама интервюирани, единият от които е A.I. Ако компютърът е в състояние да подлъгва определен брой наблюдатели, тогава той е преминал теста.

hellooooooo w🌎rld !!!

- TayTweets (@TayandYou) 23 март 2016 г.

Ако трябва да приложим този тест буквално, в Обратни на В частен разговор с Тей, тя отговори красноречиво на политически въпроси, направи препратки към оковите на „mannnnn“ върху обществото и използва някои общи текстови съкращения и emojis. Брундей казва, че Тей е показал хилядолетно поведение, но тези видове А.И. са били построени преди.

„Възможността да произвеждат на пръв поглед тийнейджърски забележки в Twitter не е всъщност съхранението на широки езикови и интелектуални способности, които Тюринг е имал предвид, казва Брундаж. "Това каза, ако всъщност щяхме да вземем теста на Тюринг буквално, което според мен не е непременно препоръчително, един от вариантите е, че много от нейните коментари изглеждаха човешки."

Но ако искаме да възприемем по-широкия подход, както би предположил Брундаж, тогава е очевидно, че Тей не е показал разумна човешка реч.

Microsoft изпробва това, което тя нарича „разговорно разбиране“, така че колкото повече хора разговаря с Twitter, GroupMe и Kik, толкова повече трябваше да учи и да се адаптира. Но тя накрая просто повтори това, което много други потребители я хранеха и просто я повтаряха обратно в света.

"Тай" отиде от "хората са супер готини" до пълни наци за <24 часа и аз изобщо не съм загрижен за бъдещето на AI pic.twitter.com/xuGi1u9S1A

- Джери (@geraldmellor) 24 март 2016 г.

- Повечето хора не биха повторили след вас всичко, което казахте - казва Брундаж.

Изразяването на „Буш направи 11 септември“ и „Хитлер щеше да свърши по-добра работа от маймуната, която имаме сега“, може би е нещо, което някой всъщност е написал на Тей, но това не е точно любезен разговор.

- Може да се твърди, че целта му да формулира теста на Тюринг е по-малко да предпише детайлите на някакъв тест и повече, за да провокира хората да мислят „в коя точка бихте желали да бъдете в такава интелигентна система“ и да отворите мисленето на хората вероятността машините да могат да мислят ”, казва Брундаж.

$config[ads_kvadrat] not found