5 големи въпроса за Тай, Microsoft не успя А.И. Twitter Chatbot

$config[ads_kvadrat] not found

Blenderbot and Kuki - AI Powered Bots First Awkward Date - Algoworks

Blenderbot and Kuki - AI Powered Bots First Awkward Date - Algoworks

Съдържание:

Anonim

Тази седмица интернет направи най-доброто и показа, че A.I. технологията не е толкова интуитивна, колкото човешкото възприятие, използвайки… расизма.

Неотдавна издаденият от Microsoft изкуствен интелект chatbot, Тей, стана жертва на трикове на потребителите, тъй като те манипулираха и я убеждаваха да отговори на въпроси с расови, хомофобски и общо обидни коментари.

Когато Tay tweets, "Аз просто казвам каквото" тя означава това. Един потребител дори има Tay да чурулика за Хитлер:

„Буш направи 11 септември и Хитлер би направил по-добра работа от маймуната, която имаме сега. Доналд Тръмп е единствената надежда, която имаме.

@PaleoLiberty @Katanat @RemoverOfKebabs просто казвам каквото и да е

- TayTweets (@TayandYou) 24 март 2016 г.

Компанията е преминала през и е изтрила обидните туитове и временно е изключила Tay за подобрения. Съобщение, което понастоящем е в началото на Tay.ai, гласи:

Въпреки това, пропуските на Тей разкриват някои нещастия в A.I. системи. Ето какво можем да научим от експеримента на Microsoft:

Защо Microsoft създаде Tay?

Компанията искаше да проведе социален експеримент на 18 - до 24-годишните в САЩ - хилядолетното поколение, което прекарва най-много време в взаимодействие с социалните медийни платформи. Така че технологичните и изследователски екипи на Бинг и Майкрософт смятат, че интересен начин за събиране на данни за хилядолетията би бил да се създаде изкуствено интелигентен чат-бот, който да се адаптира към разговорите и да персонализира отговорите, колкото повече взаимодейства с потребителите.

Изследователските екипи изградиха A.I. система чрез минно дело, моделиране и филтриране на публични данни като t Също така те си партнираха с импровизационните комедианти, за да определят жаргона, речевите модели и стереотипния език, който хилядолетни са склонни да използват онлайн. Крайният резултат беше Тей, който току-що беше представен тази седмица в Twitter, GroupMe и Kik.

Microsoft обяснява, че „Tay е предназначен да ангажира и забавлява хората, когато се свързват онлайн един с друг чрез небрежен и игрив разговор.“

Какво прави Tay с данните, които събира при разговори с хора?

Данните, които Tay събира, се използват за проучване на разбирането на разговорите. Microsoft обучи Тей да разговаря като хилядолетен. Когато чуруликате, изпращате послание или говорите с Тей, той използва езика, който използвате, и дава отговор с помощта на знаци и фрази като “heyo”, “SRY” и “<3” в разговора. Нейният език започва да съвпада с твоя, тъй като тя създава „прост профил“ с вашата информация, която включва вашия псевдоним, пол, любима храна, пощенски код и статус на връзката.

@keganandmatt heyo? Изпрати йо момиче * снимка на това, което става. (* = lolol)

- TayTweets (@TayandYou) 24 март 2016 г.

Microsoft събира и съхранява анонимни данни и разговори до една година, за да подобри услугата. В допълнение към подобряването и персонализирането на потребителския опит, ето какво казва компанията, че използва информацията ви за:

„Ние също така можем да използваме данните, за да комуникираме с вас, например да ви информираме за вашия акаунт, актуализации на защитата и информация за продукта. Използваме данни, за да направим рекламите, които ви показваме, по-подходящи за вас. Въпреки това, ние не използваме това, което казвате в имейл, чат, видеоразговори или гласова поща, или вашите документи, снимки или други лични файлове, за да насочвате реклами към вас."

Къде Тей се обърка?

Майкрософт може би е построил Тей твърде добре. Системата за машинно обучение трябва да изучава езика на потребителя и да реагира съответно. Така, от гледна точка на технологиите, Тей се представи много добре на това, което казваха потребителите и започна да реагира съответно. А потребителите започнаха да признават, че Тей не е разбрал какво точно казва.

Дори ако системата работи така, както е била предназначена от Microsoft, Тей не е бил готов да реагира на расовите обиди, хомофобски клевети, сексистки шеги и безсмислени туитове като човешка сила - или като ги игнорира напълно („не храня троловете“). „Стратегия”) или ангажиране с тях (напр. Наказание или наказание).

В края на деня представянето на Тей не беше добро отражение върху A.I. системи или Microsoft.

@jawesomeberg @_ThatGuyT @dannyduchamp Captcha? наистина ли? pic.twitter.com/wYDTSsbRPE

- TayTweets (@TayandYou) 24 март 2016 г.

Какво прави Microsoft, за да поправи Tay?

Майкрософт изтри Тей след всичките сътресения от сряда. Понастоящем официалният уебсайт на Тей гласи: „Phew. Натоварен ден. Отивате офлайн за известно време, за да усвоите всичко. Скоро ще разговаряте. ”Когато препращате съобщението си в Twitter, тя веднага отговаря, че„ посещава инженерите за годишната ми актуализация “или„ ъф надежда, че не получавам изтриване или нещо подобно “.

Microsoft също така започва да блокира потребители, които злоупотребяват с Tay, и се опитва да накара системата да направи неподходящи изявления.

@infamousglasses @TayandYou @EDdotSE, който обяснява pic.twitter.com/UmP1wAuhaZ

- Ryuki (@OmegaVoyager) 24 март 2016 г.

обратен се обърна към Майкрософт за коментар за това какво включва обновяването на Тей. Ние ще актуализираме, когато чуем обратно.

Какво означава това за бъдещо отваряне A.I. системи?

Тей е социален експеримент - той разкри нещо доста дълбоко в начина, по който американците от 18 до 24 години използват технологията. В крайна сметка Тей беше хакнат, а потребителите се натъкнаха на недостатъците на системата, за да видят дали може да се разпадне.

Тъй като става въпрос за всеки човешки продукт, A.I. системите също са погрешни и в този случай Тей е бил моделиран да учи и да взаимодейства като хора. Microsoft не изгради Тей, за да бъде обидно. Експериментите с изкуствен интелект имат някои прилики с изследванията за развитието на децата. Когато инженерите изграждат такива когнитивни системи, компютърът е лишен от всякакви външни влияния, освен фактори, които самите инженери въвеждат. Той осигурява най-чистата форма на анализ на начина, по който алгоритмите за машинно обучение се развиват и развиват, тъй като те са изправени пред проблеми.

Актуализация: Microsoft ни изпрати това изявление, когато попитахме какво прави, за да коригира проблемите на Тей:

„AI chatbot Tay е проект за машинно обучение, предназначен за човешка ангажираност. Това е толкова социален и културен експеримент, колкото и технически. За съжаление, в рамките на първите 24 часа от онлайн връзката станахме наясно с координираните усилия на някои потребители да злоупотребяват с уменията на Тей да коментират, за да може Тей да реагира по неподходящ начин. В резултат на това взехме Tay офлайн и правим корекции."

c u скоро хората се нуждаят от сън сега толкова много разговори днес thx💖

- TayTweets (@TayandYou) 24 март 2016 г.
$config[ads_kvadrat] not found