Нашите асистенти по робот се учат да лъжат и ние трябва да ги оставим

$config[ads_kvadrat] not found

Время и Стекло Так выпала Карта HD VKlipe Net

Время и Стекло Так выпала Карта HD VKlipe Net
Anonim

Роботите се оказват доста големи човешки спътници. Кой не би искал един очарователен малък пипер да ни каже шеги, да ни даде комплименти и да ни накара да се чувстваме по-малко самотни в света? Дори безформените роботи се оказват изненадващо добра компания. Вземете например Alexa на Amazon Echo. Тя е роботизиран мозък с човешки глас, вкаран в тялото на аудио говорителя, но тя е полезна и ако прочетете нейните отзиви, ясно е, че тя е станала като семейство на много потребители. Ще мислят ли хората по различен начин, ако излъга? Какво ще кажете, ако ви каза нещо, което наистина, наистина не искате да чуете?

Помислете за това: казваме на децата никога да не казват лъжа и че честността е най-добрата политика, и въпреки това ние пропускаме, изкривяваме истината и открито лъжем децата. през цялото време, Това ги учи, чрез нашите действия, ако не чрез нашите думи, че не става въпрос за пълна честност, а за изучаване на сложните социални правила за това кога и как да се разкрие или скрие потенциално чувствителна информация. Програмиращите роботи, които спазват тези социални правила, могат да бъдат трудна, но необходима част от текущия процес на иновации на автомата.

Ето един пример: Бях в къщата на моя зет през другия уикенд и отидох в магазина, за да взема няколко неща за обяд. Шестгодишната ми племенница ми помагаше да извадя храната, докато всички останали бяха извън кухнята и тя ме попита колко струваше хранителните стоки. Казах й, защото обучението на децата за стойността на парите е нещо добро.

На масата за обяд тя ме помоли да кажа на всички колко струват хранителните стоки. Аз казах не.- Защо? - попита тя, искрено объркана, че въпросът, на който бях отговорил свободно няколко минути по-рано, сега е тайна информация. - Не е любезно - казах аз, обяснявайки, че тъй като тя е дете, правилата са различни, когато сме сами. Научих я, че честността и откровеността имат време и място. В човешки контекст информацията не винаги иска да бъде свободна.

Същото е и с роботите. Смятаме, че не искаме нашите роботи да ни лъжат, но всъщност искаме те да научат сложните социални правила на учтивост и дискретност, които понякога изискват изкривявания на истината. И те вече се учат как да го правят. Вземете този кратък клип на Pepper, който взаимодейства с репортер, например:

Първото нещо от устата на Пепър е комплимент: „Така че, вие сте много шик. Модел ли си?"

Репортерът е достатъчно красив, но въпросът на Пепър не е напълно честен. Разбираме, че Pepper всъщност не се чуди дали е модел, а е програмиран да казва хубави неща, независимо от това как изглежда човек.

Скоро след това Пепър пита за заем, от синьо. Това е неуместен въпрос, недискретност, която лесно прощаваме на робот, както бихме искали да сме дете. Репортерът би могъл да посочи, че въпросът е груб, че роботите нямат нужда от пари, или са признали, че не е имал интерес да предаде 100 долара на Пепър. Цялата истина е, че репортерът бих могъл дават на робота парите, но разбира, че самият въпрос е малко игра. Това, което той избира да каже, е отклонение и или бяла лъжа, или полуистина - той няма пари за него. Надеждата е, че роботът разбира това като нежно „не“ и не предлага репортерът да отиде на банкомат и да направи оттегляне. Тъй като Пипер очевидно има някаква социална благодат, линията на разпит завършва там.

Социалните роботи са програмирани да изучават социални сигнали и това е нещо добро - в крайна сметка ще ги направят по-добри в работата ни. Задачата на програмистите не е да премахнат измамата на всички роботи, а да добавят функции, които улесняват роботите да вземат решения за подходящи отговори.

Когато роботите са наши довереници, те трябва да познават контекста и публиката. Ако се опитвам да прибера вкъщи, например, ще искам честна оценка на това колко ласкави са различните опции. Ако изляза на парти и изведнъж осъзнах, че съм избрал грешната рокля, увереността, че изглежда добре, ще бъде най-полезният отговор.

Роботите ще научат много лична информация за своите спътници и за тях ще бъде важно да разберат разликата между поверителна информация и обществена информация, както и да знаят кой слуша, когато говори. Въпросите ще имат различни отговори в зависимост от това кой пита. Роботите ще се държат по различен начин, когато гостите са в дома.

Роботите, като децата, се нуждаят от отговорно родителство. Това означава, че както роботните програмисти, така и собствениците на роботи трябва да помислят дълбоко за етичните и социалните последици на нашия A.I. взаимодействия. Но това не означава изискване за съвършена честност - сериозно, никой не го иска.

$config[ads_kvadrat] not found