Този робот е научил как да каже „не“ на човешките нужди

$config[ads_kvadrat] not found

Солдатик молодой Исполняет Иван Разумов

Солдатик молодой Исполняет Иван Разумов
Anonim

Роботите, също като хората, трябва да научат кога да кажат „не“. Ако искането е невъзможно, ще причини вреда или ще ги отвлече от задачата, тогава това е в най-добрия интерес на „бота и неговата човешка природа“ за дипломатически не благодаря да бъде част от разговора.

Но кога машината трябва да говори? И при какви условия? Инженерите се опитват да разберат как да насаждат това чувство за това как и кога да се противопоставят на поръчки в хуманоидите.

Гледайте как този робо робот отказва да върви напред, знаейки, че това ще го накара да падне от ръба на масата:

Прости неща, но със сигурност е от съществено значение за проверка на човешката грешка. Изследователи Гордън Бригс и Матиас Шец от Университета Туфтс разработиха сложен алгоритъм, който позволява на робота да прецени какво го е направил човек, да реши дали да го направи и да реагира по подходящ начин. Изследването беше представено на неотдавнашна среща на Асоциацията за развитие на изкуствения интелект.

Роботът си задава серия от въпроси, свързани със задачата, която може да се изпълни. Знам ли как да го направя? Аз ли съм физически в състояние да го направя сега? Обикновено ли съм физически способен да го направя? Мога ли да го направя сега? Задължен ли съм въз основа на моята социална роля да го направя? Нарушава ли се някакъв нормативен принцип за това?

Резултатът е робот, който изглежда не само разумен, но и един ден, дори мъдър.

Забележете как Нао променя мнението си за ходене напред, след като човешкото обещание да го хване. Би било лесно да си представим друг сценарий, където роботът казва: "Няма начин, защо да ти вярвам?"

Но Нао е социално създание, по дизайн. За да угоди на хората е в неговата ДНК, така че като се има предвид информацията, че човекът възнамерява да го хване, той стъпва сляпо напред в бездната. Разбира се, ако човек искаше да заблуди доверието си, той щеше да бъде издигнат, но все пак вярва. Това е начинът на Нао.

Тъй като роботите-спътници стават по-сложни, инженерите-роботи ще трябва да се справят с тези въпроси. Роботите ще трябва да вземат решения не само за запазване на собствената си безопасност, но и за по-големи етични въпроси. Ами ако човек поиска робот да убие? Да извършиш измама? Да унищожи друг робот?

Идеята за машинната етика не може да бъде отделена от изкуствения интелект - дори и нашите автомобили без водачи на бъдещето ще трябва да бъдат проектирани да правят избори за живота или смъртта от наше име. Този разговор непременно ще бъде по-сложен, отколкото просто да изпълняваш заповеди за маршируване.

$config[ads_kvadrat] not found