Солдатик молодой ИÑполнÑет Иван Разумов
Роботите, също като хората, трябва да научат кога да кажат „не“. Ако искането е невъзможно, ще причини вреда или ще ги отвлече от задачата, тогава това е в най-добрия интерес на „бота и неговата човешка природа“ за дипломатически не благодаря да бъде част от разговора.
Но кога машината трябва да говори? И при какви условия? Инженерите се опитват да разберат как да насаждат това чувство за това как и кога да се противопоставят на поръчки в хуманоидите.
Гледайте как този робо робот отказва да върви напред, знаейки, че това ще го накара да падне от ръба на масата:
Прости неща, но със сигурност е от съществено значение за проверка на човешката грешка. Изследователи Гордън Бригс и Матиас Шец от Университета Туфтс разработиха сложен алгоритъм, който позволява на робота да прецени какво го е направил човек, да реши дали да го направи и да реагира по подходящ начин. Изследването беше представено на неотдавнашна среща на Асоциацията за развитие на изкуствения интелект.
Роботът си задава серия от въпроси, свързани със задачата, която може да се изпълни. Знам ли как да го направя? Аз ли съм физически в състояние да го направя сега? Обикновено ли съм физически способен да го направя? Мога ли да го направя сега? Задължен ли съм въз основа на моята социална роля да го направя? Нарушава ли се някакъв нормативен принцип за това?
Резултатът е робот, който изглежда не само разумен, но и един ден, дори мъдър.
Забележете как Нао променя мнението си за ходене напред, след като човешкото обещание да го хване. Би било лесно да си представим друг сценарий, където роботът казва: "Няма начин, защо да ти вярвам?"
Но Нао е социално създание, по дизайн. За да угоди на хората е в неговата ДНК, така че като се има предвид информацията, че човекът възнамерява да го хване, той стъпва сляпо напред в бездната. Разбира се, ако човек искаше да заблуди доверието си, той щеше да бъде издигнат, но все пак вярва. Това е начинът на Нао.
Тъй като роботите-спътници стават по-сложни, инженерите-роботи ще трябва да се справят с тези въпроси. Роботите ще трябва да вземат решения не само за запазване на собствената си безопасност, но и за по-големи етични въпроси. Ами ако човек поиска робот да убие? Да извършиш измама? Да унищожи друг робот?
Идеята за машинната етика не може да бъде отделена от изкуствения интелект - дори и нашите автомобили без водачи на бъдещето ще трябва да бъдат проектирани да правят избори за живота или смъртта от наше име. Този разговор непременно ще бъде по-сложен, отколкото просто да изпълняваш заповеди за маршируване.
Гледайте как този балон-подобен мек робот помага за възстановяване на функцията на ръката на хората
Удари или увреждания на гръбначния стълб могат да повредят каналите за комуникация между нервната система и мускулите. Това често оставя жертвите неспособни да използват ръцете или краката си. Екип от робототехник от Харвард е разработил надуваема, роботизирана ръкавица, за да даде на пациентите на тази природа контрол над ръцете си.
А.С. Научил се как да се конкурира с професионалистите в е-спорта в сложни игри
Изкуственият интелект се е потапял на хора с перфектни информационни игри като Chess and Go от години. Всъщност епохата на усъвършенстване на уменията за решаване на проблеми с помощта на тези игри може най-накрая да е приключила и са необходими много по-сложни игри, за да продължат да бутат границите на A.I. 2018 г. видях главната str ...
Как ще изглежда базата на Луната, фокусирана върху Марс, на Елон Муск: "Бъдещи нужди за вдъхновение"
CEO и основател на SpaceX Елон Муск планира да изпрати хората на Марс като част от дългосрочна стратегия, която включва и разработването на лунна база за хората.