Предотвратяване на Робот Апокалипсис чрез съзерцаване на този A.I. Въпрос за морала

$config[ads_kvadrat] not found

Relax video | with gorgeous Arina and Nissan Skyline ECR33.

Relax video | with gorgeous Arina and Nissan Skyline ECR33.
Anonim

Има въпрос за морална роботика и сценарий, на който трябва да се отговори, за да може изкуственият интелект да напредне.

Представете си, че има робот, който управлява шахта и осъзнава, че има каруца, пълна с четирима миньори, които прекосяват следите от контрол. Роботът може да избере да премести песните и да убие един непознат миньор, като по този начин спаси четирите в количката, или да запази следите така, както са, и да позволи на четиримата миньори да се впуснат в стената и да умрат. Кой бихте избрали? Ще се промени ли отговорът ви, ако един миньор беше дете? Ако не можем да отговорим на това, как ще програмираме роботите да вземат това решение?

Това бяха въпросите, зададени на участниците в дискусията и публиката по време на Световния фестивал на науката в Ню Йорк, озаглавен „Морална математика на роботи: Може ли да се кодират решенията за живота и смъртта?” Повечето избраха да насочат количката към един миньор и да сменят лицето за едно дете не променя много умове на респондентите, но това не е единодушно и човешките морални решения често не са.

Това беше остър пример за борбите, с които ще се сблъска човечеството, когато изкуственият интелект продължава да напредва и ние се справяме с възможността да програмираме роботи с морал.

„Концепцията, подобна на вредата, е трудно да се програмира“, каза Гари Маркъс, професор по психология и невронни науки в Нюйоркския университет и главен изпълнителен директор и съосновател на Geometric Intelligence, Inc. Отговор на програмата и в момента нямаме добър набор от морали за роботи извън законите на Азимов, които бяха включени във филми като IROBOT.

Той каза, че това е смисълът да се присъедини към групата, за да започне разговор за това как трябва да се справим с морала на роботите.

Елон Муск тази седмица обсъждаше притесненията си за изкуствен интелект, стигаше да каже, че всички живеем в някаква симулация като Матрицата и че хората трябва да инвестират в невронни дантели, които ще се прикрепят към мозъка и ще повишат човешките познавателни способности. Други футуристи, като Стивън Хокинг, предупредиха за опасностите от A.I. и тази седмица Мат Деймън предупреди същото по време на изказването си в МТИ.

Други сценарии включват милитаризирани автономни оръжейни системи и как ние ще се справим морално и философски с тези човешки решения на бойното поле, както и с решенията, които автономните автомобили може да имат да направят в не толкова далечното бъдеще.

Панелистите не достигнаха до единодушие по въпроса какво да правят, но заявиха, че има огромни ползи за A.I. които не трябва да се изхвърлят през прозореца, само защото тези въпроси са трудни. Те предложиха да се говори повече за тези въпроси за моралните шахти и може би ще се доближим до предотвратяването на робота-апокалипсис.

$config[ads_kvadrat] not found