Relax video | with gorgeous Arina and Nissan Skyline ECR33.
Има въпрос за морална роботика и сценарий, на който трябва да се отговори, за да може изкуственият интелект да напредне.
Представете си, че има робот, който управлява шахта и осъзнава, че има каруца, пълна с четирима миньори, които прекосяват следите от контрол. Роботът може да избере да премести песните и да убие един непознат миньор, като по този начин спаси четирите в количката, или да запази следите така, както са, и да позволи на четиримата миньори да се впуснат в стената и да умрат. Кой бихте избрали? Ще се промени ли отговорът ви, ако един миньор беше дете? Ако не можем да отговорим на това, как ще програмираме роботите да вземат това решение?
Това бяха въпросите, зададени на участниците в дискусията и публиката по време на Световния фестивал на науката в Ню Йорк, озаглавен „Морална математика на роботи: Може ли да се кодират решенията за живота и смъртта?” Повечето избраха да насочат количката към един миньор и да сменят лицето за едно дете не променя много умове на респондентите, но това не е единодушно и човешките морални решения често не са.
Това беше остър пример за борбите, с които ще се сблъска човечеството, когато изкуственият интелект продължава да напредва и ние се справяме с възможността да програмираме роботи с морал.
„Концепцията, подобна на вредата, е трудно да се програмира“, каза Гари Маркъс, професор по психология и невронни науки в Нюйоркския университет и главен изпълнителен директор и съосновател на Geometric Intelligence, Inc. Отговор на програмата и в момента нямаме добър набор от морали за роботи извън законите на Азимов, които бяха включени във филми като IROBOT.
Той каза, че това е смисълът да се присъедини към групата, за да започне разговор за това как трябва да се справим с морала на роботите.
Елон Муск тази седмица обсъждаше притесненията си за изкуствен интелект, стигаше да каже, че всички живеем в някаква симулация като Матрицата и че хората трябва да инвестират в невронни дантели, които ще се прикрепят към мозъка и ще повишат човешките познавателни способности. Други футуристи, като Стивън Хокинг, предупредиха за опасностите от A.I. и тази седмица Мат Деймън предупреди същото по време на изказването си в МТИ.
Други сценарии включват милитаризирани автономни оръжейни системи и как ние ще се справим морално и философски с тези човешки решения на бойното поле, както и с решенията, които автономните автомобили може да имат да направят в не толкова далечното бъдеще.
Панелистите не достигнаха до единодушие по въпроса какво да правят, но заявиха, че има огромни ползи за A.I. които не трябва да се изхвърлят през прозореца, само защото тези въпроси са трудни. Те предложиха да се говори повече за тези въпроси за моралните шахти и може би ще се доближим до предотвратяването на робота-апокалипсис.
Гледайте този Wiggly робот червей плуват без усилие чрез симулирана телесна течност
Мисълта за тълпата от червеи, която се извива през тялото ви като органична пързалка, може да изпрати тръпки по гръбнака ви, но някакъв странен робот може да спаси живота ви: Учените работят трудно, за да разберат как да приложат роботиката към полета като поглъщащата медицина , И те се приближават до пробив ...
„Игри на престоли“ Сезон 6 Привеждане в съответствие с морала
С Сезон 6 три месеца и HBO вече освобождава тийзъри, време е да погледнем някои от нашите морално-двусмислени фаворити и да спекулираме къде може да ги отведе новият сезон. След като Белите Уикерс най-накрая направиха забележими вълни на север, религиозно въстание в Кралското пристанище, и заливът на Славера като невидим ...
"Колонията" на САЩ трябва да отговори на този чужд въпрос веднага
По ирония на съдбата, може би най-интересното развитие на колонията в снощната екшън колония бе моментът, в който синът на Уил и Кейти (Алекс Нейстадетер) най-накрая се превърна в герой в собственото си право - макар и само за момент. След като предаде касета с последното радиопредаване от или от името на лидера на съпротивата ...