ÐÑÐµÐ¼Ñ Ð¸ СÑекло Так вÑпала ÐаÑÑа HD VKlipe Net
Ед Фелтен, заместник-главен технологичен директор на Службата за наука и технология в Белия дом, казва, че хората имат две основни отговорности, когато става въпрос за развитието и развитието на изкуствения интелект.
Първият, казва той, е „да се възползват от A.I. Втората: „да се справим с рисковете от A.I.“
Фелтен разговаряше с много хора в Центъра за сценични изкуства в Нюйоркския университет „Скирбол“ при А.И. Сега - серия летни лекции, спонсорирана от Белия дом, която се стреми да проучи и обсъди ключови въпроси, свързани с бъдещето на A.I. технология.
А.С. е на кръстопът, A.I. Сега съпредседатели Кейт Крофърд (изследовател в Microsoft Research) и Мередит Уитакър (основател и водещ на Google Open Research), посочи той. Частният и публичният сектор трябва да работят заедно, за да създадат някакъв вид осъществим A.I. политика. Проблемът обаче е, че докато технологичните компании правят огромни крачки към напредъка на същинския код и архитектура, която се превръща в A.I. всесилна сила, настоящите ни политически структури са остарели или, още по-лошо, несъществуващи.
Твърде дълго, A.I. е отхвърлен като футуристична концепция, неприложима за модерната епоха. Но A.I. тихо се е проявила в градската политика, пресявайки много данни и предоставяйки услуги на хората по начин, който не може да постигне човешката сила. Felten посочи примери в начина, по който алгоритмите могат да използват данни за свързване на хората с жилища на достъпни цени, или да наложат прозрачност, така че обществеността да има достъп до ценна информация.
Това не означава, че A.I. перфектно е; много не, По време на основния панел за вечерта, Latanya Sweeney, A.I. изследовател в Харвардския университет, обсъди история, която наричаше „Денят, в който компютърът ми беше расист“.
Репортер, който интервюира Суини, претърси името й чрез Google и откри, че името й се появява под реклами за сайтове, предлагащи събиране и споделяне на данни за арест. Суини никога не е бил арестуван, а името й дори не е било част от базата данни на уебсайта - но името й е изпъкнало в рекламата. Както всеки добър учен, Суини взел личен опит и провел проучване и установил, че тези реклами са значително по-склонни да изброяват имената на черните индивиди, отколкото белите индивиди. Причината? Доставка на тези реклами от Google е резултат от алгоритъм, който дава по-голяма тежест на това, което хората са кликнали, когато се появяват реклами. Когато черно име е Google, повече хора са кликнали върху тези реклами. Системата научи модела и започна да доставя тези реклами по-често.
Това е ценен урок за обосноваване на обещанието за A.I.: хората в крайна сметка захранват технологията, а расистките действия от страна на хората могат да повлияят на дизайна и алгоритмите и, да, дори A.I.
Google лесно може да открие тези предубеждения в своите рекламни услуги и да работи за тяхното коригиране. - Те решиха да не го правят - спореше Суини.
Може ли по-модерна политическа рамка да накара Google да отстрани този проблем? Може би. Никол Вонг, която беше предшественик на Фелтен от 2013 до 2014 г., подчерта, че много хора - включително А.И. самите изследователи - са имали истинска загриженост относно „нарастващата асиметрия на властта“ между хората, които използват големи данни, и хората, които в крайна сметка са засегнати, които варират от субектите на данните, или тези, засегнати от решенията, информирани от тези данни,
Тези опасения не са ограничени само до частния сектор. Рой Остин, заместник-помощник на президента в Съвета за вътрешна политика на Белия дом, се докосна до въпроса как прилагането на закона може да бъде значително подобрено от A.I. - или да се създаде мащабен срив в властта и злоупотреби, когато става въпрос за личния живот на цивилните. "Въпросът е:" Какво правим с тези данни? ", Каза той. Едно е да имате данни, но кой има достъп до тях? За колко дълго? Кой ще има достъп до него? Отново, нямаме политически отговори или решения на тези въпроси и несигурност - и това е тревожно, тъй като ние се борим към бъдеще, което все повече се контролира от A.I.
Третият стълб на загриженост имаше по-малко общо с престъпните употреби на A.I., а повече с това как A.I. и автономните системи изместват хората от работни места. Хенри Сиу, А.И. изследовател в Университета на Британска Колумбия, обсъжда „рутинни“ професии (където служителите изпълняват много специфичен набор от задачи, които почти никога не се отклоняват от една рутинна процедура), и как тези загуби на работни места са най-уязвимите за смущения в технологиите. Автоматизацията създаде огромен спад в тези работни места - и те не се връщат.
Звучи като същата стара история на индустриализацията, но не съвсем. Докато „тази революция може би вече е тук… тя може да е по-малко екзотична, отколкото си представихме“, предупреди Дейвид Еделман, специален помощник на президента по икономическата и технологичната политика. И той, и Сиу подчертаха, че решението е да се създаде образователен климат, в който хората да не спират да ходят на училище, непрекъснато придобиват нови умения и специализации, които им позволяват да се адаптират. с технология.
Може да е утешително за политиците да разберат, че Съединените щати не са сами в справянето с тези въпроси. Но ако Америка възнамерява да продължи да води пътя за A.I., тя трябва да я ускори в политическата арена.
Мустафа Сулейман, съучредител на Google DeepMind, обсъди потенциала за A.I. да подпомогне здравните системи и да позволи на лекарите по машинни алгоритми да диагностицират определени заболявания и заболявания - освобождавайки времето на хората да измислят методи за лечение. За Сулейман, който е британец, това не изглеждаше като измислена идея да се създаде такава система в болниците. Суини обаче подчерта, че „в САЩ нямате контрол над собствените си данни” - няма регулаторни мерки, които да гарантират, че информацията не се злоупотребява. И това е a огромен проблем.
- Искам всичко, което мога да изтръгна от всеки успех на технологията - каза Суини. „Проблемът не е технологичната страна; проблемът е, че не сме в крак с обществената политика."
5 Научни благодарности, които говорят за помощ, за да не говорят за политиката
Тези научни факти също служат като точки за обсъждане, за да насочите разговора всеки път, когато член на семейството повдигне нещо, за което не искате да говорите, като техните луди политически убеждения. Вместо това говорете за уботски акаци, гигантски птици, бебешки смях, гигантски вируси и извънземни на Марс.
Изображението на звездата "Рояци" в Ню Хъбъл може да задържи улики за миналото на нашата галактика
Изследвания на изображения от космическия телескоп Хъбъл разкриват някои улики за археологията на галактиката Млечен път.
Реакцията на новия самолет на Facebook беше останала от хакатон
Вторник сутринта потребителите в социалните медии започнаха да съобщават, че могат да реагират с нови емотикони на самолета, в допълнение към техните стандартни реакции. Първоначално откровението не бе придружено от съобщение от гиганта на социалните медии, което остави потребителите да летят в тъмното със самолета.