А.С. Изследователски институт показва как да създаваме отговорни алгоритми

$config[ads_kvadrat] not found

unboxing turtles slime surprise toys learn colors

unboxing turtles slime surprise toys learn colors
Anonim

Изследователският институт AI Now публикува в сряда нови препоръки за отговорното прилагане на алгоритми в публичната сфера.Техните съвети са насочени към работна група, създадена от Градския съвет на Ню Йорк през януари, която изучава използването на изкуствен интелект от правителството.

Докладът AI Now, Алгоритмични оценки на въздействието: към отчетната автоматизация в публичните агенции, очертава необходимостта от прозрачност, когато става въпрос за внедряване на алгоритми. Алгоритмите имат огромно влияние върху ежедневието ни, но тяхното въздействие понякога остава незабелязано. Тъй като те се пекат в инфраструктурата на социалните медии и видео платформи, например, лесно е да се забрави, че програмите често определят какво съдържание е насочено към интернет потребителите. Само когато нещо се обърка, като видеото на теорията на конспирацията, което достига до върха на списъка с тенденции в YouTube, ние разглеждаме процедурите за автоматизирано решение, които оформят онлайн опита.

А алгоритмите не са ограничени до интернет платформи. Правителствените институции все повече разчитат на алгоритми, в области, вариращи от образование до наказателно правосъдие. В един идеален свят, алгоритмите биха премахнали човешките пристрастия от трудни решения, като например определянето дали на затворника трябва да бъде даден условно освобождаване. На практика обаче алгоритмите са толкова ефективни, колкото и хората, които ги правят.

Например разследване от ProPublica демонстрираха, че алгоритмите за оценка на риска, използвани в съдебните зали, бяха расистки предубедени. За да се влошат нещата, много от алгоритмите, използвани в публичния сектор, са частна собственост и някои компании отказват да споделят кода, на който се основава техният софтуер. Това прави невъзможно да се разбере защо тези т. Нар. Алгоритми за "черна кутия" връщат определени резултати.

Едно потенциално решение, предлагано от AI сега? Алгоритмични оценки на въздействието. Тези оценки създават норма за пълна прозрачност, което означава, че правителствените агенции, които използват алгоритми, ще трябва да популяризират кога и как ги използват. „Това изискване само по себе си ще е много важно да се хвърли светлина върху това какви технологии се използват, за да служат на обществеността, и където трябва да се фокусират изследванията за отчетност“, се казва в доклада.

Политиката на откритост, свързана с алгоритмите, също би отворила вратата за гражданите да проверяват и да протестират срещу тяхното използване. Искате ли алгоритъм да ви даде оценка за оценка на риска въз основа на фактори извън контрола ви, особено когато този резултат може да помогне да се определи дали ще отидете в затвора? Може би да, може би не. И в двата случая е важно да се знае точно какви променливи се анализират от алгоритъма.

Освен това, AI Now препоръчва създаването на правен стандарт за хората да лобират срещу нелоялни алгоритми.

Например, ако дадена агенция не разкрие системи, които разумно попадат в обхвата на онези, които вземат автоматизирани решения, или ако позволява на продавачите да правят зад борда търговски тайни и по този начин блокира съдържателния системен достъп, обществеността трябва да има възможност да изрази загриженост за орган за надзор на агенцията или директно в съда, ако агенцията отказа да поправи тези проблеми след периода за обществено обсъждане.

Препоръките основно се свеждат до един всеобхватен мандат: Ако използвате алгоритми, не бъдете мрачни за това.

Прочетете пълния доклад тук.

$config[ads_kvadrat] not found