Проучване: Алгоритъмът е "предубеден срещу чернокожите" зад бедните прогнози за рецидивизма на затворниците

$config[ads_kvadrat] not found

Trash Clip (Music Video Mashup)

Trash Clip (Music Video Mashup)
Anonim

Алгоритмите са също толкова предубедени, колкото и хората, които ги правят. Разследване от ProPublica установиха, че Northpointe, създатели на алгоритъм, който се опитва да предскаже вероятността за извършване на друго престъпление на затворник, прогнозира, че чернокожите са много по-склонни да извършат престъпление, след като излязат от бялите хора.

Алгоритъмът създава оценка за оценка на риска за лишените от свобода. Той се използва в цялата страна за насочване на датите за освобождаване на затворите. След анализ на данни за повече от 7000 души в окръг Брауърд, Флорида, реалността на расистките алгоритми е ясна: черните обвиняеми са били почти два пъти по-вероятни от белите обвиняеми да получат прогноза за извършване на друго престъпление.

Анализът се контролира за променливи като пол и криминален произход. Въпреки това, за чернокожите се очакваше 77 процента по-вероятно да извършат насилствено престъпление в бъдеще, а 45 процента - да извършат някакво бъдещо престъпление. Също така тревожно е, че само 20% от прогнозите на Northpointe за това кой ще извърши бъдещи насилствени престъпления са точни.

Northpointe използва 137 въпроса, за да прецени потенциала на хората, извършващи престъпление. Както докладва ProPublica, въпросите избягват да питат за раса. Някои от въпросите обаче могат да бъдат свързани.

Примерите за въпроси включват: „Някой от родителите ви някога ли е бил изпращан в затвора или в затвора?“ И „Колко често сте влизали в битки, докато сте били в училище?“ Има и въпроси от типа „да / не“, като „гладен човек има право Други фактори включват нивата на образование и дали дадено лице има работа или не.

ProPublica описва точните методи за това как те са осъществили достъп и са анализирали данните на Northpointe в обяснителна публикация, а Northpointe изпрати писмо до ProPublica, в което се посочва, че компанията „не е съгласна, че резултатите от техния анализ или твърденията се основават на това са правилни или че точно отразяват резултатите от прилагането на модела. ”

Резултатите на ProPublica, ако не и невероятно изненадващи, засягат. Оценките на риска се използват за определяне на условно освобождаване и определяне на сумите на облигациите; те дори са фактор за наказателни присъди в девет държави.

Технологията не е крайното решение на всеки проблем, особено като се има предвид, че технологията е толкова погрешна, колкото и хората, които го правят.

$config[ads_kvadrat] not found