ÐÑÐµÐ¼Ñ Ð¸ СÑекло Так вÑпала ÐаÑÑа HD VKlipe Net
Базираната във Великобритания компания ASI Data Science разкри алгоритъм за машинно обучение в сряда, който може да идентифицира терористични пропагандни видеоклипове с 99-процентна точност.
Това развитие бележи един от първите случаи на успешно използване на A.I. да маркираме екстремистка пропаганда. Групата на ислямската държава е известна с усилията си за набиране на социални медии и този алгоритъм може да им помогне да се ограничат.
Докато изследователите от ASI не биха обсъждали никакви технически особености на алгоритъма, то изглежда работи като други видове A.I. софтуер за разпознаване. Алгоритъмът може да изследва всяко видео и да определи вероятността видеото да е част от екстремистка пропаганда. Според Би Би Си, алгоритъмът е бил обучен за хиляди часове видеоклипове за набиране на терористи и използва характеристики от тези видеоклипове, за да присвои вероятностни резултати.
Ако даден видеоклип е отбелязан с много висока вероятност, той се маркира за преглед от човешки модератор на съдържание. Тъй като видеоклиповете не се снемат автоматично, всички фалшиви положителни данни трябва да бъдат заловени, преди видеоклипът да бъде премахнат неправилно. ASI каза, че алгоритъмът може да открие до 94% от качването на ислямска държава.
Алгоритъмът, който частично е финансиран от британското правителство, е създаден главно в полза на по-малки видео платформи, които нямат ресурсите за поддържане на голям персонал за модериране на съдържанието. Тъй като тези сайтове не могат да разгледат подробно всички качени видеоклипове, за терористичните групи е по-лесно да създават пропаганда върху тях. Както изследователят Марк Уорнър от ASI заяви пред Би Би Си, "Има над 1000 различни видеоклипа на над 400 различни платформи."
Не е ясно кога ще бъде използван новият алгоритъм на тези сайтове. Когато най-накрая стане достъпна, групи като Ислямската държава вероятно ще се опитат да променят начина, по който създават своите видеоклипове, за да избегнат откриването.
Надяваме се компютърните учени да останат една крачка напред.
Техниците на ISIS работят върху самоуправляващите се коли в терористичната лаборатория за изследователска и развойна дейност в изтеклото видео
Ислямските държавни техници хакват волани и педали, за да направят автомобилите управлявани с дистанционно управление - и действат като движещи се бомби - според охлаждащото се ново видео. Членовете на така наречения "Университет Джихади", опериращ от централата на терористичната група в Рака, Сирия, показват напредъка си във видеозапис, получен от ...
Алгоритъмът на Facebook, който вече не е под наблюдение, разпространява фалшивост
В петък Facebook обяви, че се отказва от своята куративна, твърди редакционна тенденция в полза на своите алгоритми. Сега, само няколко дни след пускането на новото ръководство за свободни ръце, Facebook се е срамувал: алгоритмите са подхванали и развили история за водещия на Fox News Мегин Кели ...
Проучване: Алгоритъмът е "предубеден срещу чернокожите" зад бедните прогнози за рецидивизма на затворниците
Алгоритмите са също толкова предубедени, колкото и хората, които ги правят. Проучване на ProPublica установи, че Northpointe, създател на алгоритъм, който се опитва да предскаже вероятността за затворник да извърши друго престъпление, прогнозира, че чернокожите са много по-склонни да извършат престъпление, след като излязат от бялото лице.