Социални медии Trolling: Как A.I. Става все по-добре в изпреварващ Shitposts

$config[ads_kvadrat] not found

Countryhumans shitpost #4 | Русские технологии (Russian Technologies)

Countryhumans shitpost #4 | Русские технологии (Russian Technologies)
Anonim

Интернет е преследван от тролове и доминиран от безсмислени аргументи на Facebook или по-лошо. И докато социалните медийни гиганти в мрежата най-накрая, с нетърпение, започнаха да правят по-силни усилия да се опитат да разубедят унизителния диалог, тези решения обикновено са реактивни, с други думи, след като вече е нанесена вредата.

Следователно не е изненадващо, че изследователите на изкуствен интелект са готови да разработят системи, които могат предвиждам онлайн аргумент, преди да се случи. Но както екип от изследователи от Корнелския университет наскоро обясни Inverse, тази спешно необходима иновация не е толкова далеч от това да се опитваме да кажем бъдещето.

"В миналото е имало работа по откриването дали даден коментар е токсичен", казва докторантът по компютърни науки. Джонатан Чан. „Нашата цел е малко по-различна, искаме да знаем дали е възможно да се предвиди дали понастоящем гражданският разговор ще излезе извън контрол някога в бъдеще. За да разгледаме този въпрос, разглеждаме разговорите между редактори на Уикипедия, някои от които остават граждански, а други от тях излизат от контрол.

Чанг и колегите му анализираха стотици съобщения, изпращани между понякога лесно дразнещите куратори от Уикипедия. След това те са използвали 1270 разговора, които са извършили обиден обрат, за да обучат модел за машинно обучение в опит да автоматизират този вид умереност. Техните резултати са публикувани в доклад, представен на годишната среща на Асоциацията за компютърна лингвистика на 15 юли.

И така, как бихме го направили? За щастие, не прекалено изтъркано. В крайна сметка той е 65% точен, малко по-нисък от 72% успеха на хората. Изследователите откриха тази статистика, като създадоха онлайн викторина, където хората можеха да тестват уменията си за умерен коментар. Оказва се, че е доста трудно да разберем дали потребителите на социални медии или ще избягат, или ще останат граждански.

"Идеята е да се покаже, че задачата е трудна, но не и невъзможна - ако хората получат само 50 процента точност, например, това не би било по-добро от случайно предположение и няма да има причина да мислим, че можем да обучим машина да прави по-добре - казва Чанг. "Сравняването на модела ни с човешките отговори ни даде известна представа за това колко сходен или различен е нашият изчислителен подход към човешката интуиция."

Чанг не вярва, че това ще освободи интернет от боклука, но той го вижда като начин да помогне на човешките социални медиатори. Вместо да се налага да обръщат внимание на милионите коментари, които могат да бъдат публикувани на ден, техният алгоритъм може да идентифицира стотиците от тези, които са изложени на риск да се превърнат в аргумент.

Докато човек може да си помисли, че пресичането на всички тези потенциално непредсказуеми кавги би дало на Чанг пристъп на тъга, ученът казва, че опитът му е дал надежда за човечеството.

„В наши дни има много песимизъм около онлайн разговорите, но ето това, което виждаме е, че дори в случаите, когато разговорът започва по неприятен начин, все още има шанс участниците да се замислят, да променят тонус и постави разговора на път за по-ясен изход ”, казва той. - Бъдещето не е в камък.

Може би все пак има надежда за интернет.

$config[ads_kvadrat] not found