Бързото развитие на A.I. трябва да е страшно, ако обръщате внимание

$config[ads_kvadrat] not found

Настя и сборник весёлых историй

Настя и сборник весёлых историй
Anonim

Когато става въпрос за идентифициране на екзистенциални заплахи, породени от технологични иновации, популярното въображение призовава визиите на терминатор, Матрицата, и Аз, Робот - дистопии, управлявани от роботите, които експлоатират и унищожават масово хората. В тези спекулативни фючърси, комбинация от супер-интелигентност и зли намерения води компютрите да унищожават или поробват човешката раса.

Новото проучване показва, че баналните приложения на A.I. това ще доведе до сериозни социални последици през следващите няколко години. Докладът - „Злоупотребата на изкуствен интелект“ - създаден от 26 учени и учени от елитни университети и специализирани мозъчни тръстове, очертава начините, по които сегашната A.I. технологии застрашават нашата физическа, цифрова и политическа сигурност. За да привлекат вниманието си към проучването, изследователската група само разглежда технологията, която вече съществува или вероятно ще съществува през следващите пет години.

Какво открива проучването: А.С. Системите вероятно ще разширят съществуващите заплахи, ще въведат нови и ще променят техния характер. Тезата на доклада е, че технологичният напредък ще направи някои погрешни действия по-лесни и по-полезни. Изследователите твърдят, че подобренията в A.I. ще намали количеството на ресурсите и експертните знания, необходими за извършването на някои кибератаки, като ефективно ще намали бариерите пред престъпността:

Разходите за атаки могат да бъдат намалени от мащабируемото използване на системите за изкуствен интелект за изпълнение на задачи, които обикновено изискват човешки труд, разузнаване и опит. Естествен ефект би бил да се разшири наборът от участници, които могат да извършват определени атаки, скоростта, с която те могат да извършват тези атаки, и множеството потенциални цели.

Докладът съдържа четири препоръки:

1 - Политиците трябва да си сътрудничат тясно с техническите изследователи, за да изследват, предотвратяват и намаляват потенциалните злонамерени употреби на изкуствения интелект.

2 - Изследователите и инженерите в областта на изкуствения интелект трябва сериозно да възприемат характера на двойна употреба на своята работа, като позволяват неправилно свързани съображения да влияят върху научните приоритети и норми и активно да достигат до съответните участници, когато са възможни вредни приложения.

3 - В областите на научните изследвания следва да се определят най-добрите практики с по-зрели методи за разрешаване на проблеми, свързани с двойна употреба, като например компютърна сигурност, и внесени, когато е приложимо, в случая с AI.

4 - Активно се стремят да разширяват кръга от заинтересовани страни и експерти в областта, които участват в обсъждането на тези предизвикателства

Как A.I. може да направи настоящите измами по-умни: Например атаките с фишинг на копие, в които изказващите се като приятел, член на семейството или колега на целта, за да спечелят доверие и да извличат информация и пари, вече представляват заплаха. Но днес те изискват значително изразходване на време, енергия и опит. Както A.I. Системите се увеличават по сложност, някои от дейностите, необходими за атака с фишинг на копие, като събирането на информация за дадена цел, могат да бъдат автоматизирани. Фишърът би могъл да инвестира значително по-малко енергия във всяко прихващане и да насочи повече хора.

И ако измамниците започнат да интегрират A.I. в техните онлайн игри, може да стане невъзможно да се разграничи реалността от симулацията. "Когато ИИ се развива по-нататък, убедителните чатботи могат да предизвикат доверие на хората, като ангажират хората в по-дълги диалози и може би накрая се маскират визуално като друг човек в видео чата", се казва в доклада.

Вече видяхме последиците от машинно генерираното видео под формата на Deepfakes. Тъй като тези технологии стават по-достъпни и лесни за употреба, изследователите се притесняват, че лошите актьори ще разпространяват изработени снимки, видеоклипове и аудио файлове. Това може да доведе до изключително успешни кампании за клевета с политически последици.

Отвъд клавиатурата: А потенциалните злоупотреби не са ограничени до интернет. Докато се придвижваме към въвеждането на автономни превозни средства, хакерите могат да приложат състезателни примери, за да заблудят самоуправляващите се автомобили в погрешното им възприемане. „Образът на стоп-знак с няколко пиксела, променен по специфичен начин, който хората лесно биха разпознали като изображение на стоп-знак, все пак може да бъде погрешно класифициран като нещо друго изцяло чрез система за изкуствен интелект“, се казва в доклада.

Други заплахи включват автономни безпилотни летателни апарати с интегриран софтуер за разпознаване на лица с цел насочване, координирани DOS атаки, които имитират човешкото поведение, и автоматизирани, хипер-персонализирани кампании за дезинформация.

Докладът препоръчва на изследователите да обмислят потенциални злонамерени приложения на A.I. при разработването на тези технологии. Ако не бъдат въведени адекватни мерки за отбрана, тогава вече може да имаме технологията за унищожаване на човечеството, без да се изискват никакви убийствени роботи.

$config[ads_kvadrat] not found