Беспилотне летелице и Беспилотне возила као оружје: зашто морамо да се плашимо хакера
Од технологије / / December 19, 2019
Нико не би порећи да вештачка интелигенција може ставити своје животе нови ниво. АИ је у стању да реши многе проблеме који су изван моћи човека.
Међутим, многи верују да суперинтеллигенце ће желети да нас униште, као Скинет, или почињу да спроведе експерименте на људима као ГЛаДОС из игре Портал. Иронија је у томе да се направи вештачка интелигенција може само људи добро или зло.
Истраживачи из Иале, Оксфорд, Кембриџ и компаније објављеном ОпенАИ извештај о злоупотреби вештачке интелигенције. Каже да је реална опасност долази од хакера. Уз помоћ злонамерног кода, могу довести до прекида рада аутоматских система под контролом АИ.
Стручњаци наводе да је технологија створила са добрим намерама, ће се користити за штете. На пример, надзор може да се примени не само да ухвате терористе, али и да шпијунира обичним грађанима. Истраживачи су такође забрињавајуће комерцијалне роботе, који доносе храну. Они су лако да пресретну и ставити нешто експлозив.
Други сценарио је деструктивна употреба АИ -
Беспилотне возила. Довољно је да се промени неколико линија кода, и машина ће почети да игноришу правила безбедности.Научници верују да је претња може бити дигитална, физички и политички.
- Вештачка интелигенција се већ користи за проучавање рањивости различитих програмских кодова. У будућности, хакери могли створити такав бот, који ће заобићи било какву заштиту.
- Са АИ особа може да аутоматизују многе процесе: на пример, да контролише рој трутова, или групу возила.
- Технологијама, као што су ДеепФаке, могу да утичу на политички живот државе, ширење лажних информација о лидерима света путем Интернета робота.
Ови застрашујући примери постоје само као хипотеза. Аутори ове студије не пружају потпуну одбацивање технологије. Уместо тога, они верују да владе и велике компаније треба да води рачуна о безбедности, док су индустрија вештачка интелигенција детињство.
Политичари треба да науче технологију и рад заједно са стручњацима у овој области, да ефикасно регулише успостављање и коришћење вештачке интелигенције.
Програмери, заузврат, треба да процени опасност од високе технологије, да предвиди и спречи најгоре последице тих светских лидера. У извештају позива на АИ програмере: тим са сигурносних стручњака у другим областима и да сазнате да ли можете користити принципе које би се осигурала безбедност тих технологија за заштиту вештачког интелигенција.
Комплетан извештај описује проблем у детаљније, али је чињеница да је АИ - моћан инструмент. Сви актери морају да уче нову технологију и уверите се да се не користи у криминалне сврхе.