Дух машинског убице се наставља. У шта верује председник Путин?
Технологија

Дух машинског убице се наставља. У шта верује председник Путин?

Заговорници војних робота (1) тврде да аутоматизовано оружје пружа више могућности за заштиту људског живота. Машине су у стању да се приближе непријатељу од војника и правилно процене претњу. А емоције понекад паралишу способност доношења исправних одлука.

Многи заговорници употребе робота убица чврсто верују да ће они учинити ратове мање крвавим јер ће мање војника погинути. Напомињу да су роботи, иако не осећају сажаљење, имуни на негативне људске емоције попут панике, беса и освете, које често доводе до ратних злочина.

Активисти за људска права такође користе аргумент да је војска довела до огромног смањења цивилних жртава у последњих пола века, а роботизација војске омогућава механизам за строжију примену закона рата. Тврде да ће машине постати етичке када буду опремљене софтвером који ће их приморати да поштују законе рата.

Наравно, огроман број људи, укључујући и оне веома познате, годинама не дели ово мишљење. У априлу 2013. покренута је међународна кампања под слоганом (2). У његовом оквиру невладине организације захтевају потпуну забрану употребе аутономног оружја. Експерти из многих земаља први пут су сели да разговарају о овој теми на Конференцији УН о разоружању у Женеви у мају 2014. године. У извештају који су неколико месеци касније објавили Хјуман рајтс воч и научници са Универзитета Харвард, каже се да би аутономни били превише опасни – сами су бирали своје мете и убијали људе. Истовремено, није баш јасно ко треба да одговара.

2. Демонстрација у оквиру акције „Стоп роботима убицама“

Шта може рој малих дронова

Спорови око робота убица (РОУ) трају годинама и не јењавају. Последњи месеци донели су нове покушаје заустављања војних робота и талас извештаја о новим пројектима овог типа, од којих се неки чак тестирају у реалним борбеним условима.

У новембру 2017. видео који приказује смртоносни ројеви мини-дронова ., у застрашујућој акцији. Гледаоци су видели да нам више нису потребне тешке ратне машине, тенкови или пројектили које су предатори бацали да убијамо масовно и из митраљеза. Главни директор Стјуарт Расел, професор вештачке интелигенције на Берклију, каже:

-

Прошлог пролећа педесет професора Водећи светски универзитети потписали су апел Корејском институту за напредну науку и технологију (КАИСТ) и његовом партнеру Ханвха Системс. најавили су да неће сарађивати са универзитетом и угостити госте КАИСТ-а. Разлог је била изградња „аутономног наоружања” коју су спровеле обе институције. КАИСТ је демантовао извештаје медија.

Убрзо након тога у САД више од 3 запослена у Гоогле-у протестовао због рада чете за војску. Били су забринути да је Гугл био у партнерству са владиним пројектом кодног имена Мавен који има за циљ да користи вештачку интелигенцију за препознавање објеката и лица у видео снимцима војних дронова. Менаџмент компаније каже да је циљ Мејвена да спасе животе и спасе људе од заморног посла, а не од агресије. Демонстранти нису били убеђени.

Следећи део битке је била декларација стручњаци за вештачку интелигенцију, укљ. радећи на Гоогле пројекту и Елон Муск. Обећавају да неће развијати роботе. Они такође позивају владе да појачају напоре да регулишу и ограниче ово оружје.

У саопштењу се, делимично, каже да „одлуку о одузимању људског живота никада не би требало да донесе машина“. Иако су армије света опремљене многим аутоматским уређајима, понекад са високим степеном аутономије, многи стручњаци страхују да би у будућности ова технологија могла постати потпуно аутономна, омогућавајући убијање без икаквог учешћа људског оператера и команданта.

Стручњаци упозоравају и да би аутономне машине за убијање могле бити још опасније од "нуклеарног, хемијског и биолошког оружја" јер лако могу да измакну контроли. Укупно је у јулу прошле године писмо под окриљем Института за будућност живота (ФГИ) потписало 170 организација и 2464 појединца. У првим месецима 2019, група медицинских научника повезаних са ФЛИ поново је позвала на ново писмо којим се забрањује развој оружја контролисаног вештачком интелигенцијом (АИ).

Прошлогодишњи августовски састанак УН у Гњеву о могућем законском регулисању војних „робота убица” завршио је успехом ... машина. Група земаља, укључујући САД, Русију и Израел, блокирала је даљи рад на увођењу међународне забране овог оружја (нацрт Конвенције о забрани или ограничењу употребе одређеног конвенционалног оружја, ЦЦВ). Није случајно што су ове земље познате по свом раду на напредним системима аутономног и роботског наоружања.

Русија се фокусира на борбене роботе

Председник Владимир Путин се често цитира како о војним системима вештачке интелигенције и борбеним роботима каже:

-.

отворено говори о развоју аутономног наоружања. Начелник Генералштаба њених оружаних снага, генерал Валериј Герасимов, недавно је рекао војној новинској агенцији Интерфакс-АВН да ће употреба робота бити једна од главних карактеристика будућих ратова. Он је додао да се Русија труди потпуно аутоматизовати бојно поље. Сличне коментаре дали су и потпредседник владе Дмитриј Рогозин и министар одбране Сергеј Шојгу. Председник Комитета Савета Федерације за одбрану и безбедност Виктор Бондарев рекао је да Русија тежи развоју Роју технологијеово би омогућило мрежама дронова да функционишу као један ентитет.

Ово није изненађујуће ако се сетимо да су први телетенкови развијени у Совјетском Савезу 30-их година. Коришћени су на почетку Другог светског рата. Данас и Русија ствара танк роботи постају све аутономнији.

Путинова држава је недавно послала своје у Сирију Беспилотно борбено возило Уран-9 (3). уређај је изгубио контакт са земаљским контролним тачкама, имао је проблема са системом ослањања, а његово оружје није функционисало савршено и није погодило покретне мете. Не звучи баш озбиљно, али многи сматрају да је сиријски випе добар борбени тест који ће Русима омогућити да унапреде машину.

Роскосмос је одобрио прелиминарни план за слање два робота на Међународну свемирску станицу до августа ове године. Федор (4) у Унији без посаде. Не као терет, али. Као у филму РобоЦоп, Федор рукује оружјем и показује смртоносно гађање током вежби гађања.

Питање је зашто би робот у свемиру био наоружан? Постоје сумње да ствар није само у земаљским апликацијама. У међувремену на Земљи, руски произвођач оружја Калашњиков показао је визуализацију сужња Игорекашто, иако је изазвало много смеха, сигнализира да компанија озбиљно ради на аутономним борбеним возилима. У јулу 2018, Калашњиков је објавио да прави оружје које користи за доношење одлука „пуцати или не пуцати“.

Овој информацији треба додати извештаје да је руски оружар Дигтјарев развио мали аутономни тенк Нерекхт који се може нечујно кретати према својој мети самостално, а затим експлодирати снажном силом да уништи друге или читаве зграде. Добро као Тенк Т14 армије , понос руских оружаних снага, дизајниран је за могуће даљинско управљање и вожњу без посаде. Спутњик тврди да руски војни инжењери раде на томе да Т-14 буде потпуно аутономно оклопно возило.

Директива о приговорима

Сама америчка војска је наметнула прилично јасно ограничење нивоа аутономије свог наоружања. Министарство одбране САД је 2012. године издало Директиву 3000.09, у којој се наводи да људи треба да имају право да приговоре поступцима наоружаних робота. (иако може бити неких изузетака). Ова директива остаје на снази. Тренутна политика Пентагона је да одлучујући фактор у употреби оружја увек треба да буде личност и да такав суд треба да буде. у складу са законима рата.

Иако Американци деценијама користе летеће, Предатор, Реапер и многе друге супермашине, они нису били и нису аутономни модели. Њима оператери управљају даљински, понекад са удаљености од неколико хиљада километара. Бурна дискусија о аутономији машина овог типа почела је премијером прототипа. дрон Кс-47Б (5), који не само да је летео самостално, већ је могао и да полети са носача авиона, слети на њега и допуни гориво у ваздуху. Значење је такође пуцати или бомбардовати без људске интервенције. Међутим, пројекат је још увек у фази тестирања и прегледа.

5. Тестови беспилотног Кс-47Б на америчком носачу авиона

Министарство одбране је 2003. године почело да експериментише са малим роботом налик тенку. СПОЕС опремљен митраљезом. 2007. је послат у Ирак. међутим, програм се завршио након што је робот почео да се понаша нередовито, померајући своју пушку нередовно. Као резултат тога, америчка војска је одустала од истраживања наоружаних копнених робота дуги низ година.

Истовремено, америчка војска је повећала своју потрошњу на операције са 20 милиона долара у 2014. на 156 милиона долара у 2018. години. У 2019. овај буџет је већ скочио на 327 милиона долара. Ово је кумулативно повећање од 1823% за само неколико година. Стручњаци кажу да би већ 2025. америчка војска могла имати бојно поље више робота војника него људи.

У последње време, много контроверзи је изазвала и најавила америчка војска АТЛАС пројекат () - аутоматски. У медијима је то оцењено као кршење поменуте директиве 3000.09. Међутим, америчка војска пориче и уверава да искључење особе из циклуса одлучивања не долази у обзир.

АИ препознаје ајкуле и цивиле

Међутим, браниоци аутономног оружја имају нове аргументе. проф. Роналд Аркин, роботичар са Технолошког института Џорџије, наводи у својим публикацијама да У савременом ратовању, интелигентно оружје је од суштинског значаја да би се избегле цивилне жртве, јер технике машинског учења могу ефикасно да помогну у разликовању између бораца и цивила, и важних и неважних циљева.

Пример таквих вештина вештачке интелигенције је патролирање аустралијским плажама. дронови Мали Трбосекопремљен СхаркСпоттер системом који је развио Технолошки универзитет у Сиднеју. Овај систем аутоматски скенира воду у потрази за ајкулама и упозорава оператера када види нешто небезбедно. (6) Може да идентификује људе, делфине, чамце, даске за сурфовање и предмете у води да их разликује од ајкула. Може да открије и идентификује око шеснаест различитих врста са великом прецизношћу.

6. Препознате ајкуле у систему СхаркСпоттер

Ове напредне методе машинског учења повећавају тачност извиђања из ваздуха за више од 90%. Поређења ради, људски оператер у сличној ситуацији тачно препознаје 20-30% објеката на фотографијама из ваздуха. Поред тога, идентификацију још увек верификује човек пре аларма.

На бојном пољу, оператер, видећи слику на екрану, тешко може да утврди да ли су људи на земљи борци са АК-47 у рукама или, на пример, фармери са штукама. Аркин напомиње да људи имају тенденцију да „виде оно што желе да виде“, посебно у стресним ситуацијама. Овај ефекат је допринео случајном обарању иранског авиона од стране УСС Винценнеса 1987. године. Наравно, по његовом мишљењу, оружје које контролише вештачка интелигенција било би боље од садашњих „паметних бомби“, које заправо нису разумне. Прошлог августа, саудијска ласерски навођена ракета погодила је аутобус пун ђака у Јемену, убивши четрдесеторо деце.

„Ако је школски аутобус правилно означен, његово идентификовање у аутономном систему може бити релативно лако“, тврди Аркин у Популар Мецханицс.

Међутим, чини се да ови аргументи не убеђују учеснике кампање против аутоматских убица. Поред опасности од робота убица, мора се узети у обзир још једна важна околност. Чак и „добар“ и „пажљив“ систем могу да хакују и преузму веома лоши људи. Тада сви аргументи у одбрану војне опреме губе на снази.

Додај коментар