Пентагон жели да АИ системи убијају без ограничења: Шта је "клод" и какву штету може да направи

Коришћење једног система вештачке интелигенције довео је до много дубљег сукоба у америчкој администрацији, отварајући питање не само о војној стратегији, него и о темељима одговорности и етике у ери аутономних технологија

Сједињене Америчке Државе и једна приватна компанија налазе се усред "рата" око нелегалног коришћења система вештачке интелигенције у војне сврхе, што би могло да створи преседан којим ће државни врх добити оправдање за акције за које неће сносити никакву одговорност.

Коришћење "клода", АИ система који је креирала компанија "Антропик", већ сада представља преседан, али скандал који је уследио открива много дубљи проблем.

Према медијским извештајима, овај систем је коришћен у планирању америчке војне операције усмерене на хватање венецуеланског председника Николаса Мадура.

Испоставило се да "Антропик" заступа строгу етичку позицију – његови АИ системи не смеју да се користе за ратовање или масовни надзор.

Та ограничења нису маркетиншки слогани, она су уграђена директно у архитектуру софтвера. Компанија их примењује интерно и очекује од клијената да поступају исто.

Пентагон, међутим, ствари види другачије.

Према доступним информацијама, америчко Министарство рата користило је "клод" без обавештавања компаније о намени. Када је то постало јавно и када је "Антропик" уложио приговор, одговор војске био је недвосмислен.

Званичници су затражили приступ "чистој" верзији система – лишеној моралних и етичких ограничења – уз образложење да им управо та ограничења онемогућавају да обављају свој посао.

"У срцу овог сукоба налази се филозофски раскол између два непомирљива табора. Један верује да нове технологије морају бити максимално искоришћене, без обзира на дугорочне последице. Други страхује да, када се једна граница пређе, контролу може бити немогуће повратити", написао је у ауторском тексту Виталиј Рјумшин, новинар и политички аналитичар.

Настајање сукоба: Етика насупрот војне ефикасности

Сукоб између "Антропика" и Пентагона ескалирао је након што је министар одбране Пит Хегсет издао меморандум 9. јануара, у којем се позивају све компаније вештачке интелигенције да уклоне своја ограничења и омогуће слободну војну примену својих технологија.

Одговор компаније био је јасан и принципијелан: "Водимо продуктивне разговоре, у доброј вери", изјавили су из "Антропика", али су одбили да уклоне основна етичка ограничења.

Пентагон је, са друге стране, имао јасну поруку – вештачка интелигенција "која не може да се бори", не може бити део њихових операција.

Хегсет је чак запретио да ће компанију означити као "ризик за ланац снабдевања", што би значило уклањање из регистра војних снабдевача. Та ознака би практично значила стављање на црну листу – свака фирма која сарађује са Пентагоном морала би да прекине односе са "Антропиком".

"Аксиос" је пренео да је Хегсет позвао генералног директора компаније Дарија Амодеија на састанак у уторак и да ће он вероватно бити напет.

Извори су састанак најавили речима "или радиш или одлазиш са позиције", наглашавајући притисак и озбиљност ситуације.

"Клод" је једини АИ модел доступан у поверљивим војним системима и уједно најспособнији модел за осетљиве послове у области одбране и обавештајних служби. Пентагон не жели да изгуби приступ "клоду", али је огорчен због одбијања "Антропика" да у потпуности уклони своје заштитне механизме.

Званичници министарства тврде да преговори нису донели никакав напредак и да су на ивици пропасти.

Амерички медији додали су да је "Антропик" наводно спреман да ублажи ограничења употребе, али жели да изузме две области – масовни надзор над америчким грађанима и развој оружја које дејствује без људске интервенције.

Компанија је, како је навео портпарол, "посвећена коришћењу напредне АИ у подршци националној безбедности САД".

Пентагон сматра да је претерано рестриктивно да за сваку појединачну примену мора да тражи одобрење компаније и захтева да све АИ лабораторије своје моделе ставе на располагање за "све законите намене".

"Клод" у војној примени и његов значај

Поред војне операције у Венецуели, модел се користи и за анализу поверљивих података упоредо са технологијама компаније "Палантир", што значи да би уклањање "клода" из система изазвало озбиљне оперативне поремећаје.

Пентагон је свестан да би замена другим моделом, попут "ИксАИ" или Гугловог "џеминија", била технички и организационо захтевна, јер ти модели нису достигли исти ниво прецизности и поузданости.

"Док Русија пажљиво прати преговоре око Украјине и текућу сагу у вези са Телеграмом, на другој страни Атлантика одвија се драма која више подсећа на научнофантастични трилер него на класичну геополитику. Овога пута, међутим, није реч о фикцији", најавио је Рјумшин.

"Антропик" је био први који је добио дозволу да ради на класификованим мрежама војске, али је инсистирао да се вештачка интелигенција користи само у оквиру строгих етичких ограничења.

"Замислимо сада системе ослобођене дигиталних ограничења. Интегрисане у аутономно оружје, обавештајну анализу или платформе за надзор. И без фантазија о побуни машина, последице су забрињавајуће. Одговорност се брише. Приватност постаје илузија. Ратни злочини могу се свести на 'процедуралне грешке'. Аутономну машину не можете извести пред суд", подсећа руски стручњак.

Додатни изазови су конкуренција и међународни контекст.

"Антропик" је предузео кораке да његова технологија не доспе у руке кинеских фирми, поручују из извора блиских фирми, што је додатно подигло тензије и показало глобални утицај ових технологија.

"ОпенАИ" је наводно такође детектовао покушаје кинеских кампања да користе њихове АИ моделе у надзору, али је "клод" специфичан по интеграцији у поверљиве војне системе и по високом степену контроле коју "Антропик" инсистира да задржи.

Сукоби нису само филозофски

Сукоб који прети да ескалира одражава шири проблем контроле над вештачком интелигенцијом.

Пентагон тражи максималну флексибилност, без обзира на етичке последице, док компаније попут "Антропика" инсистирају на "слоју безбедносних ограничења" уграђеном у модел.

"Прво озбиљно суочавање војне амбиције и етике вештачке интелигенције", описује Рјумшин, наглашавајући да је "клод" постао симбол граница технологије и моралне одговорности.

Међутим, како истиче, грешка би била да се овај проблем одбаци само као "америчка ствар", већ је у питању нешто што се тиче свих нас.

"И Русија активно интегрише АИ у своје војне системе. Вештачка интелигенција већ помаже ударним дроновима у препознавању циљева, заобилажењу електронског ометања и координацији 'ројева'. За сада су ти системи помоћни алати, под чврстом људском контролом. Али њихово увођење значи да ће и Москва ускоро бити суочена са истим дилемама које се данас разматрају у Вашингтону", поручује аналитичар.

Да ли је то нужно лоше? Не.

"Вештачка интелигенција ће трансформисати војне послове, као што ће променити и цивилни живот. Претварати се да је супротно било би наивно. Задатак није одбацити будућност, већ јој приступити отворених очију", додаје Рјумшин.

"Клод" представља прекретницу у историји војне вештачке интелигенције. Његова употреба, сукоб око етичких ограничења и притисак Пентагона показују колико је тешко наћи равнотежу између технолошке моћи и моралне одговорности.

"Свакако, ера 'убилачке вештачке интелигенције' више није хипотетичка. Она долази кроз уговоре о набавци и корпоративне ултиматуме", закључује Виталиј Рјумшин.