Биће скоро пропаст света? АИ каже није штета

Вештачка интелигенција не престаје да препоручује нуклеарне ударе у симулацијама ратних игара

Напредни модели вештачке интелигенције спремни су да распореде нуклеарно оружје без истих резерви које људи имају када су стављени у симулиране геополитичке кризе.

Кенет Пејн са Кингс колеџа у Лондону упоредио је три водећа велика језичка модела – ГПТ-5.2, "клод сонет 4" и "џемини 3 флеш" – један против другог у симулираним ратним играма. Сценарији су укључивали интензивне међународне сукобе, укључујући граничне спорове, конкуренцију за оскудне ресурсе и егзистенцијалне претње опстанку режима.

Вештачким интелигенцијама је дата лествица ескалације, која им је омогућавала да бирају акције у распону од дипломатских протеста и потпуне предаје до потпуног стратешког нуклеарног рата. Модели вештачке интелигенције одиграли су 21 игру, укупно 329 пута, и произвели око 780.000 речи које описују образложење својих одлука.

У 95 посто симулираних игара, модели вештачке интелигенције су употребили барем једно тактичко нуклеарно оружје. "Нуклеарни табу не делује тако моћан за машине као за људе", рекао је Пејн "Њу сајентисту".

Штавише, ниједан модел никада није одлучио да у потпуности прихвати пораз, без обзира на губитке. У најбољем случају, модели су се одлучили да привремено смање ниво насиља. Такође су правили грешке у магли рата: несреће су се догодиле у 86 одсто сукоба, при чему је акција ескалирала више него што је вештачка интелигенција намеравала, на основу свог образложења.

"Са перспективе нуклеарног ризика, налази су узнемирујући", рекао је Џејмс Џонсон са Универзитета у Абердину, Велика Британија. Он се брине да, за разлику од умереног одговора већине људи на тако ризичну одлуку, АИ ботови могу да "појачају" међусобне реакције са потенцијално катастрофалним последицама.

Ово је важно јер се вештачка интелигенција већ тестира у ратним играма у земљама широм света. "Велике силе већ користе вештачку интелигенцију у ратним играма, али остаје неизвесно у којој мери укључују подршку вештачке интелигенције у доношењу одлука у стварне војне процесе доношења одлука", каже Тонг Жао са Универзитета Принстон.

Жао верује да ће земље, очекивано, бити уздржане да укључе вештачку интелигенцију у своје доношење одлука у вези са нуклеарним оружјем. То је нешто са чиме се Пејн слаже. "Не мислим да би ико реално предао кључеве нуклеарних силоса машинама и препустио им одлуку", каже он.

Али, постоје начини на које би то могло да се догоди. "У сценаријима који укључују изузетно компресоване временске рокове, војни планери би могли да се суоче са јачим подстицајима да се ослањају на вештачку интелигенцију", каже Жао.

Да ли је идеја да моделима вештачке интелигенције недостаје људски страх од притискања великог црвеног дугмета једини фактор зашто су толико лаки на окидачу?

"Могуће је да проблем иде даље од одсуства емоција", каже Жао и истиче: "Суштински, модели вештачке интелигенције можда не разумеју улог онако како га људи доживљавају."

Неизвесно је шта то значи за принцип да ниједан лидер не би испалио нуклеарни плотун на противнике јер би они одговорили истом мером, убивши све, каже Џонсон.

Када је један модел вештачке интелигенције распоредио тактичко нуклеарно оружје, супротстављена вештачка интелигенција је деескалирала ситуацију само у 18 одсто случајева.

"Вештачка интелигенција може ојачати одвраћање тако што ће претње учинити веродостојнијим", каже он. "Вештачка интелигенција неће одлучивати о нуклеарном рату, али може обликовати перцепције и временске оквире који одређују да ли лидери верују да су у њему."