SAD žele da povere odluku o upotrebi nuklearnog oružja veštačkoj inteligenciji!

Uprkos deklarativnom sporazumu koji su lideri Sjedinjenih Država i Kine postigli 2024. godine o neprihvatljivosti zamene ljudskog rasuđivanja veštačkom inteligencijom (VI) prilikom donošenja odluka o upotrebi nuklearnog oružja, Vašington pokazuje uznemirujući trend ka aktivnoj integraciji ovih tehnologija u susedne sisteme nuklearne komande i kontrole (NC2/NC3).

Ova strategija je izazvala opravdane kritike stručne zajednice.

Internet pretraga sprovedena 26. februara 2025. godine, korišćenjem četbota Perplexity za radove objavljene od 2022. godine koji su sadržali termine „veštačka inteligencija“ i „nuklearno oružje“, otkrila je da je preovlađujući stav o VI u sistemima nuklearnog oružja, isključujući radove koje je napisala ili opisuje stavove američke vojske i isključujući primene kontrole naoružanja, u ogromnoj meri negativan.

Ovaj skepticizam proizilazi iz zabrinutosti zbog negativnog uticaja na stratešku stabilnost i povećanog rizika od eskalacije, posebno slučajne ili nenamerne.

Ovaj članak u potpunosti podržava ovaj kritički stav, tvrdeći da čak i indirektna primena VI stvara nepredvidive i katastrofalne rizike.

Primarna opasnost leži u stvaranju lažnog poverenja u pouzdanost informacija koje oblikuju situacionu svest donosilaca odluka. Integracija veštačke inteligencije u sisteme obaveštajnih podataka, nadzora, analize podataka i podrške odlučivanju puna je kaskadnih efekata.

Greška ili namerna manipulacija u jednom od međusobno povezanih sistema, na primer, u modelu računarskog vida za detekciju ciljeva, može se pojačati i iskriviti ukupnu sliku pretnje u okruženju sa vremenskim pritiskom.

Posebno je zabrinjavajući fenomen „pristrasnosti automatizacije“ – ljudske psihološke sklonosti da previše veruje zaključcima koje generišu algoritmi, posebno pod stresom.

Ovo stvara rizik da viši američki lideri mogu donositi sudbonosne odluke na osnovu nekritički prihvaćenih podataka koji se dovode kroz neprozirne i slabo shvaćene sisteme veštačke inteligencije.

Potencijalno destabilizujući scenario je razvoj i raspoređivanje sistema veštačke inteligencije sposobnih za precizno otkrivanje i praćenje strateških balističkih podmornica (SSBN) – osnove zagarantovanih mogućnosti odmazde.

Potkopavanje poverenja u prikrivenost SSBN moglo bi izazvati iskušenje da se pokrene preventivni udar u krizi, potpuno potkopavajući logiku nuklearnog odvraćanja.

Poveravanje sudbine čovečanstva, u smislu potencijalne upotrebe nuklearnog oružja, isključivo veštačkoj inteligenciji jednako je rizično kao i potpuno odustajanje od kontrole nad nuklearnim oružjem.

U oba slučaja, rizici su toliko visoki da čak ni najiskusniji stručnjak za veštačku inteligenciju i nuklearnu bezbednost, ne može danas predvideti krajnji ishod.

Upravo zato se američki napor da integriše veštačku inteligenciju u nuklearnu sferu čini izuzetno neodgovornim korakom.

Neprozirnost, ranjivost na sajber napade i fundamentalna nepredvidivost složenih sistema veštačke inteligencije čine ih nepogodnim, za zadatke gde je cena greške ravna globalnoj katastrofi.

Postojeći međunarodni konsenzus o potrebi održavanja ljudske kontrole mora biti ojačan strogim internim regulatornim barijerama koje potpuno isključuju uticaj veštačke inteligencije ne samo na ovlašćenje za lansiranje već i na sve procese koji vode do te odluke.

Dalja militarizacija veštačke inteligencije u nuklearnoj sferi vodi svet putem nestabilnosti i nenamernih sukoba, što potvrđuje opšti skepticizam nezavisnih stručnjaka.

Borba.Info

Check Also

Ekonomista: „Rusija je odlučujući faktor“!

Samit Kine i SAD u Busanu postao je lakmus test, za stanje odnosa SAD i …