Može li čovječanstvo kontrolirati smrtonosna AI oružja?

Autonomna oružja vođena umjetnom inteligencijom već su u uporabi. Vojnici, pravnici i etičari pokušavaju se dogovoriti što bi od toga smjelo biti dopušteno na bojištu

Mladen Smrekar četvrtak, 25. travnja 2024. u 16:05
Lakše je tehnološki osposobiti sustav da pronađe ljudsko biće i ubije ga nego razviti samovozeći automobil; to je projekt za postdiplomce, upozoravaju stručnjaci 📷 Freepik
Lakše je tehnološki osposobiti sustav da pronađe ljudsko biće i ubije ga nego razviti samovozeći automobil; to je projekt za postdiplomce, upozoravaju stručnjaci Freepik

Utrka u naoružanju ponovno se razbuktava, ponajviše zahvaljujući ubrzanom razvoju smrtonosnih autonomnih oružanih sustava (Lethal Autonomous Weapon Systems, LAWs), uključujući dronove opremljene umjetnom inteligencijom. Ministarstvo obrane SAD-a, podsjeća Nature, dosad je izdvojilo milijardu dolara za program Replicator kojem je zadatak izgraditi flotu malih, naoružanih autonomnih vozila.

Strah od budućnosti

Eksperimentira se s podmornicama, tenkovima i brodovima koji koriste umjetnu inteligenciju za upravljanje i pucanje, a bespilotne letjelice koristite AI za prepoznavanje slika kako bi se otkrile i pogodile mete. LAWs ne trebaju AI za rad, ali tehnologija im dodaje brzinu i sposobnost izbjegavanja obrane. Mnogi strahuju od budućnosti u kojoj će rojevi jeftinih AI dronova-ubojica napadati pojedine ciljeve u masi koristeći tehnologije prepoznavanje lica.

"Lakše je tehnološki osposobiti sustav da pronađe ljudsko biće i ubije ga nego razviti samovozeći automobil; to je projekt za postdiplomce", upozorava informatičar Stuart Russell s Kalifornijskog sveučilišta u Berkeleyju koji je 2017. surađivao na izradi videa "Slaughterbots" koji je ukazivao na moguće rizike.

Tema Opće skupštine UN-a 

Pojava umjetne inteligencije na bojnom polju potaknula je raspravu među istraživačima, pravnim stručnjacima i etičarima. Optimisti tvrde da bi oružje potpomognuto umjetnom inteligencijom moglo biti preciznije od oružja kojim upravljaju ljudi te tako smanjiti kolateralnu štetu i broj poginulih i osakaćenih vojnika. Pesimisti strahuju od katastrofalnih pogrešaka, dok etičare brine princip po kojem se odluka o ciljanju i gađanju mete prepušta algoritmu.

Mnogi strahuju od budućnosti u kojoj će rojevi jeftinih AI dronova-ubojica napadati pojedine ciljeve u masi koristeći tehnologije prepoznavanje lica 📷 MIT News
Mnogi strahuju od budućnosti u kojoj će rojevi jeftinih AI dronova-ubojica napadati pojedine ciljeve u masi koristeći tehnologije prepoznavanje lica MIT News

Tema je na velika vrata ušla i u zgradu Ujedinjenih naroda, a LAWs je stavljen na dnevni red sastanka Opće skupštine UN-a ovog rujna. Glavni tajnik António Guterres želi da se oružje koje djeluje bez ljudskog nadzora zabrani do 2026. Konvencija UN-a o određenim konvencionalnim oružjima (CCW) posljednjih deset godina službeno istražuje oružje potpomognuto umjetnom inteligencijom. Neke zemlje protive se svakoj zabrani, a ne postoji ni međunarodni konsenzus što je zapravo LAWs.


Bez konsenzusa

Trenutno  postoji najmanje desetak definicija autonomnih oružanih sustava. Britanci tako smatraju da su LAWsovi "sposobni razumjeti namjere i usmjerenje više razine", dok Kinezi misle da takvo oružje može "autonomno učiti, proširiti svoje funkcije i sposobnosti na način koji nadilazi ljudska očekivanja".

Izraelci izjavljuju da bismo se trebali držati "podalje od imaginarnih vizija u kojima se strojevi sami razvijaju, stvaraju ili aktiviraju" i da to treba "ostaviti za znanstveno-fantastične filmove". Nijemci pak kao neophodan atribut autonomnog oružja vide "samosvijest", što je kvaliteta za koju većina istraživača kaže da je daleko od onoga što je danas moguće s umjetnom inteligencijom, ako ne i potpuno nemoguće. 


Sirova oružja

Prema analizi Centra za ratne studije Sveučilišta Južne Danske u Odenseu, trenutno dostupna autonomna oružja vođena umjetnom inteligencijom relativno su sirova i riječ je uglavnom o sporim i nespretnim dronovima opremljenim s dovoljno eksploziva da raznesu sebe i svoje ciljeve.

Konceptualni dizajn jeftinih, atraktivnih bespilotnih letjelica koje služe kao pratioci borbenog zrakoplova s ​​posadom 📷 U.S. Air Force
Konceptualni dizajn jeftinih, atraktivnih bespilotnih letjelica koje služe kao pratioci borbenog zrakoplova s ​​posadom U.S. Air Force

Ovo lebdeće streljivo  (loitering ammo) može biti veličine modela zrakoplova, koštati oko 50.000 dolara i nositi nekoliko kilograma eksploziva do 50 kilometara udaljenosti, dovoljno da uništi vozilo ili ubije pojedinačne vojnike. Ovo streljivo koristi ugrađene senzore koji prate optičke, infracrvene ili radio frekvencije za otkrivanje potencijalnih ciljeva. AI uspoređuje te ulaze senzora s unaprijed određenim profilima tenkova, oklopnih vozila i radarskih sustava, kao i ljudskih bića.

Robotske operacije

Svojedobno se nagađalo o upotrebi autonomnog oružja u Libiji, no da se danas koristi u Ukrajini nema nikakve sumnje. Vojni zapovjednici tamo su već više puta spomenuli kako provode "potpuno robotske operacije, bez ljudske intervencije". Koliko je doista dobro takvo AI oružje ne zna se jer vojske ne objavljuju takve podatke. No, svima su jasne prednosti koje sa sobom nosi superiorna vještina obrade podataka i donošenja odluka. Prošlogodišnja studija, na primjer, pokazala je da AI može pronaći duplicirane slike u znanstvenim radovima brže i sveobuhvatnije od bilo kojeg ljudskog stručnjaka.

Prije četiri godine AI model je pobijedio iskusnog pilota F-16 lovca u nizu simuliranih zračnih borbi zahvaljujući "agresivnim i preciznim manevrima koje ljudski pilot nije mogao nadmašiti". Dvije godine potom kineski vojni istraživači otkrili su kako je njihova bespilotna letjelica s umjetnom inteligencijom nadmudrila letjelicu kojom je daljinski upravljao ljudski operater na zemlji. 

Etika autonomnog oružja

AI oružja mogu prilično dobro razlikovati razne infracrvene ili radarske signale; puno je veći problem vizualno prepoznavanje slike. Istraživanje je pokazalo da sitne izmjene slika mogu promijeniti način na koji ih klasificiraju neuronske mreže pa se i zrakoplov može pobrkati s psom.

Većina se slaže kako rad autonomnog oružja trebaju ipak nadzirati ljudi koji će vizualno provjeriti ciljeve prije nego što odobre napade i moći otkazati napad ako se uvjeti na bojnom polju promijene. Zasad postoji barem jedna točka oko koje se, čini se, svi slažu: autonomni agenti, uključujući one s umjetnom inteligencijom, ne bi trebali igrati nikakvu ulogu u odluku o lansiranju nuklearnog oružja. 

Nuklearni napad bez ljudskog nadzora

Sva ova i niz drugih pitanja bit će uključena u rasprave na Općoj skupštini UN-a ovog rujna. Bude li sluha, nadaju se optimisti, ugovor kojim će se ograničiti i regulirati upotreba smrtonosnih autonomnih oružanih sustava mogao bi biti spreman za potpis već za tri godine, piše Nature.