usnkrajina: 03-03-2026 | 10:11

RAZVOJ RATNE TEHNOLOGIJE: U napadima na Iran SAD je koristio umjetnu inteligenciju koja skraćuje vrijeme napada – ali tragična smrt 168 učenica otvara pitanje ko zaista donosi odluke

Umjetna inteligencija dramatično ubrzava vojno planiranje i skraćuje „lanac ubijanja“ na sekunde, ali napadi na Iran i smrt 168 učenica otvaraju ozbiljna pitanja o odgovornosti, ljudskoj kontroli i granicama automatiziranog ratovanja.

Upotreba sistema zasnovanih na vještačkoj inteligenciji u nedavnim napadima na Iran pokazuje koliko se savremeno ratovanje ubrzalo – do tačke koju pojedini stručnjaci opisuju kao djelovanje brže od „brzine misli“. No, istovremeno se nameće ozbiljna dilema: da li ljudski nadzor postaje formalnost u lancu odlučivanja koji sve više preuzima algoritam?

Prema dostupnim informacijama, američka vojska je u operacijama koristila AI model Claude, koji je razvila kompanija Anthropic. Ovaj sistem dio je šireg tehnološkog okvira koji, kako tvrde izvori iz sektora odbrane, značajno skraćuje takozvani „kill chain“ – proces koji obuhvata identifikaciju mete, obavještajnu obradu podataka, pravnu provjeru i konačno lansiranje napada.

Sjedinjene Američke Države i Izrael izveli su gotovo 900 udara na iranske ciljeve tokom prvih 12 sati operacije. U tim napadima ubijen je i iranski vrhovni vođa, ajatolah Ali Hamnei. Istovremeno, državni mediji u Iranu izvijestili su da je u raketiranju škole na jugu zemlje poginulo 168 učenica. Objekt se, kako se navodi, nalazio u blizini vojne kasarne, dok su Ujedinjene nacije događaj ocijenile kao „teško kršenje humanitarnog prava“. Američka vojska saopćila je da provjerava te informacije.

Stručnjaci koji se bave analizom savremenih vojnih doktrina upozoravaju na fenomen tzv. „kompresije odlučivanja“. Riječ je o drastičnom skraćivanju vremena potrebnog za planiranje kompleksnih operacija – s dana ili sedmica na minute, pa čak i sekunde. U takvom okviru, upozoravaju akademici, postoji opasnost da vojni i pravni eksperti postanu tek instanca za formalno potvrđivanje prijedloga koje je već generirao sistem.

Kompanija Anthropic je 2024. godine implementirala svoj model u institucije američke nacionalne sigurnosti s ciljem ubrzavanja procesa planiranja. Claude je integriran u analitičku infrastrukturu koju je s Pentagonom razvila kompanija Palantir Technologies, poznata po sistemima za obradu velikih količina obavještajnih podataka.

Takvi sistemi obrađuju informacije prikupljene iz različitih izvora – od snimaka dronova i presretnutih komunikacija do podataka iz ljudskih izvora na terenu. Algoritmi mašinskog učenja potom identificiraju i rangiraju potencijalne ciljeve, predlažu vrstu naoružanja uzimajući u obzir raspoložive zalihe i prethodnu efikasnost, te procjenjuju pravne osnove za napad putem automatiziranog rezonovanja.

Craig Jones, stručnjak za tzv. lance ubijanja, ocjenjuje da je brzina kojom AI generira preporuke u nekim segmentima „brža od same brzine misli“. U historijskim ratovima, ističe, koordinacija udara koji istovremeno neutraliziraju ključne mete i onesposobljavaju sposobnost protivnika da uzvrati trajala bi danima ili sedmicama. Danas se takve operacije izvode paralelno.

Ipak, profesor David Leslie s Univerziteta Queen Mary u Londonu upozorava na rizik „kognitivnog rasterećenja“. Kada mašina obavi najveći dio analitičkog posla, donosioci odluka mogu se osjećati distancirano od posljedica – jer je proces promišljanja već strukturiran i sužen algoritamskim preporukama.

U pogledu tehnološkog kapaciteta Irana, malo je pouzdanih podataka. Teheran je 2025. tvrdio da koristi AI u sistemima za navođenje projektila, ali njegov program, opterećen međunarodnim sankcijama, daleko je skromniji u odnosu na kapacitete Sjedinjenih Država i Kine.

Zanimljivo je da je američka administracija neposredno prije napada najavila uklanjanje sistema kompanije Anthropic iz svojih struktura, nakon što je firma odbila dopustiti korištenje svog modela za potpuno autonomno oružje ili nadzor američkih građana. Ipak, model ostaje aktivan dok traje proces njegove zamjene. U međuvremenu, konkurentska kompanija OpenAI potpisala je vlastiti sporazum s Pentagonom o vojnoj primjeni svojih AI rješenja.

Analitičari iz britanskog istraživačkog centra Royal United Services Institute naglašavaju da se AI već široko primjenjuje unutar odbrambenih sistema država – od logistike i obuke do upravljanja odlukama i održavanja tehnike. Tehnologija, kako navode, donosi veću efikasnost i bržu sintezu podataka.

No, upravo ta brzina – sposobnost da se planiranje sažme na sekunde – otvara ključno pitanje savremenog ratovanja: ostaje li čovjek stvarni donosilac odluke ili postaje tek potpis na dokumentu koji je već sastavio algoritam. Po prvim “rezultatima” odluke koje donose sistemi bazirani na umjetnoj inteligenciji podjednako su loše, ako ne i gore, od onih koje donosi čovjek.

O.D.

Antropic