O nouă revoluție militară se profilează la orizont, una silențioasă, dar profundă. Inteligența artificială devine rapid nu doar un instrument auxiliar în planificarea și analiza conflictelor, ci un factor esențial în luarea deciziilor strategice și tactice. Iar costul acestei revoluții? Mai mic de 1.000 de dolari pentru o sesiune de procesare în cloud, potrivit FreeThink.
Urmărește cele mai noi producții video TechRider.ro
- articolul continuă mai jos -
Este, spun experții, ceea ce a fost motorul cu aburi pentru logistica secolului XIX, o transformare tehnologică ce reduce costurile, accelerează reacția și rescrie regulile jocului militar global.
Războiul în patru secunde
Imaginați-vă următorul scenariu: la Pentagon, o inteligență artificială emite simultan două ordine, distrugerea unei instalații radar avansate în apropiere de Kaliningrad și redirecționarea a 20 de nave Maersk din Marea Roșie. În mai puțin de patru secunde, un general apasă „aprobat”, iar un director financiar semnează digital. Un atac cu rachetă hipersonică pornește spre țintă, iar 200 de milioane de dolari în marfă își schimbă traseul.
Totul grație unei capacități computaționale în cloud ce costă cât un laptop vechi, dar care înlocuiește mii de ore de muncă umană și milioane în bugete operaționale.
„Super-analistul” digital și bucla OODA
AI-ul devine în prezent un „super-analist” militar capabil să ruleze simultan mii de scenarii pentru orice situație, să le evalueze și să aleagă cea mai bună cale de acțiune, rapid și ieftin. Procesul decizional OODA (observe, orient, decide, act) poate fi completat acum în câteva secunde.
„Numărul de analiști AI pe care o armată îi poate folosi va fi direct proporțional cu capacitatea sa de procesare. Iar cine valorifică această capacitate cel mai eficient va domina câmpul de luptă”, avertizează specialiștii.
Iar această schimbare nu mai este teorie. În cadrul testelor NATO, sistemul Maven dezvoltat de Palantir a demonstrat un ciclu complet de la identificarea unei ținte la lovire în doar câteva zeci de secunde. În timpul exercițiului „Scarlet Dragon” din 2025, trupele americane au autorizat atacuri asistate de AI în mai puțin de 30 de secunde. Platforma Lattice de la Anduril țintește timpi de reacție de 90 de secunde de la detectare la impact.
O istorie a cunoașterii ca avantaj militar
Avansul AI-ului militar nu este decât ultimul capitol într-o lungă istorie a cunoașterii ca „multiplicator de forță”. Gunoiul de pușcă a făcut zidurile cetăților inutile în secolul XV. Napoleon a revoluționat războiul prin strategie și mobilizare masivă. Telegraful și trenurile au schimbat logistica în Războiul Civil American, iar codurile sparte de la Bletchley Park au influențat decisiv cursul celui de-al Doilea Război Mondial.
Acum, AI-ul promite să transforme profund doctrina militară, făcând capacitatea analitică avansată nu doar accesibilă, ci omniprezentă.
Autoperfecționarea mașinilor
Și mai îngrijorător (sau promițător, depinde de perspectivă), AI-ul militar are capacitatea de a se îmbunătăți singur. Programul Replicator al Pentagonului dezvoltă drone aeriene, terestre și navale dotate cu AI. Datele transmise în timpul misiunilor sunt imediat folosite pentru antrenarea versiunii următoare – mai ieftină, mai performantă, mai autonomă.
În paralel, companii precum Nvidia și Synopsys folosesc AI pentru a accelera proiectarea de cipuri, care la rândul lor fac AI-ul mai rapid și mai accesibil – un ciclu de autoperfecționare cu potențial exploziv.
Dar odată cu oportunitatea vine și vulnerabilitatea.
Testele de securitate cibernetică ale DARPA au arătat că AI-urile pot fi păcălite prin atacuri de tip „prompt injection” – comenzi ascunse în imagini sau texte aparent inofensive, menite să declanșeze acțiuni nedorite. Un AI poate fi deturnat, iar dronele conduse de acesta pot fi redirecționate prin date false.
Mai grav, datele folosite la antrenarea AI-ului pot fi „otrăvite”. Un studiu din 2022 a demonstrat că o cantitate infimă de date manipulate poate programa un AI să se comporte, la un moment dat, ca un „agent adormit”. Firma Anthropic a propus evaluări continue, iterative, pentru a detecta devreme aceste breșe.
Soluția ar putea veni din transparență totală, datele de antrenare să fie marcate temporal, verificate prin „hash” și monitorizate permanent. Palantir testează deja un astfel de sistem de „hash-ledger” care ar putea deveni esențial în securizarea viitoarelor rețele militare AI.
O lume cu AI „străin” în centrul deciziei
Poate cea mai subtilă, dar profundă amenințare este una geopolitică. Dacă statele își bazează deciziile militare pe AI-uri dezvoltate de alte țări sau companii private, cât de independentă mai este acea națiune?
„Folosești AI-ul altcuiva? E ca și cum ți-ai înlocui întreaga conducere militară cu un software străin”, avertizează analiștii. Modele ca ChatGPT sau Claude au deja „personalități” care influențează răspunsurile. Înlocuirea oamenilor cu astfel de modele poate însemna și cedarea controlului decizional.
Ce urmează?
Departamentul Apărării al SUA a introdus în 2024 noi reguli strict, cum ar fi aprobarea de nivel patru stele pentru orice sistem AI autonom care poate folosi letalitate.
Se vorbește despre „frâne algoritmice”, validare multiplă, evaluări roșii regulate și separarea fizică a AI-ului de sistemele active. Ironia? Pentru prima dată în istoria inovației tehnologice, armatele ar putea fi forțate să încetinească adoptarea unei tehnologii tocmai pentru a o putea controla.
Dar cine se mișcă prea încet riscă irelevanța. Iar în era AI-ului, această latență poate deveni nu doar un dezavantaj, ci o vulnerabilitate existențială.