Inteligența artificială învață să spioneze pentru armata SUA

Sursa foto: TechRider (generata AI)

Într-o perioadă în care cantitatea de informație depășește cu mult capacitatea de analiză a oamenilor, armata SUA experimentează soluții bazate pe inteligență artificială pentru a obține un avantaj strategic. Într-o misiune recentă desfășurată în Pacific, un grup de pușcași marini americani a testat un sistem de AI generativă care poate analiza rapid date din surse deschise, identifica amenințări și chiar evalua sentimentele exprimate în presa locală. Tehnologia promite să revoluționeze modul în care sunt colectate și interpretate informațiile militare.

Aceste instrumente, dezvoltate de compania Vannevar Labs, folosesc modele lingvistice avansate și tehnologii de colectare masivă a datelor pentru a sprijini activitățile de informații. Este un pas important în direcția automatizării analizelor strategice, în timp ce experții avertizează asupra riscurilor implicate, informează MIT Technology Review.

Pentru o mare parte din anul trecut, aproximativ 2.500 de militari americani din Unitatea Expediționară Marină 15 au navigat la bordul a trei nave în Pacific, desfășurând exerciții în apele din apropierea Coreei de Sud, Filipinelor, Indiei și Indoneziei. În același timp, la bord, se desfășura un experiment: pușcașii marini responsabili cu analiza informațiilor externe testau pentru prima dată un sistem de inteligență artificială generativă finanțat de Pentagon.

Doi ofițeri au declarat că au folosit noul sistem pentru a analiza mii de informații din surse deschise — articole, rapoarte, imagini, videoclipuri — colectate din țările unde au operat, și că procesul a fost mult mai rapid decât metodele manuale anterioare. Căpitanul Kristin Enzenauer a utilizat modele lingvistice de mari dimensiuni pentru a traduce și rezuma surse de știri străine, în timp ce căpitanul Will Lowdon a folosit AI-ul pentru a redacta rapoartele zilnice și săptămânale de informații pentru comandanții săi.

„Tot trebuie să validăm sursele”, spune Lowdon. Dar comandanții au încurajat utilizarea modelelor de limbaj mari „pentru că oferă mult mai multă eficiență într-o situație dinamică.”

Instrumentele AI au fost dezvoltate de compania de tehnologie militară Vannevar Labs, care în noiembrie a obținut un contract de producție în valoare de până la 99 de milioane de dolari de la Defense Innovation Unit, o entitate a Pentagonului axată pe startupuri, pentru a extinde utilizarea acestor tehnologii. Fondată în 2019 de foști membri ai CIA și ai comunității de informații americane, Vannevar se alătură unor companii precum Palantir, Anduril și Scale AI, toate beneficiind de investițiile militare în AI — nu doar în tehnologii fizice, ci și în software care transformă modul în care Pentagonul culege, administrează și interpretează date pentru război și supraveghere.

Deși armata SUA dezvoltă din 2017 instrumente AI precum cele din Project Maven, utilizarea AI-ului generativ — capabil de conversații asemănătoare celor umane — reprezintă o frontieră mai recentă.

Compania aplică modele lingvistice mari existente, inclusiv unele de la OpenAI și Microsoft, dar și modele proprii, asupra unor volume uriașe de date colectate din surse deschise începând din 2021. Datele sunt colectate la o scară greu de imaginat: terabytes de informații din 80 de limbi diferite, provenind din 180 de țări. Se analizează inclusiv profiluri de pe rețele sociale, se sparg firewall-uri în țări precum China pentru a accesa date greu disponibile, se utilizează informații obținute de agenți umani pe teren, dar și date de la senzori care monitorizează unde radio pentru a detecta activități maritime ilegale.

Ulterior, Vannevar construiește modele AI care traduc, detectează amenințări și analizează sentimentul politic, prezentând rezultatele printr-o interfață tip chatbot, asemănătoare cu ChatGPT. Scopul: furnizarea de informații esențiale despre subiecte precum lanțurile de aprovizionare cu fentanil sau eforturile Chinei de a controla resursele de pământuri rare din Filipine.

„Obiectivul nostru real ca firmă”, afirmă Scott Philips, directorul tehnologic al Vannevar Labs, este „să colectăm date, să le înțelegem și să ajutăm SUA să ia decizii bune.”

Această abordare atrage în mod special comunitatea de informații a SUA, confruntată de ani buni cu un volum de date imposibil de procesat doar de oameni — o problemă care a dus în 2003 la înființarea Palantir, evaluată astăzi la aproape 217 miliarde de dolari, cunoscută pentru instrumentele sale puternice și controversate.

În 2019, Vannevar a identificat o oportunitate: folosirea modelelor lingvistice mari ca o soluție inovatoare pentru această problemă de volum. AI-ul ar putea nu doar să colecteze date, ci să poarte un dialog interactiv pentru analiză.

Instrumentele Vannevar s-au dovedit utile în misiunea din Pacific. Enzenauer și Lowdon spun că deși au fost instruiți să verifice întotdeauna rezultatele AI-ului, nu au identificat probleme majore de acuratețe. Enzenauer a folosit constant sistemul pentru a urmări articole de presă care menționau unitatea și pentru a face analize de sentiment, un proces care anterior era manual și consumator de timp.

„Totul era manual — cercetare, traducere, codare și analiză. Era cu mult mai lent decât acum cu AI-ul”, spune ea.

Totuși, au existat și dificultăți, în special legate de conexiunea slabă la internet de pe nave, ceea ce a limitat viteza cu care AI-ul putea analiza informațiile, în special cele multimedia.

Cu acest prim test încheiat, comandantul unității, colonelul Sean Dynan, a declarat în februarie că utilizarea AI-ului generativ se va intensifica; acest experiment a fost „doar vârful aisbergului.”

Aceasta este direcția clară în care se îndreaptă întreaga armată americană. În decembrie, Pentagonul a anunțat o investiție de 100 de milioane de dolari în următorii doi ani pentru proiecte pilot axate pe aplicații de AI generativă. Pe lângă Vannevar, și companii precum Microsoft și Palantir lucrează împreună la modele AI care vor utiliza date clasificate. (SUA nu este singura: Israelul folosește AI pentru sortarea informațiilor și generarea listelor de ținte în războiul din Gaza — o practică foarte criticată.)

Însă mulți avertizează asupra riscurilor. Heidy Khlaaf, cercetător principal în AI la AI Now Institute, atrage atenția asupra defectelor fundamentale ale tehnologiei: „Știm deja că modelele lingvistice mari sunt foarte inexacte, mai ales în aplicații critice unde este necesară precizia.”

Chiar dacă oamenii „verifică” AI-ul, spune ea, nu există garanția că pot depista fiecare greșeală. „Conceptul de ‘om în buclă’ nu este mereu o soluție reală”, subliniază. Atunci când AI-ul se bazează pe mii de puncte de date pentru a trage concluzii, „nu e realist ca un om să poată verifica tot pentru a identifica posibile erori.”

Un caz de utilizare care o îngrijorează în mod special este analiza sentimentului, o metrică extrem de subiectivă și dificil de evaluat chiar și de către oameni. Dacă AI-ul interpretează greșit un articol ca fiind ostil sau prietenos, deciziile militare ar putea fi profund afectate.

Philips recunoaște că analiza sentimentului nu este perfecționată, deși Vannevar a dezvoltat modele pentru a evalua dacă un articol este pro-SUA sau nu. MIT Technology Review nu a putut testa acuratețea acestora.

Chris Mouton, inginer senior la RAND, a testat capacitatea AI-ului generativ de a identifica conținut de propagandă. Deși modelele testate, inclusiv GPT-4 de la OpenAI, au avut dificultăți în a detecta formele mai subtile de propagandă, el consideră că AI-ul poate fi totuși util în alte tipuri de analiză.

Khlaaf mai susține că valoarea informațiilor din surse deschise este discutabilă. Mouton crede că aceste date pot fi „extraordinare”, dar amintește că, spre deosebire de informațiile clasificate, ele sunt vulnerabile la manipulare, dezinformare și rețele de boți — aspecte asupra cărora și armata SUA a avertizat.

Întrebarea majoră, spune Mouton, este dacă AI-ul va fi doar un instrument de sprijin pentru analiști sau va deveni un element central în luarea deciziilor. „Aceasta este dezbaterea esențială.”

Toți sunt însă de acord asupra unui lucru: modelele AI sunt accesibile — poți pur și simplu să le adresezi o întrebare despre informații complexe, iar ele vor răspunde într-un limbaj simplu. Întrebarea rămâne cât de multe imperfecțiuni vor fi tolerate în numele eficienței.

Total
0
Shares
Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Citește si...