Conflictul dintre Statele Unite, Israel și Iran scoate în prim-plan rolul tot mai important al inteligenței artificiale (AI) în război. Cu doar o zi înainte de începerea ofensivei comune pe 28 februarie, guvernul american a suspendat unul dintre principalii săi furnizori de AI, Anthropic, în contextul unui conflict care evidențiază dilemele etice privind utilizarea acestei tehnologii, informează prestigioasa revistă Nature.
Urmărește cele mai noi producții video TechRider.ro
- articolul continuă mai jos -
În această săptămână, cercetători și experți juridici s-au întâlnit la Geneva, Elveția, pentru a discuta despre arme autonome letale și achiziția AI în sectorul militar, în cadrul eforturilor internaționale de a stabili norme legale și etice privind folosirea AI în război.
„Dezvoltarea rapidă a tehnologiilor depășește discuțiile internaționale, iar lipsa unor reglementări stricte indică o proliferare iminentă a războiului AI”, a declarat Craig Jones, profesor la Universitatea Newcastle, Marea Britanie, specialist în geografie politică și țintire militară.
AI pe câmpul de luptă
Armata americană folosește AI bazată pe modele lingvistice mari (LLM) pentru suport logistic, colectarea și analiza informațiilor, precum și pentru sprijin decizional în operațiuni. Sistemul Maven Smart System, care utilizează AI pentru procesarea imaginilor și suport tactic, accelerează identificarea și prioritizarea țintelor, și a fost folosit inclusiv în atacurile asupra Iranului.
Deși AI ar putea teoretic să reducă victimele civile, experiențele recente din Ucraina și Gaza, unde AI a asistat în identificarea țintelor și navigarea dronelor, au arătat însă pierderi civile semnificative, avertizează experții.
Controverse privind armele autonome
Utilizarea AI pentru arme letale autonome fără supraveghere umană rămâne extrem de controversată. Legislația internațională cere ca armele să poată distinge între ținte militare și civile, iar sistemele complet autonome bazate pe AI nu sunt încă fiabile și nu respectă aceste norme.
Dezacordurile recente dintre Departamentul de Război al SUA și compania de AI Anthropic au apărut din cauza cerințelor legate de utiatând riscul folosirii tehnologiei pentru supraveghere în masă sau arme autonome. După acest conflict, guvernul american a semnat un contract cu OpenAI, care garantează că tehnologia nu va fi folosită pentru supraveghere sau arme autonome.
Îngrijorări și apeluri la reglementare
Angajații Google și OpenAI au lansat petiții prin care solicită ca modelele lor AI să nu fie folosite pentru supraveghere în masă sau pentru uciderea automată a oamenilor fără control uman.
Politologul Toni Erskine, de la Universitatea Națională Australiană, avertizează, de asemenea, că armele autonome complet AI sunt „etic inacceptabile și ar trebui interzise internațional”, iar chiar și sistemele non-autonome necesită reglementare.
Eforturi internaționale
Există mai multe inițiative pentru a stabili norme internaționale privind AI în război, dar progresele sunt limitate de reticența principalilor actori, inclusiv SUA, Israel și China. O posibilă regulă împotriva armelor autonome ar putea fi introdusă prin Convenția asupra anumitor arme convenționale (CCW). La Geneva, experții au discutat și un raport al Institutului Internațional de Cercetare pentru Pace din Stockholm (SIPRI), care subliniază importanța aplicării principiilor de responsabilitate încă din faza de contractare a tehnologiilor AI militare.
Pentru specialistul în securitate cibernetică Herbert Lin, de la Stanford University – Center for International Security and Cooperation, definirea și reglementarea sistemelor letale autonome AI este extrem de complicată, iar lumea este încă „foarte departe de un acord formal privind utilizarea legală a AI în război”.