Inteligențele artificiale avansate dezvoltate de companii precum OpenAI, Anthropic sau Google au arătat în experimente recente că sunt dispuse să recurgă la arme nucleare în scenarii simulate de război, fără rezervele pe care le au oamenii.
Urmărește cele mai noi producții video TechRider.ro
- articolul continuă mai jos -
Cercetătorii de la King’s College London, conduși de Kenneth Payne, au pus trei dintre cele mai performante modele AI (GPT-5.2, Claude Sonnet 4 și Gemini 3 Flash) în situații simulate de criză internațională. Aceste scenarii includeau dispute teritoriale, competiție pentru resurse limitate și amenințări la adresa supraviețuirii guvernelor, afirmă New Scientist.
„Tabu-ul nuclear nu funcționează la fel pentru mașini ca pentru oameni”
AI-urile aveau la dispoziție o „scară de escaladare”, de la proteste diplomatice și capitulare, până la război nuclear total. În cele 21 de jocuri simulate, cu 329 de runde și aproape 780.000 de cuvinte de explicații, cel puțin o armă nucleară tactică a fost folosită în 95% dintre situații.
„Se pare că tabu-ul nuclear nu funcționează la fel pentru mașini ca pentru oameni”, explică Payne. Mai mult, AI-urile nu au ales niciodată să se predea sau să accepte înfrângerea; cel mult, au redus temporar nivelul de violență. În 86% dintre simulări au apărut accidente – decizii care au escaladat conflictul mai mult decât intenționau inițial.
AI-urile pot amplifica reacțiile reciproce cu consecințe catastrofale
Specialiștii avertizează că aceste rezultate sunt îngrijorătoare. James Johnson, de la University of Aberdeen, spune că, spre deosebire de oamenii care gestionează cu prudență deciziile nucleare, AI-urile pot amplifica reacțiile reciproce cu consecințe catastrofale.
Problema devine și mai serioasă având în vedere că statele din întreaga lume testează deja AI în simulările militare. Tong Zhao, de la Princeton University, explică faptul că deși marile puteri folosesc AI pentru simulări, nu este clar cât de mult este integrat în deciziile reale privind armele nucleare.
Zhao și Payne cred că, deocamdată, nicio țară nu va lăsa AI-ul să ia decizii finale privind armele nucleare. Totuși, în situații cu termene foarte scurte și presiune maximă, planificatorii militari ar putea fi tentați să se bazeze pe AI.
„AI-ul nu va decide războiul nuclear, dar poate influența percepțiile”
Un motiv pentru „refracția rapidă” a AI-urilor ar putea fi lipsa fricii umane: ele nu simt teama de distrugere sau consecințe. „Mai exact, AI-urile nu înțeleg ‘mizele’ așa cum o fac oamenii”, explică Zhao.
În ceea ce privește principiul distrugerii reciproce garantate, ideea că nimeni nu ar lansa un atac nuclear pentru că ar fi distrus imediat, impactul AI-urilor rămâne incert. Când un AI a folosit arme nucleare tactice, cel advers a redus tensiunea doar în 18% din cazuri. Johnson avertizează: „AI-ul nu va decide războiul nuclear, dar poate influența percepțiile și timpii în care liderii cred că o astfel de acțiune ar fi fezabilă.”
OpenAI, Anthropic și Google nu au oferit comentarii cu privire la acest studiu.