Startup-ul american de inteligență artificială Anthropic a deschis un proces împotriva administrației conduse de Donald Trump, contestând decizia Pentagonului de a include compania pe o listă specială a entităților considerate „risc pentru lanțul de aprovizionare”.
Urmărește cele mai noi producții video TechRider.ro
- articolul continuă mai jos -
Acțiunea a fost depusă luni la Tribunalul Districtual al SUA pentru Districtul de Nord al Californiei. În documentele depuse la instanță, compania susține că măsura este „fără precedent și ilegală” și că produce deja efecte serioase asupra afacerii sale.
Potrivit plângerii, impactul economic ar putea fi uriaș.
„Contractele Anthropic cu guvernul federal sunt deja anulate. Contractele actuale și viitoare cu parteneri privați sunt, de asemenea, puse sub semnul întrebării, ceea ce pune în pericol venituri de sute de milioane de dolari pe termen scurt”, se arată în documentul depus în instanță.
Compania mai susține că decizia afectează nu doar afacerile sale, ci și reputația și libertățile constituționale.
„Pe lângă aceste prejudicii economice imediate, reputația Anthropic și libertățile fundamentale garantate de Primul Amendament sunt atacate. În absența unei intervenții judiciare, aceste prejudicii se vor amplifica în săptămânile și lunile următoare”, afirmă compania în același document.
Conflictul cu Pentagonul
Procesul apare după aproape două săptămâni de tensiuni tot mai vizibile între Anthropic și administrația Trump, disputa fiind legată de modul în care modelele de inteligență artificială ale companiei ar putea fi utilizate în operațiuni militare.
Situația a escaladat la sfârșitul lunii trecute, când administrația americană a început să ridice public semne de întrebare privind utilizarea tehnologiei companiei.
Înainte de acest conflict, Anthropic fusese însă unul dintre primii parteneri ai mai multor agenții guvernamentale americane. Guvernul SUA încerca să accelereze modernizarea sistemelor sale informatice prin integrarea unor soluții AI de ultimă generație.
Lucrurile s-au schimbat rapid.
Joia trecută, compania a confirmat că a fost desemnată oficial drept „supply chain risk”, o clasificare extrem de rară care, în mod tradițional, a fost aplicată mai ales unor companii sau entități din state considerate adversare ale Statelor Unite.
Consecințele sunt semnificative. Furnizorii și contractorii din domeniul apărării trebuie acum să certifice că nu folosesc modelele de inteligență artificială ale Anthropic — cunoscute sub numele Claude — în proiectele lor cu Pentagonul.
Mesajul lui Donald Trump
Disputa a căpătat rapid și o dimensiune politică.
Luna trecută, președintele american Donald Trump a publicat pe rețelele sociale un mesaj în care le cerea agențiilor federale să oprească imediat utilizarea tehnologiei Anthropic.
„NOI vom decide soarta țării noastre — NU o companie AI radicală de stânga scăpată de sub control, condusă de oameni care nu au nicio idee despre cum arată lumea reală”, a scris Trump.
Anthropic cere acum instanței să anuleze desemnarea drept „risc pentru lanțul de aprovizionare” și să suspende aplicarea acestei măsuri până la finalizarea procesului.
Contract de 200 de milioane de dolari cu armata SUA
Ironia situației este că relația dintre companie și Departamentul Apărării fusese, până recent, una foarte strânsă.
În iulie, Anthropic a semnat un contract în valoare de 200 de milioane de dolari cu Departamentul Apărării al SUA și a devenit primul laborator de inteligență artificială care și-a implementat tehnologia în rețelele clasificate ale agenției.
Negocierile pentru continuarea colaborării au intrat însă în impas.
Potrivit documentelor din instanță, Pentagonul dorea acces complet la modelele AI ale companiei pentru „toate scopurile legale”. Anthropic, în schimb, cerea garanții că tehnologia sa nu va fi folosită pentru arme complet autonome sau pentru supraveghere internă în masă.
În paralel cu procesul actual, compania a cerut și o revizuire formală a deciziei Departamentului Apărării la Curtea de Apel a SUA din Washington D.C.
Modelele AI au fost folosite în operațiunea militară din Iran
Situația devine și mai complicată din cauza faptului că tehnologia Anthropic ar fi fost deja utilizată în operațiuni militare.
Modelele AI ale companiei au sprijinit operațiunea militară americană din Iran chiar și după ce Anthropic fusese inclusă pe lista neagră, potrivit unor informații publicate anterior de CNBC.
„Faptul că solicităm o revizuire judiciară nu schimbă angajamentul nostru de lungă durată de a folosi inteligența artificială pentru a proteja securitatea națională, însă acesta este un pas necesar pentru a ne proteja afacerea, clienții și partenerii”, a declarat un purtător de cuvânt al Anthropic pentru CNBC.
„Vom continua să căutăm toate căile de rezolvare a situației, inclusiv dialogul cu guvernul.”
De partea cealaltă, Departamentul Apărării a refuzat să comenteze cazul.
Procesul vizează mai mult de o duzină de agenții federale, inclusiv Departamentul Apărării, Departamentul Trezoreriei, Departamentul de Stat și Administrația pentru Servicii Generale.
În finalul plângerii depuse în instanță, compania avertizează asupra impactului potențial al acestei decizii.
„Consecințele acestui caz sunt enorme”, se arată în document. „Pârâții încearcă să distrugă valoarea economică creată de una dintre companiile private cu cea mai rapidă creștere din lume, care este lider în dezvoltarea responsabilă a unei tehnologii emergente de importanță vitală pentru națiunea noastră.”