Capcana pe care Anthropic și‑a construit‑o singură

Dario Amodei, CEO Anthropic
Dario Amodei, Credit foto: David Dee Delgado / Getty images / Profimedia

Compania americană de inteligență artificială Anthropic se află într‑o poziție dificilă după ce relația sa cu Pentagonul s‑a deteriorat brusc.

Urmărește cele mai noi producții video TechRider.ro

- articolul continuă mai jos -

Într‑un interviu publicat pe TechCrunch, filozoful și cercetătorul Max Tegmark spune că problema actuală reflectă o situație pe care compania însăși, alături de alte firme mari din domeniu, a contribuit la crearea ei prin deciziile strategice din trecut.

În urmă cu câteva zile, administrația americană condusă de președintele Trump a ordonat încheierea imediată a tuturor contractelor federale cu Anthropic, după ce compania a refuzat să permită utilizarea tehnologiei sale AI de către Departamentul Apărării fără restricții pentru supraveghere în masă sau pentru sisteme autonome de armament.

Citește și: Conflict fără precedent în SUA: Trump interzice agențiilor federale să folosească modele AI de la Anthropic / Compania amenință cu un proces dur

Ca urmare, Anthropic ar putea pierde un contract de până la aproximativ 200 de milioane de dolari și riscă să fie exclusă de la alte colaborări cu contractorii militari. Compania a anunțat că va contesta decizia în instanță.

Tegmark subliniază că Anthropic și alte companii din domeniu, precum OpenAI, Google DeepMind sau xAI, și‑au construit reputația pe promisiuni de siguranță, dar în același timp s‑au opus reglementării externe stricte și au mizat pe autoreglare.

Consecința, spune el, este că astăzi nu există reguli clare și aplicabile care să le protejeze sau să le ghideze acțiunile în fața unor situații precum cea prin care trece Anthropic acum.

Citește și: OpenAI bate palma cu Pentagonul, după ce Trump a interzis Anthropic în agențiile federale

Un element central al criticii lui Tegmark este faptul că, recent, Anthropic a renunțat chiar la o parte semnificativă din angajamentul său privind siguranța, promițând anterior că nu va lansa versiuni tot mai puternice ale sistemelor sale AI decât dacă există certitudinea că acestea nu vor provoca daune.

Această schimbare de poziție a alimentat percepția că firmele din acest sector nu respectă promisiunile publice atunci când intră în conflict cu presiunile comerciale sau politice.

Tegmark spune că, în lipsa unui cadru de reglementare solid, companiile de AI au mai mult de pierdut decât de câștigat atunci când încearcă să impună propriile limite, iar situația curentă a Anthropic este un exemplu al „capcanei” create de industria însăși: aceea de a promite siguranță fără a cere sau impune reguli externe obligatorii.

Citește și: SUA au folosit Claude, AI-ul dezvoltat de Anthropic, în atacurile împotriva Iranului

  • Ștefan Munteanu este un jurnalist specializat în domenii variate precum tehnologie, inteligență artificială, securitate cibernetică și apărare. Articolele sale acoperă noutățile din industrie, analize și impactul tehnologiei asupra societății. El este pasionat de inovațiile digitale și are un interes puternic pentru cele mai recente evoluții geopolitice.

Total
0
Shares
Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Citește si...