Anthropic vrea să angajeze un expert în arme pentru a preveni „utilizarea abuzivă catastrofală” a inteligenței artificiale

anthropic-ai
ID 365808245 © Simon Lehmann | Dreamstime.com

Compania americană de inteligență artificială Anthropic intenționează să angajeze un specialist în arme chimice și explozivi de mare putere, inclusiv în dispozitive de dispersie radiologică („bombe murdare”), pentru a ajuta la prevenirea „utilizării abuzive catastrofale” a propriului software de IA, potrivit unei oferte de angajare publicate pe LinkedIn, relatează BBC.

Urmărește cele mai noi producții video TechRider.ro

- articolul continuă mai jos -

Scopul este ca un expert real să verifice și să consolideze măsurile de protecție astfel încât sistemele companiei să nu poată oferi informații periculoase despre fabricarea sau utilizarea armelor.

În anunț, Anthropic specifică că persoana căutată trebuie să aibă cel puțin cinci ani de experiență în apărarea împotriva armelor chimice și/sau a explozivilor și cunoștințe despre dispozitivele de dispersie radiologică.

Compania spune că rolul este similar cu alte posturi sensibile deja create pentru a gestiona riscurile asociate tehnologiilor puternice.

Această mișcare vine pe fondul unei preocupări mai largi din industrie privind potențialele abuzuri ale tehnologiei IA, în special în contexte de securitate sau război, unde sisteme precum modelul lingvistic Claude sunt deja folosite în aplicații critice.

Claude este o serie de modele de limbaj dezvoltate de Anthropic și folosite pe scară largă în diferite domenii, inclusiv în proiecte de analiză și planificare, dar compania a refuzat să permită utilizarea sa pentru supraveghere masivă sau arme complet autonome, ceea ce a generat tensiuni cu autoritățile americane de securitate.

Alte firme din domeniu adoptă strategii similare: de exemplu, OpenAI caută experți în riscuri biologice și chimice cu salarii foarte mari, pentru a aborda posibilele pericole ale IA.

Însă această abordare ridică îngrijorări în rândul unor specialiști, care avertizează că oferirea instrumentelor de IA informații despre arme, chiar în scopuri de prevenire, poate fi riscantă dacă aceste cunoștințe sunt accesibile modelelor.

Problema capătă un caracter și mai urgent în contextul în care guvernul SUA recurge la companiile de IA în timp ce desfășoară operațiuni militare, inclusiv în conflictul din Iran și alte teatre de operațiuni.

Relația dintre Anthropic și Departamentul Apărării al SUA a devenit tensionată: compania a dat în judecată Pentagonul după ce a fost desemnată un „risc pentru lanțul de aprovizionare”, după ce a refuzat să elimine restricțiile privind utilizarea tehnologiei sale în arme autonome sau supraveghere internă, argumentând că tehnologia nu este încă suficient de sigură pentru astfel de scopuri.

Deși Claude nu a fost eliminat complet din sistemele militare și este în continuare utilizat prin parteneriate, cum ar fi integrarea în produsele Palantir Technologies, disputa cu autoritățile militare reflectă dilema mai largă privind rolul și limitele IA în securitate și conflicte, pe măsură ce tehnologia devine tot mai sofisticată și puternică în domenii critice.

În ansamblu, demersurile Anthropic de a întări măsurile de siguranță prin expertiză specializată reflectă o recunoaștere a faptului că tehnologiile avansate de IA pot avea atât beneficii enorme, cât și riscuri semnificative, în special dacă sunt utilizate în moduri care ar putea produce daune la scară largă.

  • Ștefan Munteanu este un jurnalist specializat în domenii variate precum tehnologie, inteligență artificială, securitate cibernetică și apărare. Articolele sale acoperă noutățile din industrie, analize și impactul tehnologiei asupra societății. El este pasionat de inovațiile digitale și are un interes puternic pentru cele mai recente evoluții geopolitice.

Total
0
Shares
Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Citește si...