Anthropic lansează un chatbot personalizat cu IA pentru activități secrete de spionaj
Anthropic a prezentat o nouă serie de modele AI specializate, concepute pentru clienții din domeniul securității naționale din SUA, potrivit TechCrunch.
Urmărește cele mai noi producții video TechRider.ro
- articolul continuă mai jos -
Compania a lansat modelele „Claude Gov”, create ca răspuns la feedback-ul direct al clienților guvernamentali, pentru a gestiona operațiuni precum planificarea strategică, analiza informațiilor și sprijinul operațional. Se pare că modelele personalizate sunt deja utilizate de agențiile de securitate națională din SUA, accesul fiind restricționat la persoanele care lucrează la agențiile de securitate.
Modelele Claude Gov diferă de ofertele Anthropic pentru consumatori și companii, numite tot Claude, în mai multe moduri. Acestea gestionează materiale secrete, „refuză mai puțin” atunci când interacționează cu informații de acest fel și sunt personalizate pentru a gestiona documente de informații și apărare.
Modelele dispun, de asemenea, de ceea ce Anthropic numește „competență îmbunătățită” în limbile și dialectele critice pentru operațiunile de securitate națională, precum și „o mai bună înțelegere și interpretare a datelor complexe de securitate cibernetică pentru analiza informațiilor”.
Anthropic afirmă că noile modele au fost supuse acelorași „teste de siguranță” ca toate modelele Claude. Compania a urmărit contracte guvernamentale în căutarea unor surse de venit fiabile, încheind în noiembrie un parteneriat cu Palantir și Amazon Web Services pentru a vinde instrumente de IA clienților din domeniul apărării.
Serviciile specializate de AI nu sunt ferite de confabulații
Anthropic nu este prima companie care oferă servicii specializate de chatbot pentru agențiile de informații. În 2024, Microsoft a lansat o versiune izolată a GPT-4 de la OpenAI pentru comunitatea de informații din SUA. Acest sistem, care funcționa pe o rețea specială rezervată guvernului, fără acces la internet, a devenit disponibil pentru aproximativ 10.000 de persoane din comunitatea de informații pentru testare și răspuns la întrebări.
Desigur, utilizarea modelelor de IA pentru analiza informațiilor ridică îngrijorări cu privire la confabulație, în care modelele generează informații care par plauzibile, dar sunt inexacte. Deoarece rețelele neuronale de IA funcționează pe baza probabilităților statistice, mai degrabă decât să funcționeze ca baze de date, acestea pot dezinforma agențiile de informații dacă nu sunt utilizate corect.
De exemplu, modelele pot produce rezumate sau analize convingătoare, dar incorecte, ale datelor sensibile, creând riscuri atunci când acuratețea este esențială pentru deciziile de securitate națională.
Concurența se intensifică pentru contractele de apărare în domeniul IA
Anthropic se alătură altor companii importante de IA care concurează pentru contracte guvernamentale lucrative. OpenAI lucrează la consolidarea relațiilor cu Departamentul Apărării al SUA, în timp ce Meta a pus recent la dispoziția partenerilor din domeniul apărării modelele sale Llama. Google dezvoltă o versiune a modelului său de IA Gemini care poate funcționa în medii clasificate. Compania de inteligență artificială Cohere colaborează, de asemenea, cu Palantir pentru a implementa modelele sale în scopuri guvernamentale.
Intrarea în domeniul apărării reprezintă o schimbare pentru unele companii de IA care anterior evitau aplicațiile militare. Aceste modele guvernamentale specializate necesită adesea capacități diferite față de instrumentele de IA destinate consumatorilor, inclusiv capacitatea de a procesa informații secretizate și de a lucra cu date sensibile din domeniul informațiilor fără a declanșa restricții de siguranță care ar putea bloca operațiunile guvernamentale legitime.