Cum încearcă Anthropic să prevină riscurile inteligenței artificiale

logo Anthropic
Sursa foto: Dreamstime

O echipă restrânsă, formată din doar nouă cercetători, lucrează la Anthropic, unul dintre cei mai importanți jucători din industria inteligenței artificiale, pentru a se asigura că tehnologia nu scapă de sub control, anunță TheVerge.

Urmărește cele mai noi producții video TechRider.ro

- articolul continuă mai jos -

Liderul grupului, Deep Ganguli, și-a început misiunea în mai 2020, când a realizat potențialul uriaș al modelului GPT-3 de la OpenAI. În acel moment, Ganguli și-a dat seama că dezvoltarea rapidă a AI poate avea implicații sociale enorme și a decis să contribuie la ghidarea responsabilă a tehnologiei.

Scopul? Să identifice „adevăruri incomode” pe care companiile tehnologice nu au interes să le publice

Împreună cu Jack Clark, fost director de politici la OpenAI, Ganguli a creat echipa de impact societal a Anthropic. Misiunea lor este clară, dar ambițioasă… să analizeze modul în care AI poate afecta societatea și să identifice „adevăruri incomode” pe care companiile tehnologice nu au interes să le publice. Echipa nu se limitează la riscuri evidente, cum ar fi utilizarea AI pentru fraude sau abuzuri. Scopul lor este să evalueze efectele mai subtile, de la impactul economic la influențarea alegerilor sau discriminarea implicită.

Cu doar nouă membri, echipa funcționează într-un mediu foarte apropiat, unde membrii lucrează, iau masa și se antrenează împreună, cee ce creează un climat de încredere care le permite să își exprime opiniile deschis. Ganguli subliniază că echipa trebuie să fie transparentă: „Publicul are dreptul să știe. Noi spunem adevărul pentru că este important și pentru a construi încrederea cu autoritățile și publicul”.

Clio, unul dintre cele mai semnificative proiecte dezvoltate de echipă

Unul dintre cele mai semnificative proiecte dezvoltate de echipă este Clio, un sistem de monitorizare care oferă informații despre modul în care oamenii folosesc Claude, chatbotul dezvoltat de Anthropic. Clio permite echipei să urmărească utilizarea platformei fără a încălca intimitatea utilizatorilor, și care poate oferi date valoroase pentru îmbunătățirea măsurilor de siguranță și ajustarea algoritmilor.

Prin Clio, echipa a descoperit, printre altele, utilizări nepotrivite ale platformei, precum crearea de conținut pornografic explicit sau rețele de boturi pentru spam SEO. Descoperirile au condus la implementarea unor măsuri suplimentare de detectare și monitorizare a abuzurilor, fapt care a consolidat sistemul de siguranță al companiei.

„Am fost surprins cât de transparente au devenit zonele în care sistemele noastre actuale nu erau suficiente”, a declarat Miles McCain, unul dintre proiectanții Clio. Între timp, Clio a devenit rapid o parte esențială a sistemului de monitorizare a siguranței Anthropic.

  • George Radu este un autor care abordează subiecte variate din domeniul tehnologiei, apărării și viitorului. Domeniile sale de expertiză includ inteligența artificială etică, interfețele om-mașină (HMI), realitatea augmentată și virtuală aplicată (XR), precum și impactul social și cultural al noilor tehnologii. Nu se teme să pună întrebări dificile și să exploreze implicațiile filozofice ale inovațiilor tehnologice.

Total
0
Shares
Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Citește si...