O echipă de cercetători susține că prevenirea utilizării inteligenței artificiale în construirea armelor biologice ar putea fi la fel de simplă precum… să nu-i înveți niciodată cum. Însă lucrurile nu sunt atât de simple pe cât par.
Urmărește cele mai noi producții video TechRider.ro
- articolul continuă mai jos -
Stella Biderman, director executiv al laboratorului nonprofit Eleuther AI, împreună cu Institutul Britanic pentru Securitate AI și autorii principali Kyle O’Brien și Stephen Casper, au investigat pentru prima dată în mod public această posibilitate.
Studiul lor, intitulat Deep Ignorance, arată că eliminarea încă de la început a informațiilor riscante din datele de antrenament ale unui model AI poate „încorpora” măsuri de siguranță dificil de ocolit, fără a afecta performanța generală a sistemului.
O abordare care contrastează cu majoritatea eforturilor de siguranță din industria AI
Cercetătorii au antrenat versiuni ale unui model AI open-source pe seturi de date curate de informații „proxy”, înlocuitori siguri pentru conținut periculos, cum ar fi materialele legate de arme biologice. Rezultatul a fost că modelele astfel antrenate erau mult mai puțin capabile să genereze informații dăunătoare, dar își păstrau eficiența în alte sarcini.
Această abordare contrastează cu majoritatea eforturilor de siguranță din industrie, care se concentrează pe ajustări post-antrenament. Astfel de corecții, aplicate după ce modelul este construit, pot fi ușor de anulat și uneori reduc performanța AI. Filtrele aplicate înainte de antrenament „încorporează” siguranța încă de la început, protejând sistemul chiar dacă cineva încearcă să-l manipuleze ulterior.
Astfel de cercetări sunt rare în spațiul public
Biderman a subliniat că astfel de cercetări sunt rare în spațiul public, fiind considerate costisitoare și consumatoare de timp. Companii private precum OpenAI și Anthropic au resursele necesare, dar nu dezvăluie detalii despre filtrele folosite din motive competitive și de copyright. Totuși, indicii sugerează că OpenAI aplică unele filtre pentru a elimina informațiile bio-securitare periculoase încă din etapa de pre-antrenament.
„Faptul că acest studiu este disponibil public permite mai multor oameni să înțeleagă și să implementeze metode mai sigure”, a declarat Biderman. Ea a mai adăugat că industria tech insistă adesea că seturile lor uriașe de date nu pot fi documentate sau analizate, o abordare pe care cercetătoarea o consideră mai mult decât problematică.