OpenAI și-a revizuit recent cadrul de siguranță pentru modelele sale AI, renunțând însă la clasificarea manipulării în masă și dezinformării drept riscuri critice. Această schimbare de abordare a generat reacții diverse în comunitatea de experți în siguranța inteligenței artificiale.
În loc să evalueze modelele AI înainte de lansare din perspectiva potențialului lor de a influența sau manipula opinia publică, inclusiv în context electoral sau propagandistic, compania va încerca să gestioneze aceste riscuri prin termenii și condițiile de utilizare, monitorizarea ulterioară a modului de utilizare și interdicții specifice, informează Fortune.
OpenAI a anunțat că nu va mai evalua modelele sale de inteligență artificială înainte de lansare pentru riscuri legate de persuasiune sau manipulare, inclusiv posibilitatea influențării alegerilor sau a generării de campanii de propagandă eficiente.
În schimb, compania intenționează să gestioneze aceste riscuri prin reguli de utilizare specifice, precum interzicerea aplicării tehnologiei în campanii politice sau de lobby, și prin monitorizarea modului în care utilizatorii interacționează cu modelele AI după lansare, pentru a depista eventualele abateri.
De asemenea, OpenAI afirmă că ia în calcul lansarea unor modele considerate „cu risc ridicat”, atâta timp cât a aplicat măsuri de atenuare corespunzătoare. Compania nu exclude nici posibilitatea lansării unor modele considerate „cu risc critic” – o schimbare majoră față de politica anterioară, care interzicea lansarea oricărui model ce depășea pragul de „risc mediu” – în cazul în care un laborator concurent lansează deja un model similar.
Toate aceste modificări au fost incluse în actualizarea Cadrului de Pregătire („Preparedness Framework”), care detaliază modul în care OpenAI monitorizează modelele AI în curs de dezvoltare pentru a identifica pericole catastrofale – de la sprijinirea creării de arme biologice sau atacuri cibernetice, până la autoîmbunătățirea necontrolată a modelelor.
Comunitatea de experți în siguranța AI a avut reacții împărțite. Unii au lăudat OpenAI pentru transparență și pentru introducerea unor categorii de risc mai clare, precum și pentru accentul pus pe amenințări emergente, cum ar fi replicarea autonomă sau evitarea măsurilor de protecție.
Alții, însă, au exprimat îngrijorări. Steven Adler, fost cercetător OpenAI, a criticat faptul că noul cadru nu mai impune testarea modelelor ajustate fin (fine-tuned). „OpenAI își reduce angajamentele privind siguranța, pe furiș,” a scris el pe platforma X, deși a recunoscut că efortul de actualizare a fost considerabil și binevenit.
Shyam Krishna, expert în politici AI la RAND Europe, a observat că persuasiunea nu mai este tratată ca o categorie de risc de sine stătătoare, ci ar putea fi abordată ca o chestiune societală sau reglementară mai amplă ori integrată în ghidurile generale privind dezvoltarea și utilizarea modelelor.
Courtney Radsch, cercetătoare în etica AI la Brookings și alte centre de guvernanță digitală, a mers mai departe, numind noul cadru „un alt exemplu de aroganță în sectorul tehnologic”. Ea a atras atenția că ignorarea riscului de persuasiune poate avea consecințe grave pentru indivizi vulnerabili, cum ar fi copiii, persoane cu alfabetizare digitală redusă sau cetățeni din state autoritare.
Oren Etzioni, fost CEO al Allen Institute for AI și fondator TrueMedia – o platformă de combatere a conținutului manipulat de AI – a spus că este o greșeală subestimarea riscului de înșelăciune, în contextul în care modelele lingvistice devin din ce în ce mai convingătoare. „Pare că OpenAI este concentrat mai mult pe profit decât pe impactul social,” a declarat el.
Un alt cercetător în siguranță AI, care a preferat să rămână anonim, a declarat că este rezonabil ca riscurile de dezinformare să fie reglementate prin termeni de utilizare, întrucât este greu să fie evaluate înainte de lansare. Mai mult, astfel de riscuri sunt considerate mai ambigue decât cele asociate cu arme biologice sau atacuri cibernetice.
Este interesant faptul că și unii membri ai Parlamentului European au exprimat preocupări similare, după ce ultima versiune a codului de bune practici pentru aplicarea Actului european privind AI a retrogradat testarea obligatorie pentru dezinformare la o măsură opțională.
Deși capacitatea chatbot-urilor AI de a influența este demonstrată – cercetători de la Cornell și MIT au arătat că discuțiile cu AI pot reduce credința în teorii conspiraționiste – aceasta nu este, în sine, periculoasă.
Un alt punct controversat din noul cadru OpenAI este mențiunea: „Dacă un alt dezvoltator de AI lansează un sistem cu risc ridicat fără măsuri de protecție comparabile, ne putem ajusta cerințele.”
Gary Marcus, critic de lungă durată al OpenAI, a interpretat această frază drept un semnal că siguranța nu mai este prioritară. „Este o cursă spre fundul sacului,” a spus el. „Compania pare să se transforme într-o platformă de supraveghere cu scop comercial, nu un nonprofit orientat spre binele umanității.”
Pe de altă parte, Miranda Bogen, directoare a AI Governance Lab din cadrul Center for Democracy & Technology, a apreciat deschiderea companiei, dar a avertizat asupra riscului de a muta constant „porțile de acces”. Ea a criticat și faptul că OpenAI folosește termenul „model frontieră” într-un mod vag, pentru a evita publicarea rapoartelor de siguranță pentru modele recente, cum ar fi GPT-4.1, lansat fără astfel de documentație.
„Între lipsa de documentație și modelele lansate înainte de finalizarea evaluărilor promise, devine clar că angajamentele voluntare au limite serioase,” a concluzionat ea.