Oamenii și instituțiile se confruntă deja cu consecințele textelor generate de inteligența artificială. Profesorii vor să știe dacă lucrările elevilor reflectă propria lor înțelegere, iar consumatorii vor să știe dacă un anunț a fost redactat de un om sau de o mașină. Stabilirea unor reguli pentru utilizarea conținutului generat de AI este relativ ușoară. Aplicarea lor depinde însă de ceva mult mai dificil… detectarea fiabilă a textelor generate de inteligență artificială, anunță The Conversation.
Urmărește cele mai noi producții video TechRider.ro
- articolul continuă mai jos -
Studiile efectuate până în prezent arată că persoanele care utilizează frecvent instrumente AI pentru scris pot identifica destul de precis textele generate de mașini. Chiar și un grup de evaluatori umani poate depăși performanța uneltelor automate în condiții controlate. Problema este că această expertiză nu este răspândită, iar judecata individuală poate fi inconsistentă.
Pentru instituțiile care au nevoie de consistență la scară largă, singura opțiune viabilă sunt detectoarele automate de texte AI.
Cum funcționează detectoarele automate
Detectarea textelor generate de AI se bazează, de obicei, pe două metode principale. Prima metodă implică antrenarea unui algoritm de inteligență artificială să distingă textele scrise de oameni de cele create de mașini. Pentru asta, se colectează un număr mare de texte etichetate, care servește drept material de antrenament. Odată antrenat, detectorul poate analiza texte noi și poate spune dacă acestea seamănă mai mult cu exemplele umane sau cu cele AI.
A doua metodă folosește semnale statistice legate de modul în care anumite modele AI generează limbaj. De exemplu, dacă un model atribuie o probabilitate neobișnuit de mare unei secvențe exacte de cuvinte, aceasta poate indica faptul că textul provine chiar de la acel model. Această metodă este utilă dacă ai acces la modelul AI suspectat că a generat textul.
Există și o abordare mai nouă bazată pe watermarking. Anumite sisteme AI pot insera în text markeri subtili care permit verificarea ulterioară a originii. Cu cheia potrivită, se poate demonstra că textul provine de la un AI cu watermark activat. Problema este că acest sistem depinde de cooperarea furnizorilor de AI și nu este disponibil în toate cazurile.
Limitările detectării AI
Fiecare metodă are limitele ei. Detectoarele bazate pe învățare sunt sensibile la asemănarea textului cu datele de antrenament. Pe măsură ce apar noi modele AI, corpusurile devin rapid depășite, iar detectorul pierde precizie.
Metodele statistice depind de ipoteze legate de modul în care anumite modele generează texte sau de accesul la distribuțiile lor de probabilitate. Dacă modelele sunt proprietare, actualizate frecvent sau necunoscute, aceste ipoteze nu mai funcționează.
Watermarking-ul schimbă problema din detectare în verificare, dar depinde de cooperarea furnizorului și se aplică doar textelor generate cu această funcție activată.
Mai larg vorbind, detectarea textelor AI face parte dintr-o cursă continuă a înarmării. Instrumentele de detectare trebuie să fie publice pentru a fi utile, însă această transparență le face vulnerabile la tehnici de evitare. Pe măsură ce generatoarele AI devin mai capabile și mai sofisticate în evitarea detectării, detectoarele nu vor avea niciodată un avantaj permanent.
Ce înseamnă toate acestea pentru școli, instituții și societate
Problema detectării textelor AI este simplu de enunțat, dar aproape imposibil de rezolvat complet. Instituțiile nu se pot baza doar pe detectoare pentru a aplica regulile privind textele generate de inteligență artificială.
Pe măsură ce societatea se adaptează la AI generativ, normele privind utilizarea acceptabilă a conținutului creat de mașini și tehnicile de detectare se vor perfecționa. Totuși, va trebui să acceptăm un adevăr incomod… instrumentele nu vor fi niciodată perfecte..