Un nou studiu atrage atenția asupra unei vulnerabilități surprinzătoare a inteligenței artificiale: tendința de a aprecia texte lipsite de sens drept opere literare valoroase. Descoperirea ridică semne de întrebare serioase despre modul în care sunt dezvoltate și utilizate modelele de limbaj avansate.
Urmărește cele mai noi producții video TechRider.ro
- articolul continuă mai jos -
Cercetarea, realizată de academicianul german Christoph Heilig de la Universitatea Ludwig Maximilian din München, arată că modelele GPT dezvoltate de OpenAI pot fi ușor „păcălite” să acorde scoruri ridicate unor texte absurde, chiar și atunci când sunt activate funcțiile lor de raționament, informează TechXplore.
Modelele încep să acorde evaluări tot mai ridicate chiar și în cazul unor fraze lipsite de sens
Experimentul a pornit de la un text simplu, o scenă banală cu un bărbat care merge pe stradă în ploaie, și a evoluat treptat către variante tot mai elaborate și mai bizare. Prin introducerea unor termeni tehnici, referințe corporale sau elemente de atmosferă noir, cercetătorul a observat că modelele încep să acorde evaluări tot mai ridicate, chiar și în cazul unor fraze aproape complet lipsite de sens.
În unele situații, texte de tipul „fotoni care șoptesc rugăciuni într-un vid existențial” au fost considerate de AI drept exemple de calitate literară, ceea ce sugerează o sensibilitate problematică la complexitatea aparentă a limbajului, în detrimentul sensului real.
Fenomenul nu se limitează doar la evaluarea textelor
Studiul arată că inserarea unor elemente de „nonsens” într-un argument poate influența și modul în care AI judecă validitatea acestuia, ceea ce ridică riscuri suplimentare în contexte sensibile, precum analiza informațiilor sau evaluarea academică.
„Pe măsură ce dezvoltăm agenți AI tot mai autonomi și încercăm să le insuflăm criterii estetice sau morale umane, există riscul ca aceștia să devină, paradoxal, mai puțin raționali din perspectiva noastră”, avertizează Heilig.
Problema ar putea fi amplificată de o tendință emergentă din industrie: utilizarea inteligenței artificiale pentru a evalua alte sisteme AI. În acest scenariu, erorile și biasurile ar putea fi propagate și chiar amplificate de la o generație la alta de modele.
Implicațiile practice sunt îngrijorătoare
Deși studiul nu a fost încă validat prin peer-review, el a atras deja atenția unor experți din domeniu. Henry Shevlin, cercetător la Universitatea Cambridge, consideră că fenomenul nu este complet surprinzător, subliniind că și inteligența umană este predispusă la biasuri și puncte oarbe.
Cu toate acestea, implicațiile practice sunt îngrijorătoare. În sisteme unde supravegherea umană este redusă, cum ar fi evaluarea automată a lucrărilor științifice sau filtrarea conținutului, astfel de vulnerabilități ar putea fi exploatate cu ușurință.