Inteligența artificială se îndoiește de sine. Un nou studiu dezvăluie limitele încrederii modelelor de limbaj

Inteligență artificială
Sursa foto: Freepik

Un studiu recent realizat de cercetători de la Google DeepMind și University College London ridică semne de întrebare cu privire la modul în care modelele mari de limbaj (LLMs), cum sunt cele folosite în inteligența artificială, își formează și ajustează încrederea în propriile răspunsuri, anunță TechXplore.

Urmărește cele mai noi producții video TechRider.ro

- articolul continuă mai jos -

Departe de imaginea unei logici reci și infailibile, aceste sisteme pot ezita, pot renunța la răspunsuri corecte și pot fi influențate de sfaturi externe, chiar și atunci când acestea sunt greșite.

Modele inteligente, dar ezitante

LLM-urile sunt sisteme AI sofisticate, antrenate să înțeleagă și să genereze limbaj uman, folosite deja în sectoare critice precum finanțele, sănătatea și tehnologia informației. Fiabilitatea lor este esențială, iar încrederea în răspunsurile generate, crucială.

Cu toate acestea, cercetarea arată că aceste modele pot deveni nesigure în fața unor contraargumente și pot ceda presiunii, schimbându-și decizia chiar și atunci când au avut inițial dreptate.

Test: cum reacționează AI la sfaturi externe

Pentru a înțelege acest comportament, cercetătorii au pus la încercare modul în care LLM-urile își actualizează nivelul de încredere. Experimentul a fost simplu, dar revelator: un model AI a primit o întrebare cu două variante de răspuns.

După alegerea uneia, a primit un sfat din partea unui al doilea model, însoțit de un „scor de încredere”. Acest sfat putea să confirme, să contrazică sau să fie neutru față de prima alegere. În final, modelul era întrebat dacă dorește să își păstreze sau să își schimbe răspunsul.

Rezultatele au fost surprinzătoare. Modelele tind să rămână mai ferm pe poziție atunci când își pot vedea răspunsul inițial. Dacă însă acest răspuns este ascuns, ele ezită mai ușor și sunt mai dispuse să accepte sfatul primit, mai ales dacă este contradictoriu. Altfel spus, AI-ul devine mai puțin sigur pe el în lipsa unei „ancore” mentale. Această dinamică a fost observată în mai multe modele, inclusiv Gemma 3, GPT-4o și o1-preview.

Biasuri umane în mintea artificială

„LLM-urile prezintă un bias clar de susținere a alegerii inițiale, ceea ce le determină să își păstreze răspunsul chiar și atunci când apar dovezi contrare”, notează autorii studiului. „În același timp, atunci când primesc informații noi, reacționează într-un mod suboptimal, acordând prea multă greutate sfaturilor care le contrazic.”

Cu alte cuvinte, modelele de inteligență artificială au un comportament mult mai apropiat de cel uman decât s-ar fi crezut: pot fi influențate, au preferințe și chiar o formă de „memorie afectivă” legată de alegerile lor anterioare.

De ce contează aceste descoperiri

În condițiile în care LLM-urile sunt deja integrate în servicii publice, în aplicații medicale sau în instrumente de analiză financiară, înțelegerea acestor mecanisme devine vitală. Dacă un model poate fi convins să renunțe la un răspuns corect doar pentru că a fost contrazis, fie și de un sfat greșit, apare o problemă majoră de fiabilitate.

Mai mult, în conversațiile lungi cu utilizatorii, ultimele informații introduse pot influența disproporționat decizia finală a AI-ului, în detrimentul unui raționament coerent și susținut.

Inteligența artificială nu este infailibilă

Deși capabilă de performanțe uimitoare, ea reflectă în mod subtil limitele propriei arhitecturi. Studiul semnat de echipa de la Google DeepMind oferă un avertisment important: înainte de a lăsa deciziile critice în mâinile mașinilor, trebuie să le înțelegem mai bine, nu doar din punct de vedere tehnic, ci și psihologic. AI-ul poate fi logic, dar nu întotdeauna sigur pe sine. Iar asta schimbă regulile jocului.

  • TechRider este o redacție dinamică, specializată în știri și analize despre tehnologie, gadgeturi și inovații. Echipa sa de jurnaliști pasionați oferă conținut relevant și actualizat, acoperind subiecte de la inteligența artificială la recenzii de produse, într-un stil accesibil și captivant pentru publicul român.

Total
0
Shares
Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Citește si...