Un nou studiu ridică semne de întrebare în privința modului în care pot fi folosite instrumentele de inteligență artificială în cercetare sau în mediul de business. Deși răspunsurile par convingătoare la prima vedere, realitatea din spate este mai nuanțată, arată datele analizate de cercetători și citate de ScienceDaily, conform Mediafax.
Urmărește cele mai noi producții video TechRider.ro
- articolul continuă mai jos -
Cum a fost realizat studiul
Mai exact, echipa a pus ChatGPT la încercare cu peste 700 de ipoteze științifice, solicitând sistemului să spună dacă acestea sunt adevărate sau false. Pentru a testa consistența, fiecare întrebare a fost adresată de 10 ori, în condiții identice.
Rezultatele? Departe de a fi liniștitoare.
În prima rundă de teste, realizată în 2024, modelul a oferit răspunsuri corecte în 76,5% din cazuri. Un an mai târziu, în 2025, precizia a crescut ușor, până la 80%. La prima vedere, pare un progres. Însă lucrurile se schimbă atunci când cifrele sunt ajustate pentru a elimina efectul ghicirii aleatorii.
După această corecție, performanța reală a inteligenței artificiale a fost cu doar aproximativ 60% peste nivelul șansei — un rezultat pe care autorii îl compară mai degrabă cu o notă de trecere modestă decât cu un nivel ridicat de fiabilitate.
Unde apar problemele: erori și inconsistență
Problemele nu se opresc aici. De fapt, cele mai mari dificultăți au apărut tocmai acolo unde ar fi fost nevoie de mai multă rigoare: identificarea afirmațiilor false. În acest caz, ChatGPT a reușit să le eticheteze corect în doar 16,4% dintre situații.
La fel de îngrijorătoare este și lipsa de consecvență. Chiar și atunci când i s-a pus exact aceeași întrebare, de mai multe ori la rând, sistemul nu a oferit același răspuns.
„Nu vorbim doar despre acuratețe, vorbim despre inconsistență, pentru că dacă pui aceeași întrebare iar și iar, obții răspunsuri diferite”, a explicat Cicek, profesor asociat la Departamentul de Marketing și Afaceri Internaționale din cadrul Carson College of Business al WSU și autor principal al studiului.
Acesta detaliază experimentul: „Am folosit 10 solicitări cu exact aceeași întrebare. Totul era identic. Răspundea că este adevărat. Apoi, spune că este fals. Este adevărat, este fals, fals, adevărat. Au existat mai multe cazuri în care au fost cinci răspunsuri adevărate și cinci false”.
Ce concluzionează cercetătorii
Concluzia cercetătorilor este clară, chiar dacă nu surprinzătoare: inteligența artificială generativă poate produce texte fluente și credibile, dar nu demonstrează încă o înțelegere conceptuală profundă, mai ales atunci când vine vorba de raționamente complexe.
În acest context, specialiștii recomandă prudență. Informațiile generate de AI ar trebui verificate, mai ales în situațiile în care deciziile sunt importante sau sensibile. În paralel, devine esențială și educația utilizatorilor — înțelegerea limitărilor acestor sisteme este la fel de importantă ca utilizarea lor.
De altfel, autorii subliniază că rezultatele nu sunt un caz izolat. Teste similare realizate pe alte instrumente de inteligență artificială au dus la concluzii apropiate.
Mai mult, studiul se înscrie într-un context mai larg de reevaluare a entuziasmului față de AI. Un sondaj național realizat în 2024 arăta că consumatorii devin mai reticenți atunci când produsele sunt promovate excesiv prin prisma utilizării inteligenței artificiale.