Eliminarea completă a halucinațiilor AI rămâne un obiectiv imposibil / Ele fac parte din modul fundamental de funcționare al LLM-urilor

Inteligenta artificiala
Sursa foto: – / Wavebreak / Profimedia

Imaginați-vă un coleg de muncă care inventează referințe bibliografice pe loc, cu mare încredere. Acesta este AI-ul modern. Uneori este corect, alteori… creativ până la exagerare. GPT-5, cel mai recent model lansat de OpenAI, reduce aceste „halucinații”, dar oamenii de știință spun că eliminarea completă rămâne un obiectiv imposibil, subliniază Nature.

Urmărește cele mai noi producții video TechRider.ro

- articolul continuă mai jos -

Modelele lingvistice mari (LLM), precum GPT-5, funcționează ca niște detectivi statistici. Ele fac predicții bazate pe tipare învățate, nu pe cunoștințe absolute. Rezultatul? Uneori oferă răspunsuri plauzibile, dar complet false, inclusiv citări bibliografice fictive.

„În majoritatea cazurilor, rata halucinațiilor a scăzut la un nivel acceptabil pentru utilizatori”, spune Tianyang Xu, cercetător în AI la Purdue University. Totuși, în domenii complexe, AI-ul poate încă să se încurce.

Cum a îmbunătățit OpenAI GPT-5

OpenAI a lucrat la trei direcții principale:

  • Model mai mare, mai inteligent: LLM-urile au fost extinse pentru a procesa mai multe date și a forma mai multe asocieri.
  • Recunoașterea incertitudinii: GPT-5 învață să spună „nu știu” atunci când informația lipsește.
  • Acces la internet: Modelul poate verifica date actuale, reducând drastic inventarea de citări.

Saachi Jain, responsabil cu siguranța AI la OpenAI, explică: „Ne-am concentrat pe răspunsuri lungi și deschise, exact așa cum utilizatorii folosesc ChatGPT”.

Performanța GPT-5 în teste

  • ScholarQA-CS: GPT-5 a obținut 55% corectitudine la întrebări de informatică, ușor peste experții umani (54%).
  • LongFact: Halucinațiile au scăzut la 0,8% cu acces la web, comparativ cu 5,1% pentru un model anterior.
  • Fără internet: Citările fabricate au crescut, dar tot erau mai puține decât în versiunile anterioare.

AI-ul învață să fie „cinstit”

La sarcini imposibile, GPT-5 a pretins că a finalizat sarcina doar în 17% din cazuri, față de 47% pentru modelele precedente. Modelul a fost antrenat să fie onest și să reducă „încrederea excesivă” și tendința de a impresiona evaluatorii umani.

Lecția pentru utilizatori

Halucinațiile nu vor dispărea complet. Ele fac parte din modul fundamental de funcționare al LLM-urilor. Specialiștii recomandă utilizatorilor să trateze informațiile AI cu discernământ, și să verifice de fiecare dată sursele.

Mushtaq Bilal, cercetător la Silvi, subliniază: „Dacă ar fi fost posibil să eliminăm halucinațiile, laboratoarele AI ar fi făcut-o deja. Dar folosirea corectă a AI poate economisi timp și resurse uriașe”.

În concluzie, pentru lumea digitală de azi, în care inteligența artificială devine un partener zilnic, provocarea nu este doar ca AI-ul să fie corect, ci să ne învețe pe noi cum să judecăm corect informația.

  • George Radu este un autor care abordează subiecte variate din domeniul tehnologiei, apărării și viitorului. Domeniile sale de expertiză includ inteligența artificială etică, interfețele om-mașină (HMI), realitatea augmentată și virtuală aplicată (XR), precum și impactul social și cultural al noilor tehnologii. Nu se teme să pună întrebări dificile și să exploreze implicațiile filozofice ale inovațiilor tehnologice.

Total
0
Shares
Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Citește si...