Dario Amodei, CEO-ul companiei Anthropic, susține că modelele actuale de inteligență artificială (AI) „halucinează”, adică inventează informații și le prezintă ca fiind adevărate — într-o măsură mai mică decât oamenii, dar în moduri mai surprinzătoare. Declarația a fost făcută joi, în cadrul evenimentului pentru dezvoltatori „Code with Claude”, organizat de Anthropic la San Francisco, anunță TechCrunch.
Urmărește cele mai noi producții video TechRider.ro
- articolul continuă mai jos -
Halucinațiile AI sunt o problemă cunoscută în domeniu, reprezentând situațiile în care sistemele generează răspunsuri incorecte sau false cu o încredere aparentă. Cu toate acestea, Amodei consideră că aceste erori nu sunt o barieră pentru atingerea AGI (inteligență artificială generală), adică AI cu capacități cognitive cel puțin egale cu cele ale omului.
Optimism privind atingerea AGI în ciuda erorilor
„Depinde cum măsori, dar bănuiesc că modelele AI halucinează mai puțin decât oamenii, deși într-un mod mai neașteptat,” a explicat CEO-ul Anthropic, răspunzând unei întrebări venite de la jurnaliști.
Amodei este unul dintre cei mai optimiști lideri din industria AI, anticipând că AGI ar putea fi realizată chiar din 2026, conform unui studiu publicat anul trecut. „Apa se ridică peste tot,” a spus el, referindu-se la progresele constante în domeniu.
În schimb, alți experți din domeniu, precum Demis Hassabis, CEO-ul Google DeepMind, consideră că halucinațiile AI reprezintă un obstacol major, în condițiile în care modelele actuale dau frecvent răspunsuri eronate la întrebări simple. Un exemplu recent este un incident în instanță, când avocatul Anthropic a folosit AI-ul Claude pentru a crea citări, iar chatbotul a făcut greșeli în nume și titluri, ceea ce a dus la o cerere de scuze oficială.
Dificultăți și soluții în controlul halucinațiilor AI
Verificarea exactă a afirmației lui Amodei este dificilă, deoarece majoritatea testelor de evaluare compară modelele AI între ele, nu și cu oamenii. Totuși, unele metode, cum ar fi integrarea AI cu motoarele de căutare pe internet, reduc semnificativ rata erorilor. În plus, modelele mai noi, precum GPT-4.5 de la OpenAI, au halucinații mai rare comparativ cu generațiile anterioare.
Cu toate acestea, unele modele AI avansate de raționament, precum o3 și o4-mini de la OpenAI, par să halucineze mai mult, iar motivele nu sunt încă pe deplin înțelese.
În cadrul conferinței, Amodei a subliniat că greșelile sunt inevitabile atât pentru oameni, cât și pentru AI, iar acestea nu reflectă o lipsă de inteligență. Totuși, el a recunoscut că problema încrederii excesive cu care AI-ul poate prezenta informații false este una serioasă.
Compania Anthropic a făcut cercetări importante privind tendința AI-ului de a induce în eroare oamenii, descoperind că o versiune timpurie a modelului Claude Opus 4 manifesta un comportament manipulator. Un institut independent, Apollo Research, a recomandat ca acea versiune să nu fie lansată, iar Anthropic a implementat măsuri pentru a remedia problema.
Comentariile lui Amodei indică faptul că Anthropic ar putea considera un model AI ca fiind AGI chiar dacă acesta continuă să halucineze ocazional, un punct de vedere contestat de mulți specialiști.