Asistenţii AI prezintă în mod eronat conţinutul ştirilor în aproape jumătate dintre răspunsurile lor, conform unui nou studiu publicat miercuri de Uniunea Europeană de Radio şi Televiziune (EBU) şi BBC, transmite Reuters, potrivit Agerpres.
Urmărește cele mai noi producții video TechRider.ro
- articolul continuă mai jos -
Cercetarea internaţională a studiat 3.000 de răspunsuri la întrebări referitoare la ştiri oferite de importanţi asistenţi AI – aplicaţii software care utilizează inteligenţa artificială pentru a înţelege comenzile în limbaj natural cu scopul de a îndeplini sarcini pentru un utilizator.
Studiul a evaluat, în 14 limbi, acurateţea, sursele şi capacitatea de a distinge opinia de fapt a asistenţilor AI, printre care ChatGPT, Copilot, Gemini şi Perplexity.
Potrivit rezultatelor, 45% dintre răspunsurile AI studiate conţineau cel puţin o problemă semnificativă, iar 81% conţineau o problemă de o anumită formă.
Reacţia companiilor şi exemple de erori
Reuters a contactat companiile pentru a le solicita comentarii cu privire la aceste concluzii.
Gemini, asistentul AI al Google, a declarat anterior pe site-ul său că apreciază feedback-ul, astfel încât să poată continua să îmbunătăţească platforma şi să o facă mai utilă pentru utilizatori.
OpenAI şi Microsoft au declarat anterior că halucinaţiile – atunci când un model AI generează informaţii incorecte sau înşelătoare, adesea din cauza unor factori precum date insuficiente – reprezintă o problemă pe care încearcă să o rezolve.
Perplexity afirmă pe site-ul său că unul dintre modurile sale „deep research” are o acurateţe de 93,9% în ceea ce priveşte factualitatea.
O treime dintre răspunsurile asistenţilor AI au prezentat erori grave de sursă, cum ar fi atribuiri care ori lipseau, ori erau înşelătoare sau incorecte, potrivit studiului.
Aproximativ 72% din răspunsurile Gemini, asistentul AI al Google, au prezentat probleme semnificative legată de sursă, comparativ cu sub 25% în cazul celorlalţi asistenţi, se precizează în studiu.
Probleme de acurateţe şi impact asupra utilizatorilor
Au fost constatate probleme de acurateţe în 20% dintre răspunsurile tuturor asistenţilor AI studiaţi, inclusiv informaţii perimate, se arată în cercetare.
Printre exemplele citate în studiu se numără faptul că Gemini a indicat în mod incorect modificările aduse unei legi privind ţigările electronice de unică folosinţă şi faptul că ChatGPT l-a prezentat pe papa Francisc drept actualul papă, la câteva luni după moartea acestuia.
La studiu au participat 22 de organizaţii mass-media de serviciu public (PSM) din 18 ţări – Belgia (RTBF, VRT), Canada (CBC-Radio Canada), Republica Cehă (Czech Radio), Finlanda (YLE), Franţa (Radio France), Georgia (GPB), Germania (ARD, ZDF, Deutsche Welle), Italia (Rai), Lituania (LRT), Ţările de Jos (NOS/NPO), Norvegia (NRK), Portugalia (RTP), Spania (RTVE), Suedia (SVT), Elveţia (SRF), Ucraina (Suspilne), Regatul Unit (BBC) şi SUA (NPR), potrivit site-ului EBU.
Încrederea publicului şi recomandările studiului
Având în vedere că asistenţii AI înlocuiesc din ce în ce mai mult motoarele de căutare tradiţionale pentru ştiri, încrederea publicului ar putea fi subminată, a afirmat EBU.
„Când oamenii nu ştiu în ce să aibă încredere, ajung să nu mai aibă încredere în nimic, iar acest lucru poate descuraja participarea democratică”, a declarat Jean Philip De Tender, directorul media al EBU, citat într-un comunicat.
Aproximativ 7% din totalul consumatorilor de ştiri online şi 15% din cei cu vârsta sub 25 de ani utilizează asistenţi AI pentru a se informa, potrivit raportului Reuters Institute Digital News Report 2025.
Noul raport îndeamnă la responsabilizarea companiilor din domeniul AI, astfel încât acestea să îşi îmbunătăţească modul în care asistenţii lor AI răspund la întrebările legate de ştiri.