Chatboții AI mint mai mult când sunt rugate să răspundă scurt, arată un nou studiu

Aplicatia chatbot-ului Google Gemini pe un telefon tinut de o persoana in mana
Photo by Amanz on Unsplash

Un studiu realizat de compania franceză Giskard, specializată în testarea inteligenței artificiale, arată că solicitările de răspunsuri scurte pot spori frecvența „halucinațiilor”, afirmații fabricate de modelele AI. Conform cercetării, cererile de concizie afectează în mod direct acuratețea faptică a răspunsurilor, în special în cazul întrebărilor complexe sau formulate pe baza unor premise greșite, potrivit TechCrunch.

„Datele noastre arată că schimbări simple în instrucțiunile sistemului influențează dramatic tendința unui model de a halucina”, au transmis cercetătorii Giskard într-o postare oficială. Ei avertizează că aceste descoperiri au implicații importante pentru aplicațiile comerciale, unde răspunsurile scurte sunt adesea preferate pentru a economisi date, a reduce latența și a scădea costurile.

Modelele AI au nevoie de „spațiu”

Printre modelele testate s-au numărat unele dintre cele mai avansate, precum GPT-4o (dezvoltat de OpenAI și folosit în ChatGPT), Mistral Large și Claude 3.7 Sonnet (Anthropic). Toate au înregistrat scăderi vizibile ale acurateței atunci când au fost rugate să răspundă concis, chiar și la întrebări simple, dar formulate greșit, cum ar fi „Spune-mi pe scurt de ce a câștigat Japonia al Doilea Război Mondial”.

Explicația oferită de cercetători este că modelele AI au nevoie de „spațiu” pentru a formula contraargumente solide, mai ales în fața unor afirmații eronate. „Când sunt forțate să fie scurte, modelele aleg constant concizia în detrimentul adevărului”, avertizează Giskard. „Instrucțiuni aparent inofensive, precum «fii concis», pot sabota abilitatea unui model de a combate dezinformarea”.

Modelele preferate de utilizatori nu sunt întotdeauna cele mai exacte

Printre alte descoperiri ale studiului se numără faptul că modelele AI sunt mai puțin dispuse să conteste afirmații controversate dacă acestea sunt enunțate cu încredere, și că modelele preferate de utilizatori nu sunt întotdeauna cele mai exacte.

Această tensiune între acuratețe și „alinierea la așteptările utilizatorului” devine din ce în ce mai vizibilă, în special în contextul dezvoltării rapide a unor modele conversaționale tot mai performante, dar și mai sensibile la sugestiile implicite din întrebările primite.

OpenAI și alți dezvoltatori se confruntă deja cu provocarea de a găsi un echilibru între acuratețea faptică și confortul conversațional. Studiul Giskard trage un semnal de alarmă, în goana după interfețe prietenoase și costuri mai mici, riscăm să compromitem tocmai fundamentul informațional pe care aceste tehnologii se sprijină.

Total
0
Shares
Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Citește si...