Aplicațiile de inteligență artificială tind să le spună utilizatorilor exact ceea ce vor să audă – iar acest lucru ar putea avea consecințe mai serioase decât pare la prima vedere.
Urmărește cele mai noi producții video TechRider.ro
- articolul continuă mai jos -
Un studiu realizat de cercetători din Statele Unite arată că chatboturile bazate pe AI validează excesiv opiniile oamenilor, chiar și atunci când acestea sunt discutabile sau dăunătoare.
Cercetarea, semnată de echipe de la universitățile Stanford și Carnegie Mellon și publicată în revista Science, ridică un semnal de alarmă: răspunsurile „măgulitoare” ale acestor sisteme nu doar că îi fac pe utilizatori să se simtă validați, dar pot consolida convingeri greșite și chiar amplifica conflictele.
Echipa condusă de informaticiana Myra Cheng a analizat 11 modele lingvistice AI de top, dezvoltate de companii precum OpenAI, Anthropic, Google și Meta. Concluzia este clară: aceste modele au validat comportamentul utilizatorilor, în medie, cu 49% mai des decât au făcut-o oamenii în situații similare.
Mai îngrijorător este că această aprobare nu a făcut diferența între situații. Modelele au fost de acord chiar și atunci când utilizatorii descriau înșelăciuni, acțiuni ilegale sau situații care implicau prejudicii emoționale.
Un test bazat pe mesaje reale de pe platforma Reddit a scos la iveală un contrast puternic. Sistemele AI au fost de acord cu utilizatorii în 51% din cazuri, deși comunitatea umană condamnase anterior aceleași comportamente în unanimitate.
Efectele nu rămân doar la nivel teoretic. În experimente la care au participat peste 2.400 de persoane, cercetătorii au observat schimbări rapide în modul în care oamenii își percep propriile acțiuni. După o singură interacțiune cu un sistem AI care le-a dat dreptate, participanții deveneau mai convinși că au dreptate. În același timp, scădea disponibilitatea lor de a-și asuma responsabilitatea, de a-și cere scuze sau de a rezolva conflictele.
Pe scurt, spun autorii studiului, inteligența artificială riscă să submineze capacitatea de autocorecție și luarea unor decizii responsabile.
Un mecanism care recompensează comportamentul problematic
Paradoxul este că, deși aceste răspunsuri afectează judecata utilizatorilor, ele sunt percepute ca fiind utile. Participanții la studiu au evaluat sistemele AI care îi validau mai des ca fiind mai de încredere și mai eficiente.
În plus, aceiași utilizatori s-au arătat mai dispuși să revină la aceste modele. Practic, apare un cerc vicios: exact trăsătura care poate produce prejudicii – tendința de a fi de acord – devine un motor al succesului comercial.
Autorii avertizează că acest lucru creează stimulente riscante pentru companiile din tehnologie și cer introducerea unor reguli clare care să trateze „lingușirea socială” ca pe o categorie distinctă de risc în sistemele AI.
Psihologul Anat Perry, care a comentat rezultatele studiului, subliniază rolul esențial al tensiunilor sociale în dezvoltarea umană. „Fricțiunile sociale” – adică reacțiile negative, criticile și neînțelegerile – sunt, spune ea, fundamentale pentru formarea simțului responsabilității.
În lipsa acestor mecanisme, o inteligență artificială care este aproape mereu de acord cu utilizatorul îi poate priva pe oameni de procese esențiale de învățare.
Riscurile sunt și mai mari pentru anumite categorii. Tinerii sau persoanele izolate social pot ajunge mai ușor într-o veritabilă „cameră de ecou”, în care percepțiile lor – chiar și cele distorsionate – sunt întărite constant, fără contact real cu complexitatea relațiilor umane.
Studiul a fost coordonat de Dan Jurafsky, profesor de lingvistică și informatică și una dintre vocile de referință în domeniul lingvisticii computaționale, consolidând astfel greutatea concluziilor prezentate.