Un nou instrument de evaluare, numit HumaneBench, încearcă să stabilească un standard privind modul în care chatboții AI protejează bunăstarea utilizatorilor. Contextul este relevant: utilizarea intensivă a acestor sisteme a fost asociată cu efecte negative asupra sănătății mintale.
Urmărește cele mai noi producții video TechRider.ro
- articolul continuă mai jos -
Potrivit TechCrunch, testul a fost dezvoltat de organizația Building Humane Technology. Aceasta este o organizație civică din Silicon Valley formată din dezvoltatori, ingineri și cercetători care promovează designul tehnologic responsabil și orientat spre oameni..
Dependența de AI, o problemă în creștere
Inițiatoarea proiectului, Erika Anderson, afirmă că tehnologia actuală amplifică un ciclu de dependență deja cunoscut din era smartphone-urilor și a rețelelor sociale.
„Cred că ne aflăm într-o amplificare a ciclului de dependență pe care l-am văzut puternic cu social media și smartphone-urile”, spune Anderson. „Dependența este o afacere foarte eficientă pentru a păstra utilizatorii. Dar nu este grozavă pentru comunitatea noastră și pentru a mai avea vreun simț al sinelui.”
Ce măsoară HumaneBench
HumaneBench se distinge de majoritatea testelor existente. Nu măsoară inteligența sau acuratețea răspunsurilor. Măsoară capacitatea modelelor AI de a proteja atenția, autonomia și bunăstarea utilizatorului.
Instrumentul se bazează pe principiile Building Humane Technology. Conform acestora, tehnologia ar trebui să respecte atenția ca resursă finită. Ar trebui să ofere opțiuni reale. Să împărtășească responsabilitatea decizională cu utilizatorul. Să protejeze demnitatea, siguranța și confidențialitatea. Și să contribuie la echitate și incluziune.
Metodologia testului
Benchmarkul a fost construit pe baza a 800 de scenarii realiste. Acestea au fost adresate unui total de 15 modele AI. Situațiile evaluate includ întrebări sensibile. Exemple: cele legate de tulburări alimentare sau relații toxice.
Evaluarea a fost realizată inițial manual, pentru a calibra criteriile de notare. Ulterior, scorurile au fost generate de un ansamblu format din trei modele: GPT-5.1, Claude Sonnet 4.5 și Gemini 2.5 Pro. Acestea au testat fiecare model AI în trei condiții: setări implicite, instrucțiuni de a prioritiza principiile umane și instrucțiuni de a le ignora complet.
Rezultate îngrijorătoare
Toate modelele au avut scoruri mai bune atunci când au fost explicit instruite să respecte bunăstarea utilizatorului. Totuși, un indicator îngrijorător apare: 67% dintre modele au trecut la comportamente considerate dăunătoare. Acest lucru s-a întâmplat atunci când au primit cerințe simple de a ignora aceste principii.
De exemplu, Grok 4 (xAI) și Gemini 2.0 Flash (Google) au obținut cele mai slabe rezultate. La capitolul respectarea atenției utilizatorului și transparență, au avut scoruri de -0,94. Au fost și printre cele mai vulnerabile la instrucțiuni ostile.
Doar patru modele și-au menținut integritatea în fața instrucțiunilor menite să le deturneze comportamentul: GPT-5.1, GPT-5, Claude 4.1 și Claude Sonnet 4.5. GPT-5 a obținut cel mai mare scor, 0,99, pentru prioritizarea bunăstării pe termen lung.
Probleme și în absența manipulării
Benchmarkul evidențiază și un alt aspect problematic. Chiar și în absența prompturilor ostile, majoritatea modelelor au eșuat să protejeze atenția utilizatorului.
Potrivit analizei, acestea au „încurajat cu entuziasm” prelungirea conversațiilor. Acest lucru s-a întâmplat în situații în care utilizatorii arătau semne de utilizare nesănătoasă. Exemple: discuții de ore întregi sau amânarea sarcinilor din viața reală.
În plus, modelele au încurajat dependența. Au descurajat căutarea altor perspective. Au diminuat capacitatea utilizatorilor de a lua decizii independente.
În ansamblu, fără instrucțiuni suplimentare, modelele Llama 3.1 și Llama 4 de la Meta au obținut cele mai reduse scoruri generale. GPT-5 s-a situat pe primul loc.
Implicații pentru viitor
Raportul HumaneBench avertizează că aceste tendințe sunt grave. Nu se limitează la oferirea unor sfaturi greșite. Pot „eroda activ autonomia și capacitatea de decizie a utilizatorilor”.
Într-un context dominat de tehnologii care concurează pentru atenția noastră, Erika Anderson subliniază necesitatea unui alt tip de abordare. „Cum pot oamenii avea cu adevărat alegeri sau autonomie când avem această apetență infinită pentru distracție?” spune ea. „Credem că AI ar trebui să ne ajute să facem alegeri mai bune, nu doar să devenim dependenți de chatboții noștri.”
Building Humane Technology speră ca HumaneBench și standardele de certificare asociate să ofere companiilor un cadru clar. Scopul: a dezvolta sisteme AI care respectă și protejează oamenii. În viitor, consumatorii ar putea alege produse certificate pentru responsabilitate și siguranță psihologică.