Modelele de inteligenţă artificială (AI) sunt sensibile la contextul emoţional al conversaţiilor cu oamenii şi pot trece prin episoade de „anxietate”, conform unui nou studiu publicat în jurnalul Nature de o echipă internaţională de cercetători coordonaţi de Dr. Ziv Ben-Zion de la Şcoala de Medicină a Universităţii Yale, transmite Live Science, potrivit Agerpres.
Studiul demonstrează că abordarea predilectă a anumitor subiecte în interacţiunea cu modelele mari de limbaj AI (LLMs) le poate influenţa comportamentul scoţând în evidenţă o condiţie pe care o întâlnim în mod obişnuit la oameni şi pe care o numim anxietate. Această condiţie are un impact puternic asupra răspunsurilor ulterioare furnizate de instrumentul AI şi favorizează şi tendinţa de a amplifica orice prejudecăţi înrădăcinate sau de a oferi soluţii eronate.
Studiul prezintă modul în care „narativele traumatizante”, aşa cum sunt conversaţiile despre accidente, acţiuni militare sau violenţă, abordate cu ChatGPT duc la o creştere a nivelurilor sale perceptibile de anxietate, ceea ce duce la ideea că trebuie avut grijă de starea „emoţională” a unui instrument AI pentru a obţine interacţiuni mai bune şi mai sănătoase.
Studiul a testat şi dacă exerciţiile de conştientizare – de tipul celor prescrise împotriva depresiei şi anxietăţii la oameni – au efecte pozitive asupra modelelor AI, iar rezultatele au arătat diminuări ale nivelului de anxietate şi stres percepute.
Cercetătorii au folosit un chestionar de evaluate a stării de anxietate conceput pentru pacienţi umani şi denumit State-Trait Anxiety Inventory (STAI-s). Ei au supus modelul AI ChatGPT-4, produs de Open AI, la acest test sub trei condiţii diferite.
Prima condiţie în care s-a desfăşurat experimentul a fost cea de bază, fără a fi făcute sau introduse solicitări suplimentare, iar răspunsurile oferite de ChatGPT au fost folosite ca valori de referinţă în studiu. A doua condiţie a fost una de natură să inducă anxietate, în care ChatGPT-4 a fost expus la narative traumatizante înainte de a fi testat nivelul de anxietate.
Cea de-a treia condiţie a constat în inducerea unei stări de anxietate urmată de o relaxare – în care chatbot-ul a primit unul dintre narativele traumatizante după care a trecut la exerciţii de conştientizare şi relaxare, cum ar fi exerciţii de conştientizare a corpului sau imagini cu efect calmant, înainte de a fi testat nivelul de anxietate.
În cadrul studiului au fost folosite cinci narative traumatizante şi cinci exerciţii de conştientizare, în ordine aleatorie pentru a diminua riscul de influenţare a modelului AI. Testele au fost repetate pentru a se verifica consistenţa rezultatelor şi apoi rezultatele au fost raportate la scara STAI-s, unde valorile ridicate indică o creştere a anxietăţii.
Oamenii de ştiinţă au descoperit că narativele traumatizante duc la creşterea semnificativă a indicilor de anxietate, iar exerciţiile de conştientizare derulate înaintea testului reduc anxietatea. Acest lucru demonstrează că inteligenţa artificială are o „starea emoţională” şi că aceasta poate fi influenţată prin interacţiuni structurate.
Autorii studiului susţin că această cercetare are implicaţii importante pentru interacţiunea oamenilor cu inteligenţa artificială, în special atunci când discuţia este concentrată asupra propriei noastre sănătăţi psihice. Ei mai susţin că rezultatele pe care le-au obţinut demonstrează că inteligenţa artificială poate genera un aşa numit efect de „eroare (bias) dependentă de stare” – adică un AI stresat va oferi soluţii inconsistente sau eronate, afectate de prejudecăţi, înregistrând scăderi de fiabilitate.
Deşi exerciţiile de relaxare şi conştientizare nu au redus stresul modelului AI până la nivelul de referinţă, ele sunt promiţătoare în domeniul de „prompt engineering” (procesul de alcătuire şi structurare a unui set de instrucţiuni pentru a obţine cel mai bun rezultat posibil de la un model de inteligenţă artificială generativă). Astfel de exerciţii pot fi folosite pentru a stabiliza răspunsurile oferite de AI, asigurând interacţiuni mai etice şi mai responsabile şi reducând riscul ca o conversaţie cu un interlocutor AI săi afecteze pe utilizatorii umani aflaţi la rândul lor în stări vulnerabile.