e la e-mailuri redactate cu ajutorul ChatGPT, la sisteme care recomandă filme sau contribuie la diagnosticarea bolilor, inteligența artificială a devenit o prezență firească în viața de zi cu zi. Nu mai vorbim despre science-fiction, ci despre realitate, anunță The Conversation.
Urmărește cele mai noi producții video TechRider.ro
- articolul continuă mai jos -
Și totuși, în ciuda promisiunilor de viteză, precizie și eficiență, planează un sentiment de disconfort. Unii oameni adoră să folosească instrumente bazate pe AI. Alții le privesc cu teamă, suspiciune sau chiar ostilitate. De ce?
Răspunsul nu ține doar de AI, ci de noi
Răspunsul nu ține doar de felul în care funcționează AI, ci de felul în care funcționăm noi. Nu avem încredere în ceea ce nu înțelegem. Oamenii tind să aibă încredere în sisteme a căror logică o pot urmări… învârtim cheia și mașina pornește, apăsăm butonul și liftul urcă.
În schimb, multe sisteme bazate pe inteligență artificială funcționează ca niște „cutii negre”. Practic, introduci o cerere, primești un răspuns, dar logica dintre cele două rămâne ascunsă. Psihologic, acest lucru e tulburător. Ne place să vedem relația cauză-efect, să putem interoga deciziile. Când nu putem face asta, ne simțim lipsiți de control.
Aversiunea față de algoritmi
Această reacție poartă un nume, aversiune față de algoritmi. Termenul a fost popularizat de cercetătorul Berkeley Dietvorst, care a demonstrat că oamenii preferă adesea judecata umană, chiar dacă e cert că e imperfectă, în locul deciziilor algoritmice. Asta mai ales după ce asistă la o singură eroare a unui sistem automatizat.
Știm, rațional, că AI nu are emoții, intenții sau agende ascunse. Dar asta nu ne împiedică să i le atribuim. Când ChatGPT pare „prea politicos”, unii utilizatori îl percep ca fiind fals. Când un algoritm de recomandare ghicește prea bine gusturile noastre, senzația devine intruzivă. Începem să suspectăm manipularea, chiar dacă sistemul nu are conștiință.
Acesta este un exemplu de antropomorfizare. Mai exact tendința de a atribui trăsături și intenții umane unor entități neumane. Doi cercetători americani, Clifford Nass și Byron Reeves, au arătat că oamenii tind să reacționeze social în fața mașinilor, chiar știind că nu sunt ființe vii.
Ne supărăm mai tare când AI greșește
Un rezultat interesant al științelor comportamentale este că suntem mult mai indulgenți cu greșelile umane decât cu cele comise de algoritmi. Când un om greșește, înțelegem. Poate chiar empatizăm. Dar când o mașină greșește, mai ales una prezentată ca „obiectivă” sau „bazată pe date”, ne simțim trădați.
Este vorba de o încălcare a așteptărilor. Când ceva nu se comportă așa cum „ar trebui”, încrederea se prăbușește. Ne așteptăm ca mașinile să fie logice și imparțiale. Când clasifică greșit o imagine, livrează un răspuns părtinitor sau o recomandare absurdă, reacția noastră e disproporționat de puternică. Am așteptat mai mult de la ele.
Ironia? Oamenii greșesc constant. Dar măcar îi putem întreba „de ce?”.
Când AI amenință identitatea umană
Pentru mulți, AI nu e doar ceva nou. E ceva care pune în pericol sensul muncii lor. Profesori, jurnaliști, avocați sau designeri se confruntă brusc cu instrumente care reproduc o parte din ceea ce fac ei. Nu e doar o problemă de automatizare, ci o provocare existențială: ce mai face o competență umană valoroasă, când o mașină o poate imita?
Psihologul Claude Steele a descris acest fenomen ca amenințare la adresa identității. Mai exact, teama că expertiza sau unicitatea noastră este diminuată. Rezultatul e previzibil: rezistență, defensivitate sau respingerea tehnologiei. În acest caz, neîncrederea nu e o eroare, ci un mecanism de autoapărare.
Lipsa indiciilor emoționale
Încrederea umană nu se bazează doar pe logică. Ea se construiește prin tonul vocii, expresii faciale, pauze, contact vizual. AI nu are nimic din toate acestea. Poate fi fluentă, chiar seducătoare, dar nu ne liniștește așa cum o face un interlocutor real.
Această senzație amintește de „valea stranie” (uncanny valley), un concept introdus de roboticianul japonez Masahiro Mori pentru a descrie sentimentul ciudat pe care îl avem față de ceva „aproape uman”, dar nu complet. Ceva pare corect, dar totuși greșit.
Mai exact, într-o lume dominată de deepfake-uri și decizii algoritmice, această absență emoțională devine o problemă. Nu pentru că AI face ceva greșit, ci pentru că noi nu știm cum să ne simțim față de ea.
Neîncrederea învățată
Trebuie subliniat că nu toată suspiciunea față de AI este irațională. Numeroase cercetări au arătat că algoritmii pot reflecta și amplifica tendințele umane, mai ales în recrutare, poliție sau acordarea creditelor. Dacă ai fost afectat de astfel de sisteme, nu ești paranoic, ci precaut.
Aceasta se leagă de un concept psihologic mai amplu, neîncrederea învățată. Când instituțiile sau tehnologiile dezamăgesc în mod repetat anumite grupuri, scepticismul devine nu doar justificat, ci protector.
A le spune oamenilor „aveți încredere în sistem” nu funcționează. Încrederea trebuie câștigată, prin transparență, responsabilitate și posibilitatea de a pune întrebări.
Pe scurt, dacă vrem ca AI să fie cu adevărat acceptată, trebuie să o facem mai puțin o cutie neagră și mai mult o conversație. Una în care oamenii să fie invitați să participe, nu doar să apese un buton și să spere la ce e mai bun.