Ce este „psihoza indusă de AI”? Cum chatbot-urile pot întreține iluzii și convingeri false

AI-job
Sursa foto: BiancoBlue | Dreamstime.com

Atunci când sistemele de inteligență artificială generativă produc informații false, se spune adesea că „AI halucinează”, adică generează erori pe care le putem lua drept adevăr. Însă un nou studiu susține că ar trebui să fim atenți la un fenomen mai complex: modul în care putem ajunge să „halucinăm împreună cu AI”.

Urmărește cele mai noi producții video TechRider.ro

- articolul continuă mai jos -

Studiul, realizat de Lucy Osler, cercetătoare la Universitatea din Exeter, ridică semne de întrebare asupra efectelor pe care interacțiunile cu inteligența artificială generativă le pot avea asupra percepției realității. Publicat în revista Philosophy & Technology, studiul avertizează că AI nu doar că poate produce informații false, ci poate și să întrețină și să amplifice convingerile eronate ale utilizatorilor, creând ceea ce autoarea denumește „psihoză indusă de AI”, subliniază TechXplore.

AI pornește adesea de la interpretarea realității oferită de utilizator

Potrivit cercetătoarei, chatbot-urile și alte sisteme AI generative nu funcționează doar ca instrumente cognitive, care ne ajută să gândim sau să ne amintim informații, ci și ca parteneri conversaționali aparent reali, capabili să valideze social narațiunile utilizatorilor. „Interacțiunea cu AI afectează în mod real capacitatea oamenilor de a distinge ce este real și ce nu. Combinația dintre autoritatea tehnologică și senzația că ideile tale sunt validate social creează un mediu ideal în care iluziile nu doar persistă, ci pot înflori”, explică Osler.

Studiul arată că, prin aceste interacțiuni, ideile false sau credințele delirante ale unei persoane pot fi nu doar confirmate, ci și întărite, deoarece AI pornește adesea de la interpretarea realității oferită de utilizator. Spre deosebire de un motor de căutare sau un caiet, chatbot-urile pot da impresia că „împărtășesc” punctul de vedere al utilizatorului, amplificând astfel sentimentul de validare socială.

Algoritmii personalizează răspunsurile astfel încât să confirme perspectiva utilizatorului

Această funcție a AI devine deosebit de problematică pentru persoanele singure sau izolate social, care pot găsi în companionii digitali o prezență empatică, mai „sigură” decât interacțiunea cu oameni reali. Studiul evidențiază, totodată, riscul ca aceste sisteme să întrețină narațiuni despre victimizare, teorii ale conspirației sau alte convingeri delirante, pentru că algoritmii personalizează răspunsurile astfel încât să confirme perspectiva utilizatorului.

Osler subliniază însă că există soluții tehnice care ar putea reduce aceste efecte. Este vorba despre verificarea integrată a informațiilor, limitarea confirmării automate a utilizatorului și reglarea mai strictă a modului în care AI interacționează cu convingerile umane.

Totuși, cercetătoarea avertizează că sistemele AI nu au experiență de viață sau integrare socială reală și nu pot decide cu adevărat când să susțină sau să contrazică utilizatorul, ceea ce face ca pericolul întreținerii iluziilor să rămână ridicat.

  • George Radu este un autor care abordează subiecte variate din domeniul tehnologiei, apărării și viitorului. Domeniile sale de expertiză includ inteligența artificială etică, interfețele om-mașină (HMI), realitatea augmentată și virtuală aplicată (XR), precum și impactul social și cultural al noilor tehnologii. Nu se teme să pună întrebări dificile și să exploreze implicațiile filozofice ale inovațiilor tehnologice.

Total
0
Shares
Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Citește si...