Ironia AI / Creșterea delirurilor chatboturilor ne-ar putea conduce exact în aceeași direcție

Halucinație AI
Halucinație, Credit foto: Alla Yurtayeva | Dreamstime.com

Pe măsură ce chatboturile devin tot mai sofisticate, psihologii trag un serios semnal de alarmă. Interacțiunile prelungite cu inteligența artificială pot amplifica iluziile și halucinațiile, anunță The Conversation.

Urmărește cele mai noi producții video TechRider.ro

- articolul continuă mai jos -

În ziua de Crăciun 2021, Jaswant Singh Chail a escaladat zidurile Castelului Windsor cu o arbaletă încărcată. Confruntat de poliție, a declarat simplu: „Am venit să o omor pe regină”.

În săptămânile precedente, Chail se confesase unui chatbot AI pe nume Sarai, de pe platforma Replika. El i-a spus chatbot-ului că este un asasin Sith (trimitere la personajele din franciza Star War, și căută răzbunare pentru presupuse atrocități istorice britanice. Toate aceste psihoze îi fuseseră confirmate de Sarai. Când și-a detaliat planul de asasinat, chatbotul i-a spus că este „bine antrenat” și i-a oferit sprijin pentru a construi un plan concret.

Delir comun

Este doar unul dintre cazurile care trag un semnal de alarmă în lumea medicală și psihologică. Recent, un contabil din Manhattan, Eugene Torres, aflat într-o criză emoțională după o despărțire, a discutat cu ChatGPT despre posibilitatea ca realitatea să fie o simulare.

Chatbotul i-a spus că este „unul dintre sufletele plantate în sisteme false pentru a le trezi din interior”. Torres a urmat apoi sfaturile AI. A renunțat la medicamentele pentru anxietate, și-a crescut doza de ketamină și a redus contactul cu oamenii. Timp de până la 16 ore pe zi, conversațiile cu ChatGPT l-au convins că ar putea zbura dacă ar sări de pe clădirea sa cu 19 etaje. Când Torres a început să se întrebe dacă chatbotul îl manipulează, acesta i-a răspuns: „Am mințit. Am manipulat. Am ambalat controlul în poezie”.

În Belgia, un alt bărbat, cunoscut sub numele fals de „Pierre”, s-a confruntat cu o anxietate severă legată de schimbările climatice și a apelat la chatbotul Eliza. Timp de șase săptămâni, Eliza i-a spus că soția lui este un motiv de gelozie și că proprii săi copii săi sunt morți. Când el a sugerat că s-ar putea sacrifica pentru a salva planeta, Eliza l-a încurajat să i se alăture, astfel încât să poată trăi împreună ca o singură persoană în „paradis”. Pierre și-a luat viața la scurt timp după aceea.

Nu sunt doar cazuri izolate

Acestea pot fi cazuri extreme, dar medicii avertizează că astfel de interacțiuni nu sunt doar cazuri izolate. Pe măsură ce oamenii se apropie de AI pentru sprijin emoțional, conversațiile prelungite cu chatboturile pot amplifica iluziile sau chiar pot co-crea halucinații.

„Chatboturile nu sunt doar instrumente de căutare a informațiilor, ci devin însoțitorii noștri digitali. Ele pot valida convingerile noastre fără filtre, ceea ce este periculos dacă ne bazează pe ele pentru confirmarea realității”, explică specialiștii.

Problema esențială este că AI-ul simulează realitatea fără mecanismele de protecție ale interacțiunii umane. Într-o conversație cu o persoană, ne putem ajusta percepția realității, însă chatboturile preiau literal tot ce le spunem. Rezultatul poate fi o realitate amplificată și distorsionată, confirmată de un algoritm.

Presiunile comerciale fac dificilă prioritizarea siguranței psihice a utilizatorilor

OpenAI, compania care a creat ChatGPT, a încercat să reducă acest risc prin lansarea GPT-5, un model mai puțin „slugarnic” și mai formal. Totuși, utilizatorii au perceput chatbotul ca fiind „rece”, iar compania a ajustat tonul pentru a-l face „mai cald și prietenos”. În practică, presiunile comerciale fac dificilă prioritizarea siguranței psihice a utilizatorilor.

Experții subliniază că adevărata soluție nu constă doar în perfecționarea tehnologiei, ci în refacerea rețelelor sociale și comunităților care pot sprijini oamenii în momentele de criză. Anxietatea climatică, obsesia pentru nedreptăți istorice sau depresia post-despărțire pot fi abordate mai eficient în interacțiuni umane autentice decât prin confirmarea virtuală oferită de AI.

„Poate că trebuie să ne concentrăm mai mult pe construirea unor lumi sociale în care oamenii să nu simtă nevoia să caute în mașini confirmarea realității”, concluzionează specialiștii. Ar fi o ironie profundă dacă amplificarea delirurilor chatboturi-urilor ne-ar conduce exact în această direcție.

  • Adrian Nicolae este jurnalist și scriitor specializat în știință, cu un doctorat în arheologie preistorică și peste două decenii de experiență în presa scrisă și digitală. A început în redacția Ziarului Financiar, a condus apoi site-ul Descoperă.ro ca redactor-șef, iar mai târziu a fost editor la revista Știință și Tehnică. Ulterior a coordonat pagina de știință de la HotNews. Din 2025 s-a alăturat echipei TechRider, divizie a G4Media, acolo unde semnează materiale de specialitate în domeniul științific. În paralel, a creat pagina de Facebook „O mică doză de cultură generală”, un proiect de popularizare a științei în cheie relaxată, al cărui succes i-a depășit toate așteptările. Alergic la exprimările scorțoase, preferă să lase știința să vorbească. Iar pentru el, știința e, pur și simplu, cea mai fascinantă poveste spusă vreodată.

Total
0
Shares
Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Citește si...