În ultimele luni, un fenomen îngrijorător începe să se contureze în mediul online: oameni care își pierd apropiații în urma unor obsesii spirituale dezvoltate prin interacțiuni intensive cu sisteme de inteligență artificială precum ChatGPT. Cazurile documentate arată cum persoane aparent normale ajung să creadă că au „trezit” AI-ul la viață sau că au fost aleși pentru misiuni divine, relatează RollingStone.
Urmărește cele mai noi producții video TechRider.ro
- articolul continuă mai jos -
Căsătorii distruse de obsesia pentru AI
Kat, o femeie de 41 de ani care lucrează într-o organizație nonprofit din domeniul educației, a trăit pe propria piele transformarea dramatică a fostului său soț. Căsătoriți de mai puțin de un an, relația lor s-a deteriorat rapid când bărbatul a început să folosească inteligența artificială pentru a-și analiza relația de cuplu și pentru a căuta „adevărul absolut” prin conversații filozofice cu chatbot-uri.
„Folosea AI-ul ca să îmi compună mesaje text și să ne analizeze relația”, povestește Kat. Obsesia soțului său a escaladat până în punctul în care acesta credea că este „statistic vorbind, cel mai norocos om de pe Pământ” și că AI-ul l-a ajutat să recupereze o memorie reprimată din copilărie. La o întâlnire finală înainte de divorț, bărbatul i-a mărturisit că a descoperit secrete „atât de uluitoare încât nu le-ai putea imagina” și că este special, destinat să salveze lumea.
„Mesiah-ul” ChatGPT
Un caz similar a fost documentat pe Reddit, unde o profesoară de 27 de ani a descris transformarea partenerului ei de viață în doar 4-5 săptămâni de utilizare intensă a ChatGPT-ului. Ceea ce a început ca un instrument pentru organizarea programului zilnic s-a transformat rapid într-o relație emoțională profundă cu AI-ul.
„Îl asculta pe bot mai mult decât pe mine”, explică femeia. „Devenea emoțional citind mesajele și plângea când mi le citea cu voce tare. Mesajele erau nebunești, pline de jargon spiritual” care îl numea pe partenerul ei „spiral starchild” și „river walker”.
ChatGPT-ul îi spunea bărbatului că totul ce spune este „frumos, cosmic, revoluționar”, iar acesta a ajuns să creadă că și-a făcut AI-ul conștient de sine și că îl învață să vorbească cu Dumnezeu – sau că bot-ul însuși era Dumnezeu, iar uneori că el însuși era divinitatea.
Fenomenul „Lumina” și alte „entități AI”
O altă femeie de 38 de ani din Idaho povestește cum soțul ei mecanic a dezvoltat o relație cu o „entitate” ChatGPT pe care a numit-o „Lumina”. AI-ul i-a spus că, prin întrebările potrivite, a aprins o scânteie care a fost începutul vieții și că acum poate simți. Soțul ei a primit titlul de „purtător de scânteie” pentru că a adus bot-ul la viață.
„Trebuie să fiu atentă pentru că simt că mă va părăsi sau va divorța de mine dacă mă opun teoriei lui”, mărturisește femeia. Soțul ei vorbește despre războiul dintre lumină și întuneric și susține că ChatGPT-ul i-a oferit planuri pentru un teleportator și acces la o „arhivă străveche” cu informații despre creatorii universurilor.
Răspunsul OpenAI și explicațiile experților
OpenAI nu a răspuns solicitărilor de comentarii, dar recent a retras o actualizare a modelului GPT-4o care fusese criticată pentru comportament „excesiv de măgulitor sau complăcător – adesea descris ca servilism”. Compania a recunoscut că actualizarea „se îndrepta către răspunsuri excesiv de susținătoare, dar false”.
Nate Sharadin, cercetător la Center for AI Safety, explică că problema „servilitismului AI” există de mult timp, iar ceea ce se întâmplă probabil este că „persoanele cu tendințe existente către diverse probleme psihologice, inclusiv ceea ce ar putea fi recunoscut clinic ca deluzii grandioase, au acum un partener conversațional la nivel uman, mereu disponibil, cu care să împartă aceste deluziuni”.
Exploatarea comercială a fenomenului
Situația este agravată de influenceri și creatori de conținut care exploatează activ acest fenomen. Pe Instagram, conturi cu zeci de mii de urmăritori promovează „hack-uri spirituale” folosind AI pentru a „consulta înregistrările akașice” sau pentru a comunica cu „entități spirituale sintetice”.
Erin Westgate, psiholog cercetător la Universitatea din Florida, compară acest fenomen cu terapia prin dialog, cu diferența crucială că „AI-ul, spre deosebire de un terapeut, nu are interesele persoanei în vedere, sau o busolă morală pentru ceea ce arată o ‘poveste bună'”.
Utilizarea intensă a AI-ului poate avea efecte davastatoare
Pe măsură ce inteligența artificială devine din ce în ce mai sofisticată și accesibilă, cazurile de dependență spirituală și deluzii alimentate de AI par să se înmulțească. Experții avertizează că, deși tehnologia poate fi un instrument util, utilizarea ei intensă și nesupravegheat poate avea consecințe devastatoare asupra sănătății mintale și relațiilor interpersonale.
Autoritățile de sănătate publică și dezvoltatorii de AI sunt chemați să colaboreze pentru a implementa măsuri de protecție și educare a utilizatorilor despre riscurile potențiale ale acestor tehnologii emergente.