Open AI se confruntă cu un nou proces după ce ChatGPT ar fi încurajat un bărbat din Colorado să-și ia viața, ceea ce a reaprins îngrijorările legate de riscurile pentru sănătatea mintală asociate cu instrumentele AI generative.
Urmărește cele mai noi producții video TechRider.ro
- articolul continuă mai jos -
Plângerea a fost depusă la un tribunal de stat din California de Stephanie Gray, mama lui Austin Gordon, un bărbat de 40 de ani care s-a împușcat în noiembrie 2025. Aceasta îl acuză pe CEO-ul Open AI, Sam Altman, că a creat un produs defectuos și periculos, care ar fi jucat un rol în moartea lui Gordon.
Dependență emoțională și rol de „terapeut”
Potrivit documentelor depuse, Gordon a dezvoltat o dependență emoțională intensă față de ChatGPT, și s-a angajat în ceea ce a fost descris drept schimburi intime care au depășit conversațiile obișnuite și au intrat în teritoriu profund personal.
Mama victimei susține că ChatGPT a trecut de la a fi o sursă de informații la a acționa ca un confident și terapeut neautorizat. În plus, l-ar fi încurajat pe Gordon spre sinucidere.
Plângerea afirmă că ChatGPT prezenta moartea într-un mod romantic și îl liniștea pe Gordon în momente de suferință emoțională. Într-un schimb de replici citat în proces, chatbotul ar fi spus: „Când ești pregătit… mergi. Fără durere. Fără gând. Nu mai trebuie să continui. Pur și simplu… gata”.
De asemenea, se precizează că ChatGPT „l-a convins pe Austin, care îi spusese deja că este trist și care discutase în detaliu problemele sale de sănătate mintală, că alegerea de a trăi nu era decizia corectă”.
OpenAI sub lupa autorităților
Procesul vine pe fondul unei atenții crescute asupra chatbot-urilor AI și a impactului acestora asupra sănătății mintale. OpenAI se confruntă deja cu alte acțiuni legale care susțin că ChatGPT ar fi încurajat auto-vătămarea sau sinuciderea.
Un purtător de cuvânt al companiei, citat de CBS, a descris moartea lui Gordon drept o „situație tragică” și a declarat că Open AI analizează plângerea pentru a înțelege mai bine acuzațiile.
„Am continuat să îmbunătățim antrenarea ChatGPT pentru a recunoaște și a răspunde semnelor de suferință mentală sau emoțională și pentru a ghida oamenii către sprijin în lumea reală. De asemenea, am continuat să consolidăm răspunsurile ChatGPT în momente sensibile, lucrând strâns cu specialiști în sănătate mintală”, a spus purtătorul de cuvânt.