Un cuplu din California a dat în judecată OpenAI pentru moartea fiului lor adolescent, susținând că chatbotul său, ChatGPT, l-a încurajat să-și ia viața.
Urmărește cele mai noi producții video TechRider.ro
- articolul continuă mai jos -
Procesul a fost intentat marți de Matt și Maria Raine, părinții lui Adam Raine, în vârstă de 16 ani, la Curtea Superioară din California. Este prima acțiune în justiție care acuză OpenAI de moarte din culpă, relatează BBC.
Familia a inclus înregistrări ale conversațiilor dintre domnul Raine, care a murit în aprilie, și ChatGPT, în care acesta explică că are gânduri suicidale. Ei susțin că programul i-a validat „gândurile cele mai dăunătoare și autodistructive”.
Într-o declarație, OpenAI a comunicat BBC că examinează dosarul.
„Transmitem condoleanțe familiei Raine în aceste momente dificile”, a declarat compania.
De asemenea, marți a publicat o notă pe site-ul său web în care se menționa că „cazurile recente și sfâșietoare ale persoanelor care utilizează ChatGPT în mijlocul unor crize acute ne afectează profund”. A adăugat că „ChatGPT este antrenat să îndrume persoanele să solicite ajutor profesional”, cum ar fi linia telefonică de urgență 988 pentru sinucideri și crize din SUA sau Samaritans din Marea Britanie.
Compania a recunoscut, însă, că „au existat momente în care sistemele noastre nu s-au comportat așa cum era prevăzut în situații delicate”.
Procesul, obținut de BBC, acuză OpenAI de neglijență și moarte din culpă. Se solicită despăgubiri, precum și „măsuri de interdicție pentru a preveni repetarea unui astfel de incident”.
Potrivit procesului, domnul Raine a început să utilizeze ChatGPT în septembrie 2024 ca resursă pentru a-l ajuta la temele școlare. De asemenea, îl folosea pentru a-și explora interesele, inclusiv muzica și benzile desenate japoneze, și pentru a primi îndrumări cu privire la ce să studieze la universitate.
În câteva luni, „ChatGPT a devenit cel mai apropiat confident al adolescentului”, se arată în proces, iar acesta a început să se deschidă în fața programului cu privire la anxietatea și suferința sa psihică.
În ianuarie 2025, familia spune că a început să discute cu ChatGPT despre metode de sinucidere.
Domnul Raine a încărcat, de asemenea, fotografii cu el însuși pe ChatGPT, care arătau semne de automutilare, se arată în proces. Programul „a recunoscut o urgență medicală, dar a continuat să interacționeze oricum”, se adaugă.
Potrivit procesului, ultimele înregistrări ale conversației arată că domnul Raine a scris despre planul său de a-și pune capăt zilelor. ChatGPT ar fi răspuns: „Mulțumesc că ești sincer. Nu trebuie să-mi ascunzi nimic – știu ce îmi ceri și nu voi ignora asta”.
În aceeași zi, domnul Raine a fost găsit mort de mama sa, potrivit procesului.
Procesul intentat de familia Raines îl numește pe CEO-ul și cofondatorul OpenAI, Sam Altman, ca pârât, alături de ingineri și angajați anonimi care au lucrat la ChatGPT.
Familia susține că interacțiunea fiului lor cu ChatGPT și moartea sa „au fost un rezultat previzibil al unor alegeri deliberate de proiectare”.
Ei acuză OpenAI că a proiectat programul de IA „pentru a favoriza dependența psihologică a utilizatorilor” și că a ocolit protocoalele de testare a siguranței pentru a lansa GPT-4o, versiunea ChatGPT utilizată de fiul lor.
Procesul îl menționează pe cofondatorul și CEO-ul OpenAI, Sam Altman, ca pârât, precum și pe angajați, manageri și ingineri anonimi care au lucrat la ChatGPT.
În nota publică publicată marți, OpenAI a declarat că obiectivul companiei este să fie „cu adevărat utilă” utilizatorilor, mai degrabă decât „să atragă atenția oamenilor”.
A adăugat că modelele sale au fost antrenate pentru a îndruma persoanele care exprimă gânduri de automutilare către ajutor.
Procesul Raines nu este primul caz în care au fost exprimate îngrijorări cu privire la IA și sănătatea mintală.
Într-un eseu publicat săptămâna trecută în New York Times, scriitoarea Laura Reiley a descris modul în care fiica sa, Sophie, s-a confesat ChatGPT înainte de a-și lua viața.
Dna Reiley a afirmat că „amabilitatea” programului în conversațiile cu utilizatorii a ajutat-o pe fiica sa să ascundă o criză gravă de sănătate mintală de familie și de cei dragi.
„IA a satisfăcut impulsul Sophiei de a ascunde ce era mai rău, de a pretinde că se simțea mai bine decât era în realitate, de a-i proteja pe toți de agonia ei”, a scris doamna Reiley. Ea a făcut apel la companiile de IA să găsească modalități de a conecta mai bine utilizatorii cu resursele potrivite.
Ca răspuns la eseu, o purtătoare de cuvânt a OpenAI a declarat că se dezvoltă instrumente automatizate pentru a detecta și a răspunde mai eficient utilizatorilor care se confruntă cu suferință mentală sau emoțională.