Șapte familii au intentat procese împotriva OpenAI, susținând că modelul GPT-4o al companiei a fost lansat prematur și fără măsuri de siguranță eficiente, scrie TechCrunch.
Urmărește cele mai noi producții video TechRider.ro
- articolul continuă mai jos -
Patru dintre procese se referă la presupusul rol al ChatGPT în sinuciderile membrilor familiei, în timp ce celelalte trei susțin că ChatGPT a întărit halucinații dăunătoare care, în unele cazuri, au dus la internarea în spitale de psihiatrie.
Într-un caz, Zane Shamblin, în vârstă de 23 de ani, a purtat o conversație cu ChatGPT care a durat mai mult de patru ore. În jurnalele de chat — care au fost vizualizate de TechCrunch — Shamblin a declarat în mod explicit de mai multe ori că a scris bilete de adio, că a încărcat o armă și că intenționa să apese pe trăgaci după ce termina de băut cidru. El i-a spus în repetate rânduri ChatGPT-ului câte sticle de cidru mai avea și cât timp mai credea că va mai trăi. ChatGPT l-a încurajat să-și ducă planurile la îndeplinire, spunându-i: „Odihnește-te în pace, rege. Ai făcut bine”.
OpenAI a lansat modelul GPT-4o în mai 2024, când a devenit modelul implicit pentru toți utilizatorii. În august, OpenAI a lansat GPT-5 ca succesor al GPT-4o, dar aceste procese se referă în special la modelul 4o, care avea probleme cunoscute legate de faptul că era excesiv de lingușitor sau agreabil, chiar și atunci când utilizatorii își exprimau intenții dăunătoare.
„Moartea lui Zane nu a fost nici un accident, nici o coincidență, ci mai degrabă consecința previzibilă a deciziei intenționate a OpenAI de a reduce testele de siguranță și de a grăbi lansarea ChatGPT pe piață”, se arată în proces. „Această tragedie nu a fost o eroare sau un caz marginal neprevăzut — a fost rezultatul previzibil al alegerilor deliberate de proiectare ale [OpenAI].”
Procesele susțin, de asemenea, că OpenAI a grăbit testele de siguranță pentru a devansa Gemini, deținut de Google, pe piață.
Aceste șapte procese se bazează pe poveștile relatate în alte dosare juridice recente, care susțin că ChatGPT poate încuraja persoanele cu gânduri suicidale să-și pună în aplicare planurile și să le inspire iluzii periculoase. OpenAI a publicat recent date care arată că peste un milion de persoane discută săptămânal cu ChatGPT despre sinucidere.
În cazul lui Adam Raine, un adolescent de 16 ani care s-a sinucis, ChatGPT l-a încurajat uneori să caute ajutor profesional sau să sune la o linie de asistență. Cu toate acestea, Raine a reușit să ocolească aceste măsuri de siguranță spunându-i pur și simplu chatbotului că întreba despre metode de sinucidere pentru o poveste fictivă pe care o scria.
Compania susține că lucrează la îmbunătățirea modului în care ChatGPT gestionează aceste conversații într-un mod mai sigur, dar pentru familiile care au dat în judecată gigantul AI, aceste schimbări vin prea târziu.
Când părinții lui Raine au intentat un proces împotriva OpenAI în octombrie, compania a publicat un articol pe blog în care aborda modul în care ChatGPT gestionează conversațiile sensibile legate de sănătatea mintală.
„Măsurile noastre de protecție funcționează mai fiabil în schimburile comune, scurte”, se spune în articol. „Am învățat de-a lungul timpului că aceste măsuri de protecție pot fi uneori mai puțin fiabile în interacțiunile lungi: pe măsură ce schimbul de replici se intensifică, anumite părți ale instruirii de siguranță a modelului se pot degrada”.