Un tată cere OpenAI să șteargă afirmația falsă a ChatGPT potrivit căreia și-ar fi ucis copiii

Father and son holding hands while walking through a busy city street in grayscale.
Photo by Paweł L. on Pexels

Un norvegian a spus că a fost îngrozit să descopere că ChatGPT a furnizat conținut care l-a acuzat în mod fals că și-ar fi ucis propriii copii, relateaza arstechnica.com.

Potrivit unei plângeri depuse joi de organizația europeană pentru drepturi digitale Noyb, Arve Hjalmar Holmen a vrut să vadă ce informații ar putea oferi ChatGPT dacă un utilizator i-ar căuta numele. A fost șocat când ChatGPT a răspuns cu afirmații false conform cărora a fost condamnat la 21 de ani de închisoare ca „infractor condamnat care și-a ucis doi dintre copiii săi și a încercat să-l ucidă pe al treilea fiu”, se arată într-un comunicat de presă al Noyb.

„Povestea horror inventată” de ChatGPT nu doar că descria evenimente care nu au avut loc niciodată, ci amesteca și „date personale clar identificabile”—cum ar fi numărul și sexul real al copiilor lui Holmen și numele orașului său natal—cu „informații false”, se arată în comunicatul Noyb.

Prin „invenția unui criminal și a închisorii”, dar incluzând „elemente reale” din „viața personală” a norvegianului, ChatGPT ar fi încălcat cerințele GDPR privind „acuratețea datelor”, deoarece Holmen nu a putut corecta cu ușurință informațiile, așa cum impune GDPR.

Din perspectiva lui Holmen, reputația sa era în pericol atâta timp cât informațiile rămâneau în sistem și—în ciuda „declinărilor de răspundere minore” care le amintesc utilizatorilor ChatGPT să verifice datele—nimeni nu putea ști câți oameni au fost expuși poveștii false și au crezut că aceasta era adevărată.

„Unii cred că «nu iese fum fără foc»”, a spus Holmen în comunicat. „Faptul că cineva ar putea citi acest conținut și să creadă că este adevărat este lucrul care mă înspăimântă cel mai mult.”

În prezent, ChatGPT nu mai repetă aceste afirmații oribile și false despre Holmen. O actualizare mai recentă a remediat aparent problema, deoarece „ChatGPT caută acum informații pe Internet despre persoane atunci când este întrebat cine sunt”, a spus Noyb. Dar, deoarece OpenAI a susținut anterior că nu poate corecta informațiile — ci doar le poate bloca — povestea falsă despre crima copiilor probabil că există în continuare în datele interne ale ChatGPT. Și, atât timp cât Holmen nu le poate corecta, Noyb susține că acest fapt reprezintă o încălcare a GDPR.

„Deși prejudiciul poate fi mai limitat dacă datele personale false nu sunt partajate, GDPR se aplică atât datelor interne, cât și datelor distribuite”, notează Noyb.

OpenAI ar putea să nu poată șterge cu ușurință datele

Holmen nu este singurul utilizator ChatGPT care s-a temut că halucinațiile chatbot-ului i-ar putea distruge viața. La câteva luni după ce ChatGPT a fost lansat la sfârșitul lui 2022, un primar australian a amenințat că va da în judecată pentru defăimare după ce chatbot-ul a pretins în mod fals că acesta a fost la închisoare. Cam în aceeași perioadă, ChatGPT a asociat un profesor de drept real cu un scandal de hărțuire sexuală inexistent, a relatat The Washington Post. Câteva luni mai târziu, un prezentator de radio a dat în judecată OpenAI din cauza conținutului ChatGPT, care descria acuzații de delapidare inexistente.

În unele cazuri, OpenAI a filtrat modelul pentru a evita generarea de conținut dăunător, dar probabil nu a șters informațiile false din datele de instruire, a sugerat Noyb. Cu toate acestea, filtrarea conținutului și afișarea de declinări de responsabilitate nu sunt suficiente pentru a preveni daune reputaționale, a susținut avocata specializată în protecția datelor de la Noyb, Kleanthi Sardeli.

„Adăugarea unui avertisment potrivit căruia nu respecți legea nu face ca legea să dispară”, a spus Sardeli. „Companiile de inteligență artificială nu pot nici să «ascundă» informații false de utilizatori în timp ce, intern, încă procesează aceste informații. Ele ar trebui să nu se mai comporte ca și cum GDPR nu li s-ar aplica, când, în mod evident, li se aplică. Dacă halucinațiile nu sunt stopate, oamenii pot suferi cu ușurință daune la nivel reputațional.”

Noyb consideră că OpenAI trebuie să fie presată să depună mai multe eforturi pentru a preveni conținutul defăimător. Depunând o plângere la autoritatea norvegiană pentru protecția datelor, Datatilsynet, Noyb solicită emiterea unui ordin care să oblige OpenAI „să șteargă conținutul defăimător și să ajusteze fin modelul pentru a elimina rezultatele inexacte.” Noyb a sugerat, de asemenea, „impunerea unei amenzi administrative pentru a preveni încălcări similare în viitor.”

Aceasta este a doua plângere a Noyb împotriva ChatGPT al OpenAI, după o plângere la o autoritate austriacă de protecție a datelor din aprilie anul trecut. Tot mai multe state membre ale UE analizează companiile de inteligență artificială, iar OpenAI a rămas o țintă populară. În 2023, Comitetul European pentru Protecția Datelor a lansat rapid un grup de lucru privind ChatGPT pentru a investiga preocupările legate de confidențialitatea datelor și posibile măsuri de aplicare, la scurt timp după ce ChatGPT a început să difuzeze neadevăruri pe care utilizatorii le considerau defăimătoare.

Până acum, OpenAI a suportat consecințe cel puțin într-un stat membru, unde rezultatul ar putea fi favorabil argumentelor Noyb. În 2024, compania a fost sancționată cu o amendă de 16 milioane de dolari și a primit o interdicție temporară în Italia după o breșă de securitate care a dezvăluit conversații și informații de plată ale utilizatorilor. Pentru a restaura ChatGPT, OpenAI a fost obligată să facă modificări, inclusiv să ofere „un instrument prin care” utilizatorii „să poată solicita și obține corectarea datelor lor personale dacă sunt procesate inexact în generarea de conținut.”

Dacă autoritățile norvegiene pentru protecția datelor vor constata în mod similar că OpenAI nu le permite utilizatorilor să-și corecteze informațiile, compania ar putea fi obligată să facă mai multe schimbări în UE. OpenAI ar putea chiar să fie nevoită să-și reconstruiască algoritmul ChatGPT. Potrivit Noyb, dacă ChatGPT alimentează datele utilizatorilor, precum afirmațiile false despre crima copiilor, „înapoi în sistem pentru instruire,” atunci „nu există nicio modalitate pentru individ să aibă certitudinea absolută că [rezultatele problematice] pot fi complet șterse… decât dacă întregul model de inteligență artificială este reinstruit.”

Total
0
Shares
Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Citește si...