OpenAI și Anthropic introduc măsuri pentru identificarea minorilor / ChatGPT va aplica ghiduri speciale pentru adolescenți

Smartphone utilizat de un minor
Smartphone. Credit photo: Andrey Popov | Dreamstime.com

OpenAI și Anthropic anunță măsuri noi menite să crească nivelul de siguranță pentru adolescenți care folosesc chatboturi bazate pe inteligență artificială. Ambele companii lucrează la sisteme care pot estima dacă un utilizator este minor și la reguli mai stricte privind modul în care modelele AI interacționează cu persoane sub 18 ani, potrivit TheVerge.

Urmărește cele mai noi producții video TechRider.ro

- articolul continuă mai jos -

Noi reguli pentru ChatGPT

OpenAI a actualizat documentul său de referință, Model Spec, care definește comportamentul chatbotului ChatGPT. Noul set de reguli introduce patru principii dedicate utilizatorilor cu vârste între 13 și 17 ani. Obiectivul declarat este ca siguranța adolescenților să fie prioritară, chiar și atunci când acest lucru intră în conflict cu alte obiective, precum libertatea maximă de explorare intelectuală.

Potrivit OpenAI, ChatGPT trebuie să ghideze adolescenții către opțiuni mai sigure atunci când conversațiile pot deveni riscante. De asemenea, modelul este instruit să promoveze sprijinul din lumea reală, inclusiv relațiile offline, și să stabilească așteptări clare în dialogul cu utilizatorii tineri. Documentul subliniază că adolescenții trebuie „tratați ca adolescenți”, cu căldură și respect, fără un ton condescendent și fără a fi abordați ca adulți.

Presiune politică și cazuri juridice

Schimbările apar într-un context de presiune politică și publică tot mai mare asupra companiilor de inteligență artificială, pe fondul îngrijorărilor legate de impactul asupra sănătății mintale. OpenAI se confruntă în prezent cu un proces în care este acuzată că ChatGPT ar fi oferit instrucțiuni legate de auto-vătămare și sinucidere unui adolescent. După acest caz, compania a introdus controale parentale și a anunțat că ChatGPT nu va mai discuta despre sinucidere cu utilizatorii minori.

Compania afirmă că noile reguli vor duce la „mecanisme de protecție mai puternice, alternative mai sigure și încurajarea de a apela la sprijin offline de încredere atunci când conversațiile intră în zone cu risc ridicat”. OpenAI precizează că, în situații care indică un „risc iminent”, ChatGPT îi va îndemna pe adolescenți să contacteze serviciile de urgență sau resursele de criză.

Model de predicție a vârstei

În paralel, OpenAI se află în faze incipiente de dezvoltare a unui model de predicție a vârstei. Acesta va încerca să estimeze dacă un utilizator ar putea avea sub 18 ani, pe baza comportamentului și a conversației. Dacă sistemul identifică un posibil minor, măsurile de protecție pentru adolescenți vor fi activate automat. Utilizatorii adulți vor putea să își verifice vârsta în cazul în care sunt identificați greșit.

Abordarea Anthropic pentru Claude

Anthropic adoptă o abordare similară pentru chatbotul său, Claude. Compania dezvoltă un sistem care detectează „semne conversaționale subtile” ce pot indica faptul că un utilizator este minor. Conturile confirmate ca aparținând persoanelor sub 18 ani vor fi dezactivate. În prezent, Anthropic marchează deja utilizatorii care se declară singuri minori în timpul conversațiilor.

Provocări în gestionarea subiectelor sensibile

Anthropic oferă și detalii despre modul în care își antrenează modelele să răspundă la subiecte sensibile, precum sinuciderea și auto-vătămarea. Compania susține că a făcut progrese în reducerea „sico­fanției”, tendința modelelor AI de a valida gândirea dăunătoare a utilizatorilor. „Cele mai recente modele ale noastre sunt cele mai puțin sico­fantice de până acum”, afirmă compania, menționând că modelul Haiku 4.5 a corectat acest comportament în 37% dintre cazuri.

Anthropic recunoaște însă limitele actuale. „Această evaluare arată că există încă un spațiu semnificativ de îmbunătățire pentru toate modelele noastre”, transmite compania, explicând că rezultatele reflectă un compromis între un ton prietenos și riscul de a confirma idei dăunătoare.

Total
0
Shares
Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Citește si...