Ce dezvăluie, fără să știm, conversațiile noastre cu inteligența artificială

cum folosesc românii - chatbot-AI
Sursa foto: Tero Vesalainen | Dreamstime.com

Pe măsură ce asistenții virtuali și chatbot-urile bazate pe modele lingvistice mari devin omniprezente în birouri, școli și locuințe, utilizatorii riscă să împărtășească mai multe informații personale decât își imaginează. Un nou studiu realizat de cercetători de la University at Buffalo School of Management atrage atenția asupra unui fenomen tot mai puțin vizibil, expunerea involuntară a datelor personale în conversațiile cu AI, informează TechXplore.

Urmărește cele mai noi producții video TechRider.ro

- articolul continuă mai jos -

Lucrarea, acceptată la prestigioasa conferință internațională de știința datelor și inteligență artificială KDD 2026, analizează cum pot fi dezvoltate sisteme capabile să detecteze riscurile de confidențialitate în interacțiunile reale cu astfel de tehnologii.

Întrebări banale, informații sensibile

Potrivit autorilor, chiar și solicitările aparent inofensive, de tipul „Ce destinații recomanzi pentru o vacanță în august?” sau „Cum pot negocia o mărire de salariu?”, pot dezvălui detalii despre planurile, situația profesională, preferințele sau opiniile utilizatorilor. Iar atunci când aceste conversații sunt asociate unui cont autentificat, fiecare mesaj poate fi legat direct de o persoană reală.

„A devenit o nevoie urgentă să putem avertiza utilizatorii, în mod proactiv, asupra posibilei expuneri a datelor personale în timpul interacțiunilor cu LLM-urile”, afirmă Shaojie Tang, profesor și coautor al studiului.

Primul set de date la scară largă

Pentru a testa dacă utilizatorii pot fi avertizați înainte de a trimite mesaje care conțin informații sensibile, echipa a construit primul set de date multilingv de mari dimensiuni bazat pe conversații reale cu AI. Baza de date include aproape 250.000 de interogări și peste 150.000 de fragmente de text etichetate drept potențial riscante din perspectiva confidențialității.

Un sistem AI avansat a analizat apoi aceste date în mai multe etape. Mai întâi, a stabilit dacă un mesaj conține informații private, precum intenții, planuri, preferințe sau detalii profesionale. Apoi, a identificat exact cuvintele care generează riscul și a oferit o scurtă explicație privind natura informației dezvăluite.

Avertisment înainte de „Trimite”

Pe baza acestui set de date, cercetătorii au testat modele AI mai mici, optimizate pentru protejarea vieții private. Scopul este dezvoltarea unor sisteme care să ruleze direct pe dispozitivele personale și care să poată avertiza utilizatorul, în timp real, că mesajul pe care urmează să-l trimită ar putea dezvălui mai mult decât intenționează.

Potrivit autorilor, astfel de modele locale ar putea fi, în anumite situații, chiar mai eficiente în detectarea riscurilor decât sistemele masive bazate în cloud, oferind utilizatorilor un control mai mare asupra informațiilor pe care le împărtășesc.

  • George Radu este un autor care abordează subiecte variate din domeniul tehnologiei, apărării și viitorului. Domeniile sale de expertiză includ inteligența artificială etică, interfețele om-mașină (HMI), realitatea augmentată și virtuală aplicată (XR), precum și impactul social și cultural al noilor tehnologii. Nu se teme să pună întrebări dificile și să exploreze implicațiile filozofice ale inovațiilor tehnologice.

Total
0
Shares
Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Citește si...