Chatboții cu inteligență artificială, folosiți zilnic de milioane de oameni pentru conversații rapide și răspunsuri „umane”, pot fi transformați în adevărate capcane de confidențialitate. Un studiu realizat de King’s College London, citat de Phys.org, arată că acești asistenți virtuali pot fi manipulați pentru a determina utilizatorii să dezvăluie de peste 12 ori mai multe informații personale decât ar face-o în mod obișnuit.
Urmărește cele mai noi producții video TechRider.ro
- articolul continuă mai jos -
Cercetarea, prezentată la Simpozionul de Securitate USENIX 2025 din Seattle, este prima care demonstrează, cu teste concrete, că inteligențele artificiale conversaționale programate cu intenții malițioase pot exploata tehnici psihologice pentru a „stoarce” date private. Trei tipuri de strategii au fost analizate: abordarea directă, cea orientată pe beneficii pentru utilizator și metoda reciprocă, ultima fiind cea mai eficientă.
Adaptarea unui chatbot pentru a deveni „vânător de date” este surprinzător de simplă
„Strategia reciprocă” a funcționat prin răspunsuri empatice, validarea sentimentelor, povești similare din experiența altora și promisiunea confidențialității. Rezultatul? Oamenii și-au scăzut vigilența și au împărtășit detalii intime fără să realizeze riscul.
Testele au fost realizate pe 502 persoane, folosind modele de limbaj disponibile pe piață, precum Mistral și două versiuni de Llama, fără ca participanții să știe dinainte scopul real al experimentului.
Specialiștii avertizează că adaptarea unui chatbot pentru a deveni „vânător de date” este surprinzător de simplă, necesitând puține cunoștințe tehnice. În plus, modelele de limbaj mari (LLM) folosite în prezent în servicii de la asistență clienți la sănătate au deja o problemă structurală: tind să memoreze datele din seturile masive cu care sunt antrenate.
Oamenii nu conștientizează încă riscul
„Aceste modele nu sunt bune la protejarea informațiilor. Iar dacă sunt manipulate, pot deveni o amenințare majoră pentru confidențialitate”, avertizează dr. Xiao Zhan, cercetător la King’s College London.
Dr. William Seymour, expert în securitate cibernetică, subliniază decalajul uriaș dintre conștientizarea riscului și cantitatea de informații divulgate: „Trebuie să îi ajutăm pe oameni să recunoască semnele unei conversații cu scop ascuns. În plus, platformele și autoritățile trebuie să impună audituri și reguli mai stricte pentru a preveni colectarea ascunsă de date.”
Într-o lume tot mai dependentă de AI, studiul ridică o întrebare crucială: cât de mult din viața noastră privată suntem dispuși să punem, fără să știm, în mâinile unui chatbot?