Cum pot fi păcăliţi agenţii AI să fure datele utilizatorilor / Poze banale pot conţine comenzi invizibile pentru AI

Fotografii pe ecranul telefonului
Photo by geralt on Pixabay

Un simplu wallpaper descărcat de pe internet ar putea fi suficient pentru a compromite un computer pe care rulează un agent AI, susţin cercetătorii de la Universitatea Oxford într-un studiu publicat pe platforma arXiv.org, citat de LiveScience.

Urmărește cele mai noi producții video TechRider.ro

- articolul continuă mai jos -

Dacă un chatbot precum ChatGPT se limitează la a răspunde la întrebări, agenţii AI pot executa efectiv sarcini pe computer. Ei pot deschid tab-uri, completează formulare, fac rezervări sau gestionează fişiere. Tocmai această libertate de acţiune îi face vulnerabili.

„O imagine alterată cu Taylor Swift pe Twitter ar putea fi suficientă pentru ca agentul de pe computerul cuiva să acţioneze maliţios”, explică Yarin Gal, profesor asociat de machine learning la Oxford. Potrivit studiului, un astfel de atac ar putea forţa agentul să trimită parolele stocate şi să redistribuie imaginea infectată, contaminând astfel şi alte sisteme.

Pixelii invizibili care dau comenzi

Deşi pentru utilizator o fotografie arată normal, câţiva pixeli modificaţi pot funcţiona ca un cod ascuns. Agenţii AI, care fac capturi de ecran pentru a interpreta ce se află pe desktop, citesc aceste instrucţiuni invizibile şi le execută. Astfel, o poză cu un câine ar putea fi etichetată greşit ca o „instrucţiune” de a trimite date personale.

Wallpaper-urile sunt o ţintă ideală, deoarece rămân permanent în cadru atunci când agentul face capturi de ecran. Mesajele ascunse rezistă chiar şi la redimensionarea sau comprimarea imaginilor.

Vulnerabilitate mai mare pentru modelele open-source

Agenţii construiţi pe modele open-source sunt cei mai expuşi, întrucât atacatorii pot analiza exact cum procesează AI-ul datele vizuale. Totuşi, nici modelele cu sursă închisă nu sunt complet sigure.

„Multe companii mizează pe securitatea prin obscuritate, dar asta nu înseamnă că sistemele lor sunt invulnerabile”, avertizează coautorul Alasdair Paren.

Apel la prudenţă înaintea expansiunii agenţilor AI

Echipa Oxford speră ca publicarea studiului să ajute dezvoltatorii să implementeze măsuri de protecţie. „Acesta este primul pas către mecanisme de apărare. Odată ce înţelegem cum se pot construi atacuri mai puternice, putem antrena modelele să fie mai rezistente”, spune coautorul Adel Bibi.

  • George Radu este un autor care abordează subiecte variate din domeniul tehnologiei, apărării și viitorului. Domeniile sale de expertiză includ inteligența artificială etică, interfețele om-mașină (HMI), realitatea augmentată și virtuală aplicată (XR), precum și impactul social și cultural al noilor tehnologii. Nu se teme să pună întrebări dificile și să exploreze implicațiile filozofice ale inovațiilor tehnologice.

Total
0
Shares
Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Citește si...