Un simplu wallpaper descărcat de pe internet ar putea fi suficient pentru a compromite un computer pe care rulează un agent AI, susţin cercetătorii de la Universitatea Oxford într-un studiu publicat pe platforma arXiv.org, citat de LiveScience.
Urmărește cele mai noi producții video TechRider.ro
- articolul continuă mai jos -
Dacă un chatbot precum ChatGPT se limitează la a răspunde la întrebări, agenţii AI pot executa efectiv sarcini pe computer. Ei pot deschid tab-uri, completează formulare, fac rezervări sau gestionează fişiere. Tocmai această libertate de acţiune îi face vulnerabili.
„O imagine alterată cu Taylor Swift pe Twitter ar putea fi suficientă pentru ca agentul de pe computerul cuiva să acţioneze maliţios”, explică Yarin Gal, profesor asociat de machine learning la Oxford. Potrivit studiului, un astfel de atac ar putea forţa agentul să trimită parolele stocate şi să redistribuie imaginea infectată, contaminând astfel şi alte sisteme.
Pixelii invizibili care dau comenzi
Deşi pentru utilizator o fotografie arată normal, câţiva pixeli modificaţi pot funcţiona ca un cod ascuns. Agenţii AI, care fac capturi de ecran pentru a interpreta ce se află pe desktop, citesc aceste instrucţiuni invizibile şi le execută. Astfel, o poză cu un câine ar putea fi etichetată greşit ca o „instrucţiune” de a trimite date personale.
Wallpaper-urile sunt o ţintă ideală, deoarece rămân permanent în cadru atunci când agentul face capturi de ecran. Mesajele ascunse rezistă chiar şi la redimensionarea sau comprimarea imaginilor.
Vulnerabilitate mai mare pentru modelele open-source
Agenţii construiţi pe modele open-source sunt cei mai expuşi, întrucât atacatorii pot analiza exact cum procesează AI-ul datele vizuale. Totuşi, nici modelele cu sursă închisă nu sunt complet sigure.
„Multe companii mizează pe securitatea prin obscuritate, dar asta nu înseamnă că sistemele lor sunt invulnerabile”, avertizează coautorul Alasdair Paren.
Apel la prudenţă înaintea expansiunii agenţilor AI
Echipa Oxford speră ca publicarea studiului să ajute dezvoltatorii să implementeze măsuri de protecţie. „Acesta este primul pas către mecanisme de apărare. Odată ce înţelegem cum se pot construi atacuri mai puternice, putem antrena modelele să fie mai rezistente”, spune coautorul Adel Bibi.