Pe măsură ce Inteligența Artificială (AI) trece de la rolul de recomandare la executarea efectivă a tranzacțiilor, apar noi riscuri cu impact financiar imediat, potrivit unui raport publicat de specialiști de la Bitget și SlowMist.
Urmărește cele mai noi producții video TechRider.ro
- articolul continuă mai jos -
Analiza arată că, odată cu autonomia AI, modelele tradiționale de securitate nu mai sunt suficiente. În piața crypto, unde tranzacțiile se procesează aproape instant, un agent AI compromis sau ghidat greșit poate lua decizii înainte ca un utilizator să intervină.
Sistemele autonome deschid puncte vulnerabile, de la datele primite până la execuția tranzacțiilor, putând fi manipulate prin comenzi înșelătoare, aplicații periculoase sau API-uri cu permisiuni excesive.
Raportul subliniază că aceste vulnerabilități nu sunt izolate, ci fac parte dintr-un risc sistemic. Experții recomandă ca securitatea să fie integrată în întreaga arhitectură a sistemului AI, nu doar la nivelul aplicației.
Printre soluțiile propuse se numără separarea clară între analiză, execuție și accesul la fonduri, aplicarea principiului permisiunilor minime și verificarea tranzacțiilor prin simulări înainte de execuție.
Un model eficient de securitate trebuie să funcționeze înainte, în timpul și după tranzacție, combinând monitorizare continuă, permisiuni restrânse și controale de verificare.
Astfel, chiar dacă agenții AI operează autonom, aria lor de acțiune rămâne limitată și controlată.
Specialiștii avertizează că integrarea tot mai profundă a AI în tranzacții, administrarea activelor și operațiuni on-chain face granița dintre intenția utilizatorului și execuția sistemului mai puțin clară.
În aceste condiții, încrederea nu mai depinde doar de performanță, ci și de capacitatea sistemelor de a opera în limite controlate, asigurând control și reziliență în infrastructură.