Cum folosesc infractorii cibernetici inteligența artificială: e-mailuri de phishing mai convingătoare, vishing, malware ascuns în instrumente AI – raport ENISA

Hackerii nord-coreeni Lazarus au atacat șase companii în atacuri de tip „waterhole”
Photo by Sora Shimazaki on Pexels

Integrarea și abuzul inteligenței artificiale (IA) au devenit un element definitoriu al peisajului amenințărilor informatice, generând un nou nivel de scalabilitate în activitățile rău intenționate. Această tendință este previzibilă, adversarii folosind în mod constant sistemele de AI atât ca instrumente pentru a îmbunătăți acțiunile ofensive, cât și ca ținte pentru exploatare, potrivit raportului Threat Landscape 2025 al European Network and Information Security Agency (ENISA).

Urmărește cele mai noi producții video TechRider.ro

- articolul continuă mai jos -

Impactul cel mai copleșitor se observă în ingineria socială: inteligența artificială este utilizată pentru a crea e-mailuri de phishing semnificativ mai convingătoare. La începutul anului 2025, rapoartele indicau faptul că campaniile de phishing susținute de AI reprezentau peste 80% din activitatea de inginerie socială observată la nivel mondial. Infractorii cibernetici utilizează, de asemenea, AI pentru a facilita vishing-ul (voice phishing) și frauda online prin utilizarea de deepfake-uri pentru impersonare.

Actorii amenințători utilizează atât modele lingvistice comerciale de mari dimensiuni (LLM), precum Gemini de la Google și ChatGPT de la OpenAI, cât și LLM specializate, deblocate sau deturnate, precum WormGPT și FraudGPT. Aceste instrumente contribuie la automatizarea eforturilor de inginerie socială și la accelerarea dezvoltării de instrumente maligne.

În plus, grupurile legate de state, inclusiv grupurile legate de China, Iran și Coreea de Nord, utilizează AI ca asistenți de cercetare pentru recunoaștere și evitarea detectării anomaliilor. Un exemplu este Famous Chollima, care utilizează în mod notabil inteligența artificială pentru a crea profiluri LinkedIn convingătoare.

O preocupare tot mai mare este apariția sistemelor AI rău intenționate autonome, precum Xanthorox AI, fapt ce indică o trecere către instrumente personalizate care rulează pe servere locale pentru a evita detectarea.

În cele din urmă, popularitatea inteligenței artificiale generative este folosită ca momeală. Adversarii utilizează site-uri web frauduloase care se prezintă ca instrumente AI legitime (cum ar fi Kling AI, Luma AI și DeepSeek-R1) pentru a distribui malware și, de asemenea, implementează ransomware și malware deghizate în pachete de instalare de instrumente AI legitime.

  • Andrei Manole este un jurnalist român specializat în tehnologie și apărare, cu articole publicate pe TechRider.ro. Analizează subiecte precum vehicule electrice, drone, securitate cibernetică și tehnică militară, combinând informații actuale cu perspective tehnice și geopolitice clare.

Total
0
Shares
Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Citește si...