Asigurarea securității informatice a utilizatorilor și companiilor fără utilizarea tehnologiilor de tip AI este „imposibilă”, a subliniat Silviu Stahie, specialist în securitate informatică la Bitdefender, pentru TechRider.ro.
Infractorii cibernetici utilizează, la rândul lor, tehnologiile AI, declanșând o „cursă continuă pentru a ataca sau proteja eficient țintele vizate”, a avertizat el.
„Tehnologiile de tip AI sunt utilizate de către Bitdefender de mai bine de 15 ani. Asigurarea securității utilizatorilor și companiilor fără utilizarea acestor tehnologii este imposibilă, acestea sunt esențiale indiferent de platformă.
„Inteligența artificială este cea care permite lupta cu miliardele de amenințări informatice raportate anual, mai ales atunci când trebuie oprite atacuri ce folosesc metode și unelte complet noi”.
Bitdefender a lansat de curând însă și funcționalități bazate pe AI care sunt direct disponibile utilizatorilor și care le vor permite să identifice mult mai repede tentativele de fraude, mesaje periculoase, și o varietate mare de atacuri”, a mai explicat expertul citat.
Importanța inteligenței artificiale pentru securitatea cibernetică este crucială. Potrivit Microsoft, AI este folosită pentru a analiza și corela datele despre evenimente și amenințări cibernetice din mai multe surse, pe care ulterior le transformă în detalii concrete pe care experții le folosesc pentru rapoarte și investigații.
„Dacă un atac cibernetic întrunește anumite criterii definite de echipa de securitate, inteligența artificială poate automatiza răspunsul și poate izola activele afectate”, scrie sursa citată.
Totodată, tehnologiile AI pot fi utilizate fie pentru a crea atacuri mai sofisticate, fie pentru a spori eficacitatea celor existente.
Atacurile cibernetice bazate pe AI utilizează algoritmi de machine learning (ML) pentru a automatiza, accelera sau îmbunătăți diferite faze ale unui atac cibernetic, potrivit CrowdStrike: „Acestea includ identificarea vulnerabilităților, desfășurarea de campanii de-a lungul vectorilor de atac identificați, avansarea căilor de atac, crearea de backdoors în cadrul sistemelor, extragerea sau manipularea datelor și interferența cu operațiunile sistemului.
La fel ca toți algoritmii AI, cei utilizați în atacurile cibernetice bazate pot învăța și evolua în timp. Aceasta înseamnă că se pot adapta pentru a evita detectarea sau pentru a crea un model de atac pe care un sistem de securitate nu îl poate detecta”.
Doar câteva moduri prin care AI poate fi folosită în atacurile cibernetice, conform ProDefence.ro:
- Atacuri cu phishing mai sofisticate: De exemplu, un atacator poate utiliza învățarea automată pentru a analiza mesajele de e-mail și a identifica cuvinte-cheie care indică potențiale ținte și apoi poate personaliza mesajele pentru a fi mai credibile și mai dificil de detectat.
- Atacuri cu programe malware create prin învățare automată: De exemplu, aceste programe pot utiliza analiza comportamentului pentru a se adapta la modelele de lucru ale unui utilizator și pentru a evita detectarea.
- Atacuri prin rețele botnet: De exemplu, sunt utilizate pentru a efectua atacuri DDoS. Cu ajutorul AI, aceste rețele pot fi mai sofisticate și mai greu de detectat. Pot utiliza învățarea automată pentru a identifica momentul potrivit pentru atac și pentru a evita sistemele de detectare.
CrowdStrike a mai identificat alte tipuri de atacuri bazate pe AI:
- Deepfakes: Un deepfake este un fișier video, imagine sau audio generat de inteligența artificială, menit să înșele privitorul. Pot fi utilizate ca parte a campaniilor de dezinformare, însă în contextul unui atac cibernetic este un element al campaniilor de inginerie socială. De exemplu, un atacator poate utiliza imagini existente ale unui lider sau client al unei companii pentru a crea o înregistrare vocală sau video falsificată. Instrumentul poate imita vocea persoanei și o poate instrui să întreprindă o anumită acțiune, cum ar fi transferul de fonduri, schimbarea unei parole sau acordarea accesului la sistem.
- GPT-uri malițioase: GPT un tip de model AI care poate produce text inteligent ca răspuns la indicațiile utilizatorului. Un GPT rău intenționat se referă la o versiune modificată a unui GPT care produce rezultate dăunătoare sau deliberat dezinformate. În contextul atacurilor cibernetice, un GPT malițios poate genera malware sau materiale de sprijin pentru atac (cum ar fi e-mailuri frauduloase sau conținut online fals) pentru a avansa un atac.
- Atacuri ransomware cu AI: Utilizează inteligența artificială pentru îmbunătăți performanța sau pentru a automatiza anumite aspecte ale căii de atac.
De exemplu, AI poate fi utilizată pentru cercetarea țintelor, identificarea vulnerabilităților sistemului sau criptarea datelor. De asemenea, inteligența artificială poate fi utilizată pentru a adapta și modifica în timp fișierele ransomware, făcându-le mai dificil de detectat cu ajutorul instrumentelor de securitate cibernetică.
Cum poate fi implementată AI pentru a ajuta la contracararea atacurilor cibernetice, potrivit Abnormal Security:
- Detectarea anomaliilor în rețea;
- Detectarea amenințărilor axate pe AI;
- Audituri de securitate mai rapide, ieftine și complete;
- Securitatea e-mailului prin AI comportamentală;
- Descoperirea configurărilor greșite și permisiunilor inutile;
- Operațiuni de securitate automatizate;
- Dezvoltarea de parametri de sistem care să emită alerte cu privire la activitățile cu risc ridicat.