Povestea lui Fineas Silaghi și a lui Dragoș Albăstroiu pare desprinsă din scenariul unui film despre noua generație de experți digitali. De la primele linii de cod scrise în adolescență și bootcamp-urile naționale de securitate cibernetică, cei doi au ajuns să pună bazele WreckTheLine, o echipă internațională care în 2023 s-a clasat pe locul opt în lume, testând reziliența unor giganți tehnologici precum Google, Meta sau OpenAI.
Astăzi, experiența acumulată în arenele globale de tip „Capture The Flag” este transpusă în AI SafeLabs, un startup românesc care folosește modele de limbaj de ultimă generație pentru a identifica vulnerabilități în codul sursă al aplicațiilor web. Într-o eră în care inteligența artificială generează volume imense de cod, dar nu garantează și securitatea acestuia, Fineas și Dragoș propun o soluție care îmbină viteza automatizării cu precizia unui audit manual realizat de experți.
În interviul care urmează, cei doi fondatori explică distincția fundamentală dintre hacking-ul etic și cel malițios, riscurile „halucinațiilor” AI în sistemele critice și motivul pentru care au ales să construiască acest scut digital în România, la aceleași standarde de protecție de care beneficiază corporațiile din Silicon Valley.
Reporter: Aș vrea să-mi explici ce înseamnă white hacking, cum ai ajuns tu în domeniul ăsta, ce studii ai urmat și cum ai ajuns, până la urmă, să devii antreprenor.
Fineas Silaghi: Termenul de hacker poate ridica adesea sprâncene sau suspiciuni. Însă există o distincție foarte clară: există hackeri buni și hackeri răi.
Modul în care se disting ține de felul în care folosesc vulnerabilitățile pe care le identifică. Hackerii buni, în momentul în care descoperă o vulnerabilitate, o raportează imediat companiei sau organizației care deține sistemul respectiv, tocmai pentru ca problema să fie remediată cât mai repede.
Pe de altă parte, hackerii așa-numiți răi – cei care poartă „pălăria neagră” – exploatează aceste vulnerabilități pentru diverse scopuri: financiare, de putere sau de altă natură. Noi ne bucurăm să ne numim hackeri buni.
În cazul meu, modul în care am ajuns să profesez în această direcție a fost întâmplător. Am fost pasionat de tehnologie încă de mic. Am început cu programarea, dezvoltând aplicații web. Ulterior am descoperit că aceste aplicații pot avea vulnerabilități și că ele pot fi exploatate.
De aici a urmat o tranziție destul de naturală către domeniul securității cibernetice, iar mai târziu m-am concentrat tot mai mult pe această direcție.
Rep: Dragoș, ce te-a determinat pe tine să alegi această cale? De ce nu ai fost tentat, la fel ca mulți alții, pe partea de hacking „negru”?
Dragoș Albăstroiu: Aș spune că este, în principal, o chestiune de etică. Nu m-aș fi văzut vreodată făcând ceva malițios sau ceva care ar putea fi considerat malițios. Și, la fel ca Fineas, am intrat în acest domeniu întâmplător, prin intermediul competițiilor online.
Aceste competiții au tocmai scopul de a te învăța securitate cibernetică într-un cadru controlat și de a te pregăti să aplici aceste cunoștințe în mod responsabil, nu în scopuri ilegale.
Rep: Dă-mi exemple de astfel de concursuri online, pentru că poate sunt tineri care vor să vă calce pe urme și nu știu unde să le găsească sau cum să înceapă.
D. A.: Cred că cel mai important concurs național este etapa de preselecție pentru Campionatul European de Securitate Cibernetică. La această etapă participă mai mulți tineri, iar după finală aproximativ 20–30 dintre ei sunt selectați pentru un bootcamp de pregătire. Acolo ne-am întâlnit și noi doi, până la urmă, în 2017.
Rep.: Din ce știu, voi ați participat la foarte multe concursuri de securitate cibernetică la nivel mondial. Ați călătorit în câte țări? Vorbește puțin despre asta. Spune-mi unde ați ajuns, ce ați făcut acolo și ce premii ați câștigat.
F. S.: Inițial ne-am cunoscut în cadrul acestei competiții naționale de securitate cibernetică. Dezavantajul acestei competiții este însă că are loc doar o dată pe an. Există un bootcamp de o săptămână, apoi etapa europeană a competiției, iar după aceea lucrurile se încheie până anul următor.
Pentru că în noi se stârnise deja o pasiune pentru acest domeniu, ne-am gândit să creăm o echipă paralelă cu echipa națională și să continuăm să participăm la competiții cât mai des.
Am participat cu ea la câteva competiții, pe atunci fiind încă liceeni. La un moment dat ne-am întâlnit într-o competiție cu o altă echipă de liceeni din Coreea. La finalul competiției ei au terminat pe locul întâi, iar noi pe locul doi.
Cu acea ocazie ne-am împrietenit și am decis să ne unim forțele pentru a crea o echipă mai mare. Noi eram patru membri, ei erau trei, iar din unirea celor două echipe a luat naștere WreckTheLine, echipă care este activă și în prezent.
De-a lungul anilor s-au alăturat membri din mai multe țări. Avem colegi din Cehia, Germania, Statele Unite și din multe alte locuri. În momentul de față suntem o echipă internațională, nu mai suntem doar o echipă românească, cum am pornit la început.
De-a lungul anilor, așa cum am menționat, am participat la diverse competiții. Probabil cea mai bună prestație a noastră a fost în 2023, când am terminat pe locul opt în lume într-un clasament general care ia în calcul toate punctele acumulate într-un an.
Pe lângă asta, am participat și la competiții individuale importante. Am ajuns în finala Google CTF, o competiție de securitate cibernetică organizată de Google. Am fost invitați de Facebook într-un program privat în care am încercat să testăm securitatea aplicațiilor lor și să îi ajutăm să o îmbunătățească.
Am participat la competiții în China, Coreea, Japonia, Mexic și în multe alte locuri. Practic, am ajuns cam peste tot prin lume.
Rep: Înțeleg că ideea platformei AI SafeLabs v-a venit în timp ce v-ați cunoscut într-un astfel de bootcamp. Aș vrea să-mi spui ce este această platformă, cu ce se ocupă și, ulterior, dacă aș avea o companie, de ce ar trebui să apelez la voi.
F.S.: La începutul anului 2024, eram la o conferință Defcon în Las Vegas, unde am urmărit o prezentare ținută de cei de la DARPA. Aceștia făceau niște experimente locale, încercând să testeze capabilitățile acestor modele de tip LLM, în special în domeniul securității cibernetice și al identificării vulnerabilităților. Deși tehnologia era atunci încă la început și nu era considerată foarte de încredere, rezultatele obținute de cercetători au fost surprinzătoare. Modelele au reușit să identifice vulnerabilități și bucăți de cod care, de-a lungul anilor, fuseseră analizate de nenumărați cercetători, și totuși aceste modele au descoperit vulnerabilități noi.
La finalul conferinței am luat cina împreună și am discutat în continuare despre prezentarea care ne captase atenția.
Astfel, am decis să ne întoarcem acasă și să investigăm pe cont propriu aceste capabilități ale modelelor, încercând să le aplicăm în competițiile noastre, care la momentul respectiv erau practic jobul nostru full-time.
Ne-am întors acasă, am discutat cu alți colegi din echipă ideea și am început să lucrăm la un prototip mic bazat pe LLM-uri, care să ne ajute în competiții să rezolvăm problemele cât mai rapid. Și, surprinzător, a funcționat. Ne-a oferit un avantaj real, care nea permis să identificăm vulnerabilități și să rezolvăm probleme mult mai rapid decât ceilalți participanți, iar datorită acestei soluții am reușit să ne clasăm tot mai sus.
Rep: Dragoș, voi sunteți doi fondatori cu profiluri tehnice. Cum vă împărțiți responsabilitățile în cadrul companiei?
D.A.: Pot să spun că Fineas a preluat rolul executiv, și se ocupă mai mult de partea administrativă și de business, iar eu mă concentrez pe soluție: o îmbunătățesc constant, lucrez la platformă, la infrastructură și la tot ce ține de nevoile clienților și aplicațiile lor.
Rep: Cum poate fi folosită inteligența artificială pentru a accesa, să zicem, datele unei companii? Am citit zilele trecute o știre cum că un oficial chinez care a folosit ChatGPT, a deconspirat fără să vrea o întreagă operațiune internațională a Beijingului. Cum puteți voi să preveniți o astfel de intruziune a inteligenței artificiale într-un sistem?
F.S.: Exemplul pe care l-ai menționat, în care AI-ul dezvăluie anumite informații, nu este deloc surprinzător. Este, de fapt, destul de tipic pentru comportamentul unui model de tip LLM. De ce? Din cauza așa-numitei „halucinații” – atunci când dai la început o sarcină de rezolvat, modelul, datorită mecanismului său matematic intern, poate ajunge să „o ia pe cărări paralele” dacă nu este bine coordonat. Și ca paranteză, aceasta a fost una dintre problemele cu care ne-am confruntat și noi: ne asigurăm întotdeauna că modelul rămâne în parametrii și investighează doar ceea ce i se cere, în cadrul soluției noastre.
Revenind, acesta este modul cel mai natural prin care un LLM poate face lucruri neprevăzute sau chiar necerute. Cum putem combate acest fenomen? Cred că cel mai eficient mod este prevenția. Dacă o companie își securizează aplicația web folosind soluția noastră înainte de lansarea pe piață, deja face primul pas esențial. Astfel, de la lansare, aplicația este securizată și protejată împotriva problemelor.
Îmi place să fac o analogie cu corpul nostru sau cu mașina personală. Nu ne facem analizele medicale doar o singură dată în viață și apoi trăim fără verificări. Pe baza rezultatelor analizelor de sânge sau altor investigații, trebuie să repetăm examinările în mod regulat. La fel se întâmplă și cu mașina, unde ITP-ul trebuie făcut anual.
Poate vă întrebați de ce în cazul aplicațiilor web trebuie să repetăm auditul de securitate anual, chiar dacă codul nu s-a schimbat deloc după lansare. Ei bine, chiar dacă aplicația rămâne neschimbată, tehnologia din spatele ei evoluează constant: framework-uri noi, actualizări de limbaje de programare, sau modificări ale dependențelor, adică alte aplicații de care depinde sistemul tău. Unele proiecte pot fi abandonate sau neîntreținute. Din acest motiv, auditul constant și repetat este cea mai naturală metodă de a rămâne securizat și de a preveni posibile atacuri.
Rep: Dragoș, voi cunoașteți bine piața din România în domeniul securității cibernetice. Care sunt cele mai comune probleme pe care le-ați întâlnit în sistemele românești?
D.A.: Am întâlnit mai multe probleme, dar cea mai comună este ceea ce numim „broken access control”. Practic, aplicația web nu verifică în mod corect permisiunile utilizatorilor: fie între obiectele accesate de diferiți utilizatori din aceeași organizație, fie între membri din organizații diferite. Aceasta este o problemă frecventă și una pe care analiza statică clasică nu o poate detecta.
Aici intervine soluția noastră cu inteligență artificială. Modelul înțelege aplicația web, rolurile utilizatorilor în organizații și poate detecta acest tip de vulnerabilitate. Rezultatele obținute până acum sunt foarte bune, iar această abordare ne permite să identificăm probleme pe care metodele tradiționale le-ar rata.
Rep: Nu pot să nu mă gândesc la faptul că toată lumea vorbește despre cum AI-ul va prelua joburi. dacă AI-ul va învăța să scrie cod singur, nu va fi capabil peste câțiva ani să-și creeze propriile sisteme de securitate? În acest caz, platforma voastră ar mai fi utilă?
F.S.: E o întrebare bună. Cred că răspunsul este multiplu. Putem specula asupra direcției în care ar putea evolua AI-ul și asupra implicațiilor acestuia, dar, fundamental, din păcate, AI-urile nu sunt, cel puțin în prezent și în viitorul apropiat, capabile să genereze cod complet securizat.
Un motiv este complexitatea aplicațiilor pe care le solicităm: acestea au multe componente interdependente, iar AI-ul nu poate să țină evidența tuturor interacțiunilor pentru a se asigura că totul este securizat.
Alt motiv ține de datele cu care AI-ul a fost antrenat. Aceste informații sunt culese din cod existent pe internet, scris de oameni din întreaga lume. AI-ul învață să scrie cod pe baza acestor exemple și să genereze cod nou. Dacă codul folosit pentru antrenament are vulnerabilități, codul generat de AI va avea, la rândul său, aceleași probleme.
Prin urmare, programele pe care AI-ul le va crea în viitorul apropiat vor rămâne vulnerabile și vor avea nevoie de o verificare atentă din partea unui specialist, pentru a identifica eventualele probleme de securitate.
Rep: Dragoș, ați menționat mai devreme că voi ați raportat deja vulnerabilități în sistemele unor companii mari. Vorbim despre Silicon Valley, despre OpenAI, Anthropic, Facebook și altele. Cum au reacționat aceste companii când le-ați semnalat vulnerabilitățile?
D.A.: Am raportat numeroase vulnerabilități la companii mari. În general, aceste companii colaborează cu cercetători în securitate cibernetică pentru a menține o relație bună cu aceștia. Am fost invitați la diverse conferințe organizate de ele, iar efortul nostru a fost de obicei recompensat fie cu sume de bani, fie cu recunoaștere profesională, de exemplu prin mențiuni pe platformele lor sau prin înscrierea pe leaderboard-urile interne dedicate acestor companii.
Rep: Fiind în contact cu astfel de companii și cu oamenii de acolo, mă gândesc că ați primit deja oferte să lucrați pentru ele. Și totuși ați ales România.
D.A.: Este o alegere la care ne-am gândit foarte mult. Dacă am raportat vulnerabilități către companii foarte mari, care angajează cei mai buni ingineri pentru a construi software, ne-am întrebat: ce se întâmplă cu companiile mai mici, care nu au astfel de specialiști sau echipe mari de securitate? Cum le putem ajuta pe acestea?
Până la urmă, noi am lucrat ca auditori și am făcut audituri pentru companii mari, medii și mici. Părerea noastră este că datele unei companii trebuie să rămână sigure. Vedem zilnic în mass-media breșe de securitate și dorim să ajutăm aceste companii, cât putem, să le prevină.
Rep: Se vorbește mult despre apariția inteligenței artificiale generale sau chiar a super-inteligenței artificiale. Crezi că se va ajunge la un asemenea nivel al dezvoltării AI? Și dacă da, cum ar putea oamenii ca voi să o combată?
D.A.: Cred că cea mai mare preocupare ar fi apariția unei super-inteligențe artificiale, un punct în care AI-ul ar putea să se îmbunătățească singur. Până atunci, însă, cred că va fi în continuare nevoie de cercetători în securitate cibernetică care să instruiască aceste modele și să le învețe să detecteze noi tipuri de vulnerabilități.
F.S.: Eu văd încă o limitare foarte clară, un fel de „bottleneck”, legată de tranziția de la AI-ul actual la o inteligență artificială generală. Această limitare ține de suportul hardware și de constrângerile fizice de care dispunem în prezent. Modelele trebuie să rămână într-o anumită dimensiune.
Totuși, există un contrargument. Am putea avea modele specializate, unul pentru geografie, altul pentru arheologie, altul pentru tehnologie, iar deasupra lor să existe un model general care să le coordoneze și să le folosească ca sub-module. Astfel, am simula practic o inteligență artificială generală, capabilă să acopere mai multe domenii. Sigur, teoretic aceasta ar putea fi o arhitectură validă, însă momentan nu există multe prototipuri în această direcție, așa că e greu de estimat cu exactitate ce rezultate ar putea avea.
Rep: Sunteți experți în domeniul vulnerabilităților AI și al securității cibernetice. Ce vă sperie cel mai mult din perspectiva tehnologică pentru următorii doi-cinci ani? Există ceva care să vă facă să vă gândiți: „Dacă se întâmplă asta, nu voi ști ce să fac”?
D.A.: Da, cred că principala noastră teamă ar fi apariția super-inteligenței artificiale, adică acele modele AI care ar putea să se îmbunătățească singure. În plus, ne preocupă și faptul că atacatorii ar putea folosi aceste modele în scopuri rău-intenționate, de exemplu pentru a exploata vulnerabilități și a expune date confidențiale. Este o teamă reală, mai ales că astfel de scenarii au început deja să se manifeste, iar noi încercăm să prevenim asemenea situații.
Un alt aspect important este că, în prezent, AI-ul permite oricui să creeze programe și să genereze cod, fără a avea un profil tehnic sau studii de specialitate. Oricine are acces la AI poate să creeze aplicații, să le publice online, iar utilizatorii să le folosească. De multe ori întâlnim cazuri în care persoane fără experiență tehnică lansează aplicații pe care nici măcar nu le înțeleg pe deplin.
Vorbești despre încrederea pe care utilizatorul obișnuit o poate avea în astfel de sisteme. Gândiți-vă la cineva fără cunoștințe tehnice profunde, care folosește platforme populare precum ChatGPT sau Gemini Cloud. Cât de multă încredere poate avea când își introduce datele personale acolo, fie că își creează un cont, fie că folosește o platformă gratuită și oferă informații despre sine?
Rep: Cu ce se diferențiază AI SafeLabs față de ce există deja pe piață, astfel încât lumea să înțeleagă și să poată apela la voi?
F.S.: În prezent, dacă o companie dorește să-și securizeze aplicația, are două opțiuni principale. Prima este să apeleze la firme tradiționale de securitate cibernetică, care oferă servicii manuale de cod review sau pen-testing. A doua opțiune sunt platformele automate care execută astfel de verificări de securitate în mod autonom.
Care este problema cu aceste soluții? În cazul primelor, lucrul cu experți umani poate asigura o securitate foarte bună, mai ales dacă vorbim de cei mai buni profesioniști, dar există două inconveniente majore: procesul este extrem de lent și costisitor. De exemplu, poate dura luni până când o companie este programată pentru un audit, iar finalizarea acestuia poate lua săptămâni sau chiar luni, în funcție de complexitatea aplicației. În plus, prețul unor astfel de servicii de top este prohibitiv, ceea ce le face inaccesibile pentru firmele mai mici.
În cazul soluțiilor automatizate, problema este alta: deși sunt rapide și mai accesibile ca preț, ele omit frecvent vulnerabilități critice, fiind capabile să identifice doar cele evidente și ușor de găsit.
În lumina acestor două limitări a apărut SAFE. Platforma noastră combină avantajele ambelor soluții: oferim servicii rapide, disponibile oricând, accesibile indiferent de dimensiunea companiei, și cu o calitate comparabilă cu cea a experților care ar face manual auditul. Costurile se modelează în funcție de aplicația fiecărei companii, iar clienții noștri beneficiază de protecție de top fără întârzieri sau costuri prohibitive.
Rep: Care sunt următorii voștri pași?
F.S.: Platforma noastră oferă în prezent trei tipuri de servicii. Primul este „source code auditing”. Acest serviciu presupune ca utilizatorii sau clienții să conecteze codul sursă al aplicației lor la platforma noastră, iar noi îl scanăm complet și livrăm un raport cu toate vulnerabilitățile identificate. Acest serviciu a fost lansat în februarie anul acesta.
Celelalte două servicii nu au fost lansate încă, dar urmează să fie disponibile luna viitoare și, respectiv, cât mai curând după aceea. Ele se numesc „black-box pen testing” și „white-box pen testing”. Diferența față de primul serviciu este că acestea includ și partea dinamică.
Pentru serviciul de black-box pen testing, utilizatorul trebuie să ofere doar URL-ul aplicației, fără a furniza codul sursă sau credențialele private, care reprezintă proprietate intelectuală. Platforma noastră pornește atunci o rețea de agenți care testează aplicația folosind diverse instrumente automate, identificând potențiale vulnerabilități.
White-box pen testing combină auditul codului sursă cu testarea black-box. Platforma primește atât codul sursă, cât și URL-ul aplicației, ceea ce îi permite să analizeze mai profund aplicația, să înțeleagă exact ce se întâmplă în interior și să valideze orice vulnerabilitate direct împotriva site-ului, pentru a confirma că este reală.
Planurile noastre imediate sunt să lansăm aceste două servicii de pen-testing. Pe termen mai lung, după ce securizăm următorul runde de investiții, dorim să scalăm platforma și să extindem capabilitățile acesteia pentru a securiza și aplicații mobile, nu doar aplicații web.