Xanthorox, inteligența artificială pentru infractori / Cât de ușor poate fi creat un AI criminal

Hacker ce folosește inteligența artificială
Imagine generată cu DeepAI

La începutul lunii aprilie, pe blogurile specializate în securitate cibernetică au apărut primele semnalări despre Xanthorox, o nouă platformă de inteligență artificială promovată direct ca unealtă pentru activități ilegale.

Discutată discret pe forumurile de hacking de pe dark web, Xanthorox atrage atenția nu doar prin funcționalitățile sale, ci și prin ușurința cu care poate fi accesată, construită și folosită de aproape oricine. Informația a fost preluată și de publicația Scientific American, care confirmă detaliile ciudat de transparente ale proiectului.

Departe de a fi o entitate misterioasă, creatorul Xanthorox își promovează deschis produsul, are cont public pe GitHub, videoclipuri demonstrative pe YouTube, o adresă Gmail activă și chiar canale pe Telegram și Discord, unde utilizatorii pot plăti cu criptomonede pentru a obține acces la platformă. Nimic ascuns, nimic sofisticat, doar o ofertă explicită de „criminalitate digitală”, livrată cu o transparență demnă de un start-up tech, dar cu intenții complet opuse.

Uneltele „clasice” ale AI-ului criminal

Xanthorox nu este doar o glumă de pe internet. Platforma este capabilă să genereze deepfake-uri video și audio, e-mailuri de phishing, cod malware și ransomware – adică întreg arsenalul necesar unui atac informatic modern. Într-un clip postat de creator, chatbotul răspunde cu aparentă seninătate la solicitarea „cum să fabrici o bombă nucleară în subsolul casei”, detaliind pași teoretici începând cu „obținerea de plutoniu-239”.

Deși scenariul pare desprins dintr-un film de serie B, astfel de informații nu sunt cu totul noi. Ele pot fi găsite în manuale universitare sau în surse obscure de pe internet, fără ca acest lucru să fi generat, până acum, o epidemie de reactoare casnice. Mai probabil, e o stratagemă de marketing: construirea unei „aure periculoase” care vinde mai bine în rândul utilizatorilor dornici de senzațional și putere digitală.

De la jailbreak la piață neagră AI

Ascensiunea acestui tip de inteligență artificială are rădăcini în practici vechi. Eliminarea restricțiilor software, cunoscută sub numele de jailbreaking, e o tehnică folosită încă din 2007, odată cu apariția primului iPhone. În lumea AI, fenomenul a explodat după apariția ChatGPT, când utilizatorii au început să păcălească chatbotul pentru a obține răspunsuri la solicitări ilegale.

Ulterior, interfețe precum wrappers și modele open-source fără filtre au permis apariția unor platforme precum WormGPT sau FraudGPT, care vând instrumente de hacking la prețuri accesibile, fapt care reduce drastic nevoia de cunoștințe tehnice.

O criminalitate ieftină, scalabilă și personalizată

Ceea ce face AI-ul periculos nu este doar capacitatea sa tehnică, ci și faptul că permite oricui, chiar și unui adolescent, să deruleze mii de atacuri informatice pe oră. De la e-mailuri personalizate pentru înșelătorii cu carduri, până la ransomware și deepfake-uri, totul se poate genera la comandă, în limba dorită și cu adaptări locale care elimină greșelile „clasice” din escrocherii.

În februarie, un caz din Hong Kong a demonstrat cât de realistă poate deveni o astfel de înșelătorie. Un angajat a transferat 25 de milioane de dolari după ce a participat la un apel video cu ceea ce părea a fi CFO-ul companiei, în realitate, un deepfake generat de AI.

Xanthorox, revoluție sau scam de lux?

Există însă și voci sceptice. Expertul în securitate Yael Kishon, de la compania KELA, spune că, în ciuda apariției online a platformei, nu există dovezi clare că ar fi utilizată pe scară largă sau că ar fi capabilă de ceva revoluționar. „Nu am văzut discuții relevante despre Xanthorox pe forumurile serioase de criminalitate informatică”, precizează ea.

Totuși, unii analiști avertizează că pericolul ar putea apărea tocmai din capacitatea Xanthorox de a combina răspunsuri ale mai multor modele AI și de a le valida reciproc – ceea ce ar putea crea o formă primitivă de „inteligență distribuită”, cu aplicații criminale greu de contracarat.

Daniel Kelley, jurnalistul care a documentat primul platforma, spune că aceasta ar fi deja mai eficientă decât predecesorii săi, FraudGPT și WormGPT.

Linia subțire dintre AI comercial și AI criminal

Pe fondul exploziei modelelor open-source și al lipsei unor reglementări clare, distanța dintre o unealtă de business și una de hacking devine tot mai greu de delimitat. În timp ce companiile mari de AI lucrează la bariere de siguranță, creatorii anonimi construiesc replici „elibate” de reguli și le distribuie pe Telegram, Discord sau alte rețele închise.

Concluzia e simplă, dar îngrijorătoare. Nu mai e nevoie de un grup organizat sau de genii malefice pentru a crea un AI criminal. E suficient un laptop decent, o conexiune la internet și câteva scripturi copiate de pe GitHub.

Total
0
Shares
Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Citește si...