Inteligenţa Artificială este un instrument deosebit de puternic, capabil să reacţioneze la stimuli şi să producă rezultate în funcţie de scopul celor care o controlează. Ea nu este, prin definiţie, nici bună, nici rea, se arată în ghidul „Inteligenţa artificială & manipularea percepţiei umane”, lansat de specialişti în securitate cibernetică, educaţie digitală şi prevenirea criminalităţii informatice din cadrul Poliţiei Române, scrie Agerpres.
Urmărește cele mai noi producții video TechRider.ro
- articolul continuă mai jos -
„În mâinile potrivite, AI-ul poate salva vieţi, îmbunătăţi educaţia, combate frauda, preveni atacuri cibernetice şi susţine dezvoltarea societăţii. În mâini criminale – sau doar iresponsabile – aceeaşi tehnologie poate fi injectată pentru manipulare, control, înşelătorie, programare ideologică şi destabilizare socială. Tocmai de aceea putem considera că educaţia este una dintre cele mai potrivite forme de protecţie. Dacă înţelegem cum funcţionează, putem recunoaşte mai uşor când şi cum este folosită împotriva noastră”, se arată în ghid.
Potrivit documentului, AI-ul este ideal pentru manipulare socială, deoarece accesul la volume masive de date personale şi comportamentale îi oferă posibilitatea de a procesa, în timp real, informaţii despre cine eşti, ce gândeşti, ce simţi şi cum reacţionezi, construind un profil detaliat.
De asemenea, inteligenţa artificială poate produce conţinut – texte, voci, imagini şi videoclipuri – care imită perfect stilul, tonalitatea şi autoritatea unor surse credibile, fie că este vorba despre un expert, o instituţie sau o persoană cunoscută.
AI-ul este caracterizat prin viteză şi scalabilitate. Dacă un atacator uman poate păcăli zeci de persoane, un AI bine configurat poate păcăli milioane de oameni simultan, modelând mesajul în funcţie de fiecare individ. Prin persistenţă şi adaptabilitate, AI-ul poate învăţa din reacţiile utilizatorilor, adaptându-şi tacticile şi mesajele în timp real, fără oboseală, ezitare sau limitări etice.
Prin aceste tipuri de acţiuni se poate urmări obţinerea de date sau acces neautorizat (prin phishing conversaţional sau fraudă vocală), schimbarea convingerilor ideologice, religioase sau politice, influenţarea deciziilor de consum (prin publicitate înşelătoare şi exploatarea emoţională), subminarea încrederii în instituţii, lideri sau mass-media, manipularea în masă în contexte sensibile (alegeri, crize sociale, conflicte geopolitice), precum şi divizarea comunităţilor prin polarizare, radicalizare sau dezinformare direcţionată.
Ghidul prezintă mai multe scenarii de utilizare a inteligenţei artificiale:
* Bula informaţională asistată de Inteligenţa Artificială – „când AI-ul nu doar îţi oferă ce vrei să vezi, ci te ţine captiv într-o versiune confortabilă, dar distorsionată a realităţii.”
Acest scenariu a devenit un fenomen periculos şi destul de frecvent întâlnit: izolarea utilizatorului într-o bulă informaţională creată de algoritmi AI, în care conţinutul afişat este exclusiv cel care îi confirmă convingerile, valorile şi preferinţele deja instalate la nivel de individ.
* Boţi conversaţionali pentru fraudă sau recrutare falsă – „nu toate conversaţiile naturale sunt umane. Unele sunt antrenate să te păcălească.”
În acest scenariu, un chatbot AI conversaţional, aparent legitim, iniţiază o interacţiune cu utilizatorul sub un pretext credibil: ofertă de angajare, sprijin financiar, mentorat profesional sau consiliere personală. Dialogul pare autentic, coerent, empatic – exact cum te-ai aştepta din partea unui specialist în resurse umane, a unui coleg sau a unui partener de încredere.
* Generare de materiale false hiperrealiste (deepfake) – „o imagine face cât o mie de cuvinte. Dar ce se întâmplă când imaginea e o minciună fabricată perfect?”
În acest scenariu, atacatorii folosesc inteligenţa artificială vizuală pentru a genera conţinut video sau audio complet fals, dar realist, credibil – înfăţişând persoane reale (ex: politicieni, influenceri, lideri religioşi, jurnalişti, colegi de muncă etc.) care apar în ipostaze în care nu au fost în realitate niciodată.
* Mesaje personalizate de influenţă (microtargeting AI) – „când AI-ul ştie exact ce să-ţi spună, cum şi când – ca tu să crezi că ai ales singur.”
În acest scenariu, atacatorii sau operatorii unei campanii folosesc AI pentru a crea idei ultra-personalizate, direcţionate exact către persoane sau grupuri ţintă, pe baza unui profil psihologic şi comportamental avansat. Acestea nu sunt doar convingătoare – sunt proiectate special pentru a influenţa şi declanşa reacţia exact dorită, fie că este vorba de un vot, o achiziţie, o opinie politică sau o acţiune concretă.
* Declanşarea controlată a emoţiilor (exploatarea emoţiilor negative de către AI) – „furia, frica şi anxietatea nu sunt doar reacţii – sunt şi instrumente.”
Acest scenariu abordează utilizarea intenţionată a emoţiilor negative (ex: frica, furia, panica, ruşinea sau indignarea) ca instrumente de manipulare algoritmică. Sistemele AI afective, care pot detecta stările emoţionale ale utilizatorului prin analiză comportamentală, expresii faciale, tonul vocii sau istoricul de interacţiune, sunt capabile să declanşeze şi să menţină aceste stări.
* Atacuri de tip spear phishing automatizat cu conţinut AI – „nu mai este nevoie de un hacker priceput – AI-ul poate construi atacuri personalizate în masă, cu precizie letală.”
În acest scenariu, atacatorii folosesc inteligenţa artificială pentru a automatiza campanii de spear phishing – adică tentative de înşelăciune personalizate, direcţionate către o anumită persoană sau un grup restrâns de potenţiale victime. Spre deosebire de phishingul tradiţional, care trimite mesaje generice, spear phishing-ul creat de AI este specific, personalizat, convingător, adaptat contextului real al victimei.
* Simulare de consens public prin reţele de conturi şi boţi AI – „când mii de voci care par reale spun acelaşi lucru, ajungi să crezi că tu eşti cel care greşeşte.”
În acest scenariu, atacatorii sau actorii manipulatori folosesc reţele de conturi automatizate controlate de AI (boţi sociali) pentru a crea iluzia unui consens social larg. Aceste conturi simulează persoane reale, cu profiluri credibile, imagini generate de AI, istorii de activitate şi postări convingătoare.
* Crearea de personaje publice artificiale pentru manipulare şi influenţă – „cine te influenţează? Un om – sau o entitate creată în întregime de AI, cu o agendă precisă?”
În acest scenariu, inteligenţa artificială este exploatată pentru a construi de la zero personalităţi publice false (influenceri, analişti, activişti, experţi, „voci credibile”), controlate de operatori. Aceste personaje sunt dezvoltate cu aspect vizual generat de AI (fotografii realiste, avataruri animate), biografie convingătoare, conţinut bine redactat (texte, videoclipuri, postări) sau interacţiuni automate cu publicul. Scopul este de a influenţa publicul, de a clădi încredere şi de a injecta ulterior mesaje ideologice, comerciale sau manipulative în spaţiul digital.
* Campanii orchestrate prin aplicaţii mobile cu AI integrat (fake news, mobilizare, radicalizare) – „aplicaţia pare inofensivă. Dar în spate, AI-ul orchestrează o agendă invizibilă.”
În acest scenariu, o aplicaţie mobilă aparent benignă (de ştiri, divertisment, educaţie, spiritualitate, comunitate, sau chiar de sănătate) integrează în fundal mecanisme AI de manipulare informaţională. Aplicaţia devine o platformă de natură malignă, prin care sunt livrate conţinuturi distorsionate, false sau ideologizate, cu scopul de a influenţa opinii, dirija emoţii, mobiliza utilizatorii în acţiuni colective sau radicaliza treptat anumite grupuri.
* Influenţarea educaţiei prin AI – resurse, platforme sau „mentori” care distorsionează adevărul – „nu toate lecţiile vin din manuale – şi nu toţi profesorii sunt umani sau imparţiali.”
În acest scenariu, AI este folosit pentru a influenţa negativ formarea tinerilor, a elevilor sau a publicului general prin resurse educaţionale distorsionate, părtinitoare sau complet false, livrate sub forma unor platforme de învăţare, aplicaţii educaţionale, chatbot-uri cu rol de „mentori” digitali, videoclipuri didactice AI-generated sau „cursuri” alternative promovate ca fiind mai „autentice” decât cele din sistemul formal.