Poliţia Română trage un semnal de alarmă privind imaginile fabricate cu inteligenţa artificială

Barbat lucrând pe un laptop într-un parc
Photo by Andrea Piacquadio on Pexels

Poliţia Română atrage atenţia asupra pericolelor inteligenţei artificiale generative, arătând că videclipurile false, create cu AI, au devenit instrumente preferate de autorii infracţiunilor informatice, dar sunt folosite şi pentru manipulare, distrugerea reputaţiei unei persoane, provocarea de traume emoţionale sau inducerea în eroare cu privire la adevăruri ştiinţifice.

Urmărește cele mai noi producții video TechRider.ro

- articolul continuă mai jos -

Poliţiştii fac mai multe recomandări pentru cetăţeni, pentru a nu cădea în astfel de ”capcane”. Ei atrag atenţia asupra unor persoane care se recomandă a fi din Poliţia Română şi care încearcă să inducă în eroare populaţia, transmite News.ro.

Cum sunt folosite deepfake-urile în fraude

Potrivit Poliţiei Române, inteligenţa artificială (AI) a avansat în ultimii ani, permiţând crearea de videoclipuri şi imagini extrem de realiste. În prezent, aceste tehnologii sunt folosite în principal pentru divertisment, însă un aspect negativ îl reprezintă faptul că acestea sunt utilizate ca un instrument de inducere în eroare a oamenilor, cu scopul de a obţine câştiguri financiare nelegale.

”Deepfake-urile (videoclipuri false create cu AI) şi imaginile generate artificial au devenit instrumentele preferate ale autorilor infracţiunilor din domeniul criminalităţii informatice, promovate masiv pe reţelele de socializare. Cetăţenii de bună-credinţă sunt induşi în eroare de aceste «capcane» crezând că văd celebrităţi, experţi financiari sau persoane aflate la nevoie”, arată sursa citată, într-un comunicat de presă.

Metodele de fraudă din 2025

Poliţiştii prezintă cele mai frecvente moduri de operare întâlnite în anul 2025:

  • Trading scam şi investment fraud
    Videoclipuri deepfake cu oameni de afaceri, de notorietate sau cu politicieni care ”recomandă” platforme de investiţii crypto, forex sau ”inteligenţă artificială miraculoasă” care promit multiplicarea banilor peste noapte. Victimele sunt direcţionate către site-uri false unde depun bani spre a fi investiţi şi care, în realitate, ajung la autori prin diferite scheme de transfer de monede (virtuale sau fiat).
  • Scam-uri caritabile
    Deepfake-uri cu copii bolnavi, victime ale dezastrelor sau celebrităţi care cer donaţii urgente. Oamenii donează, prin intermediul unor link-uri false, iar sumele de bani ajung direct la infractori.
  • Romance scam îmbunătăţit cu ajutorul AI
    Utilizarea de către infractori a unor profiluri false cu poze şi videoclipuri generate de AI cu persoane atractive din punct de vedere al aspectului şi caracterului, prin intermediul cărora dezvoltă relaţii emoţionale, apoi cer bani pentru ”urgenţe medicale” sau ”bilete de avion”.
  • CEO/CFO fraud (Business E-mail Compromise evoluat)
    Utilizarea de către infractori de video-call-uri deepfake în care ”şeful” cere transferuri urgente de bani.
  • Impersonare celebrităţi pentru produse false
    Deepfake-uri cu diverse personalităţi care ”oferă gratuit” produse.

”Potrivit statisticilor din anul 2025, tentativele de fraudă cu deepfake au crescut foarte mult pe fondul avansării tehnologiei bazate pe inteligenţă artificială, iar pierderile financiare globale se ridică la zeci de miliarde de dolari, anual”, atrage atenţia Poliţia Română.

Imagini false folosite pentru manipulare emoţională şi înşelăciuni

Un alt fenomen întâlnit este crearea de imagini cu persoane complet fictive, generate de tool-uri, imagini care sunt perfecte şi descriu persoane frumoase, zâmbitoare, care par 100% reale, dar care nu există în realitate. Poliţiştii afirmă că aceste imagini sunt folosite masiv pentru romance scams şi catfishing, profiluri false de influenceri care promovează produse sau diverse tipuri de înşelătorii sau investiţii, crearea de ”martori” în poveşti false de investiţii (”Uite câţi oameni s-au îmbogăţit!”), şantaj sau hărţuire (poze false cu persoane în situaţii compromiţătoare).

Conform aceleiaşi surse, utilizarea inteligenţei artificiale în scopuri ilegale poate duce la diverse consecinţe, atât din punct de vedere financiar, cât şi din punctul de vedere al manipulării, precum: pierderi financiare directe; traume emoţionale (oameni care donează ultimii bani pentru ”copii bolnavi” inexistenţi sau se îndrăgostesc de persoane false); erodarea încrederii în media şi instituţii: ”Dacă nimic nu mai e real, atunci nimic nu mai contează”; manipulare politică şi electorală (deepfake-uri cu candidaţi care spun lucruri pe care nu le-au spus niciodată); distrugerea reputaţiei personale (revenge porn deepfake, folosit în special împotriva femeilor); ameninţări la securitatea naţională (deepfake-uri cu lideri politici care declară război etc.).

Cum pot fi recunoscute videoclipurile şi imaginile AI

De aceea, Poliţia le recomandă prudenţă cetăţenilor şi oferă mai multe măsuri de contracarare şi protecţie privind recunoaşterea unui videoclip sau o fotografie făcută cu inteligenţa artificială:

Pentru videoclipuri deepfake:

  1. Trebuie verificat clipitul ochilor – în multe deepfake-uri vechi, clipitul era anormal, însă, în anul 2025, acest aspect a fost îmbunătăţit considerabil, dar încă apar inconsistenţe;
  2. Mişcările buzelor şi sincronizarea cu sunetul – adesea nu sunt perfecte, mai ales în limbi non-engleză;
  3. Iluminarea şi umbrele – verifică dacă lumina de pe faţă se potriveşte cu fundalul;
  4. Reflexii în ochi şi dinţi – adesea lipsesc sau sunt nenaturale;
  5. Mâini şi degete – încă o slăbiciune majoră a multor modele A.I.;
  6. Caută artefacte – pete ciudate, blur în jurul feţei, tranziţii nenaturale;
  7. Mâini şi degete deformate;
  8. Fundal inconsistent sau obiecte topite;
  9. Ochi asimetrici sau pupile anormale;
  10. Păr anormal sau îmbrăcăminte care nu are sens fizic;
  11. Obiecte deformate în imagine sau videoclip;
  12. Foloseşte reverse image search (Google Lens, TinEye).

Măsuri de protecţie şi prevenire:

  1. Dacă pare prea frumos ca să fie adevărat, este fals;
  2. Nu da click pe link-uri din reclame sau mesaje nesolicitate;
  3. Nu transfera bani persoanelor cunoscute doar online;
  4. Verifică sursa oficială a oricărei recomandări;
  5. Activează autentificarea în doi paşi;
  6. Raportează conţinutul suspect;
  7. Foloseşte extensii de browser pentru detectarea deepfake-urilor;
  8. Dacă ai fost victimă, sesizează rapid organele judiciare.

Deepfake-uri folosite pentru dezinformare ştiinţifică

De la ”îmbogăţire rapidă” la negarea ştiinţei demonstrate

Poliţia atrage atenţia că, pe lângă scam-urile financiare şi caritabile, infractorii şi grupările de dezinformare folosesc videoclipuri A.I. hiper-realiste pentru a induce în eroare populaţia în privinţa adevărurilor ştiinţifice fundamentale:

  • Videoclipuri în care ”astronauţi NASA” mărturisesc că ”aselenizarea a fost filmată în studio”;
  • ”Oameni de ştiinţă renumiţi” care declară că ”vaccinurile conţin cipuri 5G”;
  • ”Medici celebri” care recomandă tratamente miraculoase;
  • ”Martori oculari” falși din zone de conflict.

”Acestea nu mai sunt doar postări izolate pe grupuri conspirative. În anul 2025, astfel de clipuri ajung în trend pe reţelele de socializare, sunt distribuite de conturi cu sute de mii de followeri şi sunt preluate chiar şi de televiziuni locale care nu verifică sursele”, adaugă Poliţia Română.

Impersonări ale poliţiştilor în încercări de fraudă

Potrivit sursei citate, în ultima perioadă, au fost reclamate mai multe fapte realizate cu inteligenţa artificială, fiind create mai multe videoclipuri false cu un ofiţer de poliţie sau cu alte persoane care se recomandă a fi consultanţi financiari, în vederea inducerii în eroare a victimelor de a realiza investiţii fictive sau a obţine date financiare pentru a putea efectua, ulterior, tranzacţii neautorizate.

”În acest sens, pe lângă recomandările sus-menţionate, facem precizarea că niciodată poliţiştii nu vor apela cetăţenii cu video, prin intermediul anumitor aplicaţii şi cu atât mai mult nu vor face recomandări de investiţii. Totodată, poliţiştii colaborează doar instituţional cu unităţile bancare (…)”, precizează Poliţia.

Totodată, instituţia face publice fotografii cu două persoane care se recomandă a fi din cadrul Poliţiei Române, explicând că hainele pe care le poartă prima persoană nu reprezintă o uniformă de poliţie, gradele de pe umeri neexistând în cadrul Poliţiei Române, cele reale fiind reprezentate de stele.

  • TechRider este o redacție dinamică, specializată în știri și analize despre tehnologie, gadgeturi și inovații. Echipa sa de jurnaliști pasionați oferă conținut relevant și actualizat, acoperind subiecte de la inteligența artificială la recenzii de produse, într-un stil accesibil și captivant pentru publicul român.

Total
0
Shares
Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Citește si...