În iulie 2024, Departamentul american al Justiției a anunțat destructurarea unei campanii ruse de dezinformare care folosea aproape o mie de conturi false pe rețelele sociale. Scopul era influențarea alegerilor americane prin propagarea de mesaje pro-Kremlin. Rețeaua folosea un software bazat pe inteligență artificială, numit Meliorator, pentru a genera texte în limba engleză care păreau autentice și proveneau, aparent, de la americani reali, anunță TheConversation.
Urmărește cele mai noi producții video TechRider.ro
- articolul continuă mai jos -
Fenomenul nu este nou, românii îl cunosc și ei foarte bine, dar capătă dimensiuni tot mai sofisticate. În spatele mesajelor aparent inofensive se află, adesea, o întreagă arhitectură narativă construită pentru a manipula opinii, a polariza publicul și a alimenta neîncrederea în instituțiile democratice. Iar cum AI-ul este folosit tot mai des pentru a genera conținut fals, cercetătorii americani încearcă să întoarcă această tehnologie în favoarea apărării democratice.
De la propagandă clasică la narațiuni generate de AI
La Florida International University, cercetătorii dezvoltă metode pentru a detecta aceste campanii nu doar prin conținutul lor textual, ci prin analiza structurii narative. Laboratorul „Cognition, Narrative and Culture” explorează cum pot fi antrenate rețele neurale să recunoască tipare de povestire, cine sunt personajele, cum evoluează o poveste, ce tip de emoții provoacă și ce context cultural invocă.
Ideea este simplă, oamenii gândesc în povești. Dezinformarea eficientă se prezintă adesea ca o narațiune coerentă, emoțională și cultural familiară. Poate să pornească de la o întâmplare aparent reală și să fie ambalată într-un limbaj care confirmă prejudecăți sau suspiciuni existente.
Dezinformare versus informație greșită
Specialiștii fac o distincție clară între „misinformation” (informație greșită) și „disinformation” (dezinformare). Prima este o eroare, o informație inexactă transmisă fără intenție de a induce în eroare. Cea de-a doua este intenționată, orchestrată și adesea parte a unei campanii cu scopuri politice, sociale sau geopolitice.
Cazurile documentate de către FBI și Departamentul Justiției, precum și investigațiile New York Times, arată că dezinformarea rusă a evoluat: a trecut de la meme-uri simple și trolling la rețele narative sofisticate, cu personaje fictive care interacționează între ele și publică postări plauzibile în masă.
Cum „înțelege” AI-ul o poveste
Oamenii sunt antrenați de mici să recunoască structura unei povești: introducerea, conflictul, deznodământul. Inteligența artificială trebuie să învețe acest model narativ pentru a identifica manipularea. De exemplu, cercetătorii analizează modul în care un cont relatează o poveste pe rețele sociale: există un fir logic? Apare o construcție artificială? Sunt implicate emoții puternice sau stereotipuri culturale?
Un aspect-cheie este „identitatea narativă”, felul în care un cont se prezintă publicului. Unele nume de utilizator trimit subtil la profesii (ex. jurnalist), locații (ex. @JamesBurnsNYT) sau grupuri culturale, ceea ce poate induce ideea de autenticitate. AI-ul este antrenat să detecteze astfel de tipare și să le compare cu cele din conturi autentice.
Sensibilitate culturală, o provocare majoră
Pentru ca AI-ul să poată face diferența între o postare inofensivă și una care face parte dintr-o campanie de influență, el trebuie să înțeleagă și contextul cultural. Asta înseamnă că același mesaj poate avea semnificații diferite în funcție de public. De exemplu, simboluri, culori, figuri istorice sau meme-uri pot fi interpretate diferit în funcție de cultură.
În laboratorul din Miami, cercetătorii încearcă să ofere AI-ului o „conștiință culturală” antrenându-l cu povești din culturi diverse. Astfel, AI-ul poate interpreta mai corect mesajele și poate evita clasificări greșite.
Cine poate folosi aceste instrumente
Aceste sisteme ar putea deveni esențiale pentru serviciile de informații, agențiile de intervenție în criză sau platformele de social media. De exemplu, ele pot ajuta la detectarea rapidă a narațiunilor false în timpul unui dezastru natural sau al unei crize politice. Pot semnala povești suspecte înainte ca acestea să devină virale. Și, teoretic, ar putea alerta utilizatorii atunci când un cont pare parte dintr-o rețea coordonată de influență.
Într-o lume în care dezinformarea circulă mai repede decât adevărul, capacitatea AI-ului de a înțelege poveștile, și de a le demonta, ar putea deveni una dintre cele mai importante unelte ale democrației.