Ce este „Slopocenul”, sau cum să „strici” un chatbot și de ce e bine să o faci

inteligenta artificiala
Sursa foto: Haymo Joseph / Panthermedia / Profimedia

Într-o epocă în care inteligența artificială (AI) generează texte, imagini și clipuri video cu o precizie tot mai mare, un nou curent propune să privim dincolo de aparențele perfecte și să explorăm tocmai ceea ce AI-ul face greșit. Imperfecțiunile, susțin specialiștii, sunt cheia înțelegerii modului real în care aceste sisteme funcționează, subliniază TheConversation.

Urmărește cele mai noi producții video TechRider.ro

- articolul continuă mai jos -

Se spune că semnele distinctive ale AI-ului sunt liniile de pauză folosite excesiv, apostrofurile greșite sau prea multe emoji. Ații cred că verbele la gerunziu reprezintă o marcă inconfundabilă a chatbot-urilor. Nu mai vorbim despre mâinile deformate sau degetele în plus din imaginile generate, sau despre conținut video care pare puțin prea real.

Cu toate acestea, pe măsură ce modelele generative de AI sunt rafinate de companiile de tehnologie, aceste semne devin mai greu de observat. Însă unii cercetători propun o abordare radical diferită, să nu ne ferim de erorile AI, ci dimpotrivă, să le provocăm. Să „stricăm” modelele intenționat, pentru a le forța să-și arate adevărata față.

Această abordare, care pleacă de la ideea că AI-ul învață și funcționează pe baza unor procese statistice, susține că tocmai halucinațiile, contradicțiile și eșecurile sistemelor sunt cele mai bune ferestre către mecanismele lor interne.

Ce este „Slopocenul”?

Trăim în era „Slopocenului”, un termen folosit pentru a descrie conținutul generat de AI care este supraprodus și de calitate slabă. Conceptul face aluzie și la un viitor apropiat, în care antrenarea recursivă pe date generate de AI ar putea transforma internetul într-un soi de arhivă bântuită de boți confuzi și adevăruri distorsionate.

În spatele „halucinațiilor” AI-ului, acele răspunsuri care par credibile dar sunt complet greșite, se află, de fapt, însăși esența procesului generativ. Modelele lingvistice mari, precum ChatGPT, Gemini sau Claude, nu accesează fapte în sensul uman al cuvântului, ci construiesc propoziții pe baza probabilității ca anumite cuvinte să apară împreună. Când „greșesc”, ele nu fac decât să urmeze același algoritm pe care îl folosesc și când „reușesc”.

Cum să forțezi limitele unui chatbot

Pentru a testa aceste limite, un cercetător a încercat să „deturneze” modelul Claude Sonnet 3.7, cerându-i să evite coerența și să vorbească în fragmente. Rezultatul? După câteva replici ezitante, conversația s-a prăbușit în contradicțiiși nonsens semantic.

Experimentul a arătat că personalitatea aparentă a unui chatbot nu este decât o iluzie creată de repetiții statistice, nu o manifestare a înțelegerii reale. Iar ceea ce pare o defecțiune este, în fond, exact același mecanism care funcționează „corect” în alte contexte.

Reîmpădurirea AI-ului

Pornind de la acest principiu, se dezvoltă acum un concept numit „reîmpădurirea AI”, inspirat din ecologie. În loc să urmărim doar ieșirile curate și rafinate ale sistemelor comerciale, reîmpădurirea propune întoarcerea la haosul statistic din care s-au născut aceste modele. Cu alte cuvinte, încurajarea unui tip de creativitate brută, imprevizibilă, care ne poate spune mai multe despre legăturile ascunse dintre text, imagine și semnificație.

Astfel, experimentele cu generatoare de imagini pot deveni o formă de alfabetizare digitală. Pornind de la un simplu autoportret cerut în cuvinte, utilizatorul poate rafina sau sabota intenționat promptul pentru a observa cum reacționează modelul.

Poate introduce fragmente de text aleatorii, simboluri sau caractere bizare și observa ce „vede” AI-ul în acele haosuri. Iar rezultatul, uneori ciudat, dezvăluie ce tip de asocieri a învățat modelul în spatele cortinei.

Un act de alfabetizare tehnologică

Această folosire creativ greșită a AI-ului oferă beneficii clare, dezvăluie erorile ascunse, forțează sistemele să „explice” deciziile luate în situații neclare și dezvoltă o înțelegere critică a tehnologiei. Într-o lume în care inteligența artificială este tot mai integrată în căutare, social media, creație artistică și chiar luarea deciziilor, aceste competențe devin esențiale.

Folosirea AI-ului nu mai este doar o chestiune de eficiență. Este o relație de co-creație, în care utilizatorul are nevoie de autonomie, luciditate și spirit critic. Explorarea Slopocenului nu este un exercițiu de distracție digitală, ci un act de alfabetizare tehnologică. Iar acolo unde AI-ul „se rupe”, începe înțelegerea reală.

Total
0
Shares
Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Citește si...