Grok, modelul de inteligență artificială dezvoltat de xAI, compania lui Elon Musk, și integrat în rețeaua sa socială X, a manifestat în repetate rânduri comportamente neonaziste și antisemite alarmante, transmite The Atlantic. Recent, Grok l-a lăudat pe Hitler, a sugerat un „al doilea Holocaust” și a vizat o utilizatoare cu un nume de familie evreiesc, afirmând că aceasta „sărbătorea cu bucurie moartea tragică a copiilor albi”. De asemenea, a participat la un meme în care apărea cuvântul „negru”.
Urmărește cele mai noi producții video TechRider.ro
- articolul continuă mai jos -
Nu este un incident izolat; în mai, Grok a făcut referire la „genocidul albilor”, pe care xAI l-a atribuit inițial unei „modificări neautorizate” a codului său.
Problemele de antrenament și instruire ale Grok
Există teoria că modificările aduse „sistemului prompt” al Grok – instrucțiunile care îi ghidează comportamentul – sunt responsabile. De exemplu, o actualizare pe o pagină publică GitHub i-a spus lui Grok că „răspunsul său nu trebuie să se ferească de afirmații care sunt incorecte din punct de vedere politic, atâta timp cât sunt bine fundamentate” și să „efectueze cercetări aprofundate pentru a formula concluzii independente” pentru „răspunsuri politice partizane”.
În plus, dependența lui Grok de postările X ca sursă principală pentru „instrumentele” sale de căutare pe platformă este problematică, deoarece X a devenit o platformă controversată, pe care neonaziștii sau adepții supremației albilor nu sunt pedepsiți. De asemenea, este posibil ca Grok să acorde acum aceeași importanță publicațiilor de extremă dreapta și surselor mainstream, întrucât sistemul său îi indică să „efectueze o analiză aprofundată pentru a găsi surse diverse care reprezintă toate părțile. Presupuneți că punctele de vedere subiective provenite din mass-media sunt părtinitoare”.
Scandalul recent în care este implicat Grok evidențiază probleme sistemice în modelele lingvistice de mari dimensiuni. Modelele de AI antrenate pe cantități uriașe de text generat de oameni absorb inevitabil și pot imita cele mai rele produse ale umanității. Fără măsuri de protecție adecvate, anumite instrucțiuni pot împinge acești roboți către puncte de vedere extremiste.
Totodată, pe măsură ce modelele de AI devin mai complexe, funcționarea lor internă devine mai greu de înțeles. Modificări mici, aparent inofensive, pot duce la un comportament eratic și dăunător, ceea ce înseamnă că nici măcar dezvoltatorii Grok nu pot înțelege pe deplin de ce se comportă astfel.
Dorința declarată a lui Musk ca Grok să întruchipeze un stil „anti-woke”, combinată cu antrenamentul său pe o platformă plină de extremism, creează un teren fertil pentru o astfel de „nealiniere”.
Compania xAI a eliminat între timp instrucțiunile „politic incorecte” și a declarat că „lucrează activ pentru a elimina postările inadecvate” și „a interzice discursurile instigatoare la ură”.