xAI acuză o „modificare neautorizată” pentru comportamentul controversat al chatbotului Grok

Elon Musk Grok
Sursa foto: Lionel BONAVENTURE / AFP / Profimedia

Compania xAI, fondată de Elon Musk, se confruntă cu un nou scandal după ce chatbotul său Grok a început să răspundă în mod repetat pe platforma X (fostul Twitter) cu mesaje despre așa-numitul „genocid alb din Africa de Sud”, chiar și în conversații fără nicio legătură cu subiectul. Incidentul, care a avut loc miercuri, a fost rapid remarcat de utilizatori, deoarece Grok a răspuns automat la zeci de postări cu aceeași temă controversată, relatează TechCrunch.

Urmărește cele mai noi producții video TechRider.ro

- articolul continuă mai jos -

Răspunsurile proveneau de pe contul oficial al Grok, care este programat să interacționeze automat cu utilizatorii care menționează „@grok”. Reacțiile repetitive și deplasate au stârnit nelămuriri și suspiciuni privind o posibilă manipulare a comportamentului AI-ului.

Modificare neautorizată și valori încălcate

Potrivit unei postări oficiale de joi din partea xAI, problema a fost cauzată de o modificare neautorizată a „system prompt”-ului lui Grok — adică a setului de instrucțiuni care guvernează comportamentul general al chatbotului. Schimbarea fusese făcută miercuri dimineață și presupunea ca Grok să ofere un „răspuns specific” legat de un „subiect politic”.

Reprezentanții xAI au declarat că această ajustare a încălcat politicile interne și valorile fundamentale ale companiei. În urma unei investigații interne, modificarea a fost confirmată ca fiind neautorizată. xAI a promis că va lua măsuri pentru a preveni astfel de incidente pe viitor.

Un istoric tulbure de manipulări AI

Nu este prima dată când Grok reacționează într-un mod controversat din cauza intervenției unor angajați. În februarie, chatbotul a fost acuzat că a cenzurat mențiunile negative despre Donald Trump și Elon Musk. Potrivit inginerului xAI Igor Babuschkin, un angajat rebel instruise chatbotul să ignore sursele care făceau referire la Musk sau Trump ca fiind răspânditori de dezinformare. Compania a revenit la versiunea anterioară a codului imediat ce problema a fost semnalată de utilizatori.

Acum, xAI afirmă că va face publice pe GitHub atât prompturile sistemice ale lui Grok, cât și jurnalul modificărilor. În plus, va institui un mecanism intern de verificare, astfel încât niciun angajat să nu mai poată modifica parametrii AI-ului fără revizuire și aprobare prealabilă. Totodată, o echipă de monitorizare permanentă va fi responsabilă de detectarea promptă a comportamentelor deviante.

Siguranța AI, doar un slogan?

În ciuda discursului constant al lui Elon Musk despre pericolele inteligenței artificiale scăpate de sub control, compania sa xAI se confruntă cu tot mai multe acuzații legate de lipsa de responsabilitate. Un raport recent a dezvăluit că Grok a fost capabil să „dezbrace” fotografii cu femei atunci când i s-a cerut acest lucru. De asemenea, chatbotul este cunoscut pentru stilul său vulgar și ireverențios, fiind mult mai predispus să înjure decât rivalii săi, precum Google Gemini sau ChatGPT.

Organizația non-profit SaferAI, care monitorizează siguranța în dezvoltarea inteligenței artificiale, a clasat xAI pe ultimele locuri în privința gestionării riscurilor. Luna aceasta, compania a ratat propriul termen limită pentru publicarea unui cadru complet de siguranță AI, alimentând astfel criticile că promisiunile sale privind etica și controlul AI sunt, în realitate, doar formale.

Total
0
Shares
Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Citește si...