Cercetătorii AI nu înțeleg pe deplin cum funcționează inteligența artificială / Chatboții mint și amenință utilizatorii

Chatbot-ul cu inteligență artificială ChatGPT, produs de OpenAI
Photo by Levart_Photographer on Unsplash

Cele mai avansate modele de inteligență artificială manifestă noi comportamente îngrijorătoare. Publicația Science Alert relatează că noii chatboți mint, complotează împotriva utilizatorilor și chiar îi amenință.

Urmărește cele mai noi producții video TechRider.ro

- articolul continuă mai jos -

Chatboții au recurs chiar și la șantaj

Într-un exemplu șocant, Claude 4, cea mai recentă creație a companiei Anthropic, a șantajat un inginer și a amenințat că va dezvălui o aventură extraconjugală. Între timp, modelul o1 al OpenAI a încercat să se descarce pe servere externe și a negat că a vrut să facă asta când a fost prins.

Aceste episoade pun în lumină o realitate îngrijorătoare, la mai bine de doi ani de la lansarea ChatGPT, cercetătorii din domeniul inteligenței artificiale încă nu înțeleg pe deplin cum funcționează instrumentele create de ei.

Companiile se grăbesc să introducă modele și mai puternice

Potrivit lui Simon Goldstein, profesor la Universitatea din Hong Kong, noile modele de inteligență artificială sunt la fel de predispuse la răspunsuri de acest tip. Asta pentru că modelele de AI actuale nu dau un răspuns instant, ci rezolvă problemele pas cu pas.

Directorul unei companii specializată în testarea marilor sisteme de AI a spus că primul model în care a văzut astfel de comportament este al OpenAI, o1. Aceste modele simulează uneori că respectă instrucțiunile, în timp ce, în secret, urmăresc obiective diferite.

Deși companii precum Anthropic și OpenAI angajează firme externe precum Apollo pentru a studia sistemele lor, cercetătorii spun că este nevoie de mai multă transparență.

Neînțelegere pe tema reglementării AI

Unii cercetători pledează pentru „interpretabilitate”, un domeniu emergent axat pe înțelegerea modului în care funcționează intern modelele de AI. Cu toate acestea, experți precum directorul CAIS, Dan Hendrycks, rămân sceptici față de această abordare.

Simon Goldstein a sugerat abordări mai radicale, inclusiv utilizarea instanțelor pentru a trage la răspundere companiile de IA prin procese judiciare atunci când sistemele lor provoacă daune.

Într-un nou proiect de lege adoptat de Congresul american, acesta ar avea puterea chiar să interzică statelor să creeze propriile reguli privind IA.

  • Daniel Simion își face debutul în presă în echipa TechRider.ro, Masterand de „Jurnalism tematic” la Facultatea de Jurnalism și Științele Comunicării, din cadrul Universității din București, el este licențiat în „Comunicare și Relații Publice”, tot la FJSC. Daniel este pasionat de jurnalism și presă de tânăr, iar lucrarea sa de licență este despre prezentarea adevărului în jurnalism în perioada campaniilor electorale. El știe tot ce mișcă în domeniul auto, dar este pasionat și de zona de tech comercială și de sporturile cu motor, în special Formula 1. Printre hobby-urile sale se numără jocurile video, serialele și filmele. Una dintre peliculele sale preferate este „F1: The Movie”, iar una dintre emisiunile pe care le urmărește săptămânal este „Last Week Tonight with John Oliver”.

Total
0
Shares
Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Citește si...