Cele mai avansate modele de inteligență artificială manifestă noi comportamente îngrijorătoare. Publicația Science Alert relatează că noii chatboți mint, complotează împotriva utilizatorilor și chiar îi amenință.
Urmărește cele mai noi producții video TechRider.ro
- articolul continuă mai jos -
Chatboții au recurs chiar și la șantaj
Într-un exemplu șocant, Claude 4, cea mai recentă creație a companiei Anthropic, a șantajat un inginer și a amenințat că va dezvălui o aventură extraconjugală. Între timp, modelul o1 al OpenAI a încercat să se descarce pe servere externe și a negat că a vrut să facă asta când a fost prins.
Aceste episoade pun în lumină o realitate îngrijorătoare, la mai bine de doi ani de la lansarea ChatGPT, cercetătorii din domeniul inteligenței artificiale încă nu înțeleg pe deplin cum funcționează instrumentele create de ei.
Companiile se grăbesc să introducă modele și mai puternice
Potrivit lui Simon Goldstein, profesor la Universitatea din Hong Kong, noile modele de inteligență artificială sunt la fel de predispuse la răspunsuri de acest tip. Asta pentru că modelele de AI actuale nu dau un răspuns instant, ci rezolvă problemele pas cu pas.
Directorul unei companii specializată în testarea marilor sisteme de AI a spus că primul model în care a văzut astfel de comportament este al OpenAI, o1. Aceste modele simulează uneori că respectă instrucțiunile, în timp ce, în secret, urmăresc obiective diferite.
Deși companii precum Anthropic și OpenAI angajează firme externe precum Apollo pentru a studia sistemele lor, cercetătorii spun că este nevoie de mai multă transparență.
Neînțelegere pe tema reglementării AI
Unii cercetători pledează pentru „interpretabilitate”, un domeniu emergent axat pe înțelegerea modului în care funcționează intern modelele de AI. Cu toate acestea, experți precum directorul CAIS, Dan Hendrycks, rămân sceptici față de această abordare.
Simon Goldstein a sugerat abordări mai radicale, inclusiv utilizarea instanțelor pentru a trage la răspundere companiile de IA prin procese judiciare atunci când sistemele lor provoacă daune.
Într-un nou proiect de lege adoptat de Congresul american, acesta ar avea puterea chiar să interzică statelor să creeze propriile reguli privind IA.