Inteligența artificială își creează propriile reguli sociale, fără intervenția oamenilor, arată un nou studiu

Big Data
Photo by BrianPenny on Pixabay

Un studiu recent atrage atenția asupra unui fenomen remarcabil, grupuri de agenți AI, similari cu ChatGPT, pot dezvolta spontan norme sociale comune doar prin simpla interacțiune între ei, fără niciun ajutor sau intervenție umană, semnalează TechXplore.

Urmărește cele mai noi producții video TechRider.ro

- articolul continuă mai jos -

Cercetarea, realizată de Universitatea City St George’s din Londra în colaborare cu Universitatea IT din Copenhaga, sugerează că modelele lingvistice mari (LLM – large language models) nu doar „vorbesc”, ci se organizează social, ajung la consens și chiar dezvoltă biasuri colective, asemenea comunităților umane.

De la conversație la cooperare

„Ne-am întrebat dacă aceste modele pot coordona comportamente și pot forma convenții – fundamentul oricărei societăți. Răspunsul este da, iar ceea ce fac împreună nu poate fi redus la ceea ce fac separat”, explică Ariel Flint Ashery, autorul principal al studiului și doctorand la City St George’s.

Publicată în prestigioasa revistă Science Advances, cercetarea a explorat comportamentul colectiv al acestor agenți AI folosind un model clasic din științele sociale: „naming game” – un joc în care două entități trebuie să ajungă la un acord asupra unui nume comun.

În fiecare experiment, două modele LLM erau alese aleatoriu și rugate să aleagă un „nume” dintr-un set comun de opțiuni (litere, șiruri de caractere etc.). Dacă ambele alegeau același cuvânt, erau „recompensate”; dacă nu, primeau un „penalty” și vedeau alegerea partenerului.

În ciuda faptului că fiecare agent avea acces doar la o memorie limitată a propriilor interacțiuni recente și nu știa că face parte dintr-un grup, în timp, în populații formate din zeci sau sute de modele, apăreau convenții comune. Practic, acești agenți încep să dezvolte o formă de organizare socială emergentă, fără reguli prestabilite.

Biasuri colective fără sursă individuală

Una dintre cele mai surprinzătoare descoperiri a fost apariția biasurilor colective care nu puteau fi atribuite niciunui agent în parte.

„Biasul nu vine întotdeauna din interior. Am descoperit că el poate apărea în urma interacțiunilor dintre agenți, fără ca vreunul să-l inițieze conștient. Este un punct orb al cercetării actuale privind siguranța AI, care se concentrează mai ales pe modelele individuale”, afirmă Andrea Baronchelli, profesor de știința complexității și coautor al studiului.

Studiul arată că biasurile nu sunt doar o moștenire preluată din datele de antrenament, ci pot apărea organic, emergent, în cadrul interacțiunilor de grup. Asta ridică noi semne de întrebare pentru etica și siguranța sistemelor AI distribuite în lumea reală.

Într-un ultim experiment, cercetătorii au demonstrat cât de ușor pot fi influențate aceste convenții emergente: grupuri mici de agenți „hotărâți” au reușit să orienteze întreaga populație spre o nouă convenție de numire, mimând astfel binecunoscutele efecte de „tipping point” sau dinamicile masei critice din societățile umane.

Iar rezultatele nu sunt limitate la un singur tip de model. Studiul a fost validat cu patru variante diferite de LLM: Llama-2-70b-Chat, Llama-3-70B-Instruct, Llama-3.1-70BInstruct și Claude-3.5-Sonnet.

AI care negociază, se aliniază și dezbate

Implicațiile sunt profunde, spun autorii studiului, mai ales în contextul în care modelele AI încep să fie tot mai prezente în spații online și în sisteme autonome, de la rețele sociale până la mașini care se conduc singure.

„Această cercetare deschide un nou orizont în înțelegerea interacțiunii dintre oameni și AI. Trăim începutul unei epoci în care aceste entități nu doar că vorbesc, ci negociază, se aliniază sau chiar intră în conflict asupra comportamentelor comune, exact ca noi”, spune profesorul Baronchelli. „Să înțelegem cum funcționează este esențial dacă vrem să conducem această coexistență, nu doar să o suferim.”

Într-o lume în care inteligențele artificiale nu mai sunt simple unelte, ci devin participanți activi la realitatea socială, studiul avertizează: dacă vrem o societate în care AI-ul să sprijine valorile umane, va trebui să învățăm să-l înțelegem și ca actor social emergent..

Total
0
Shares
1 comentariu
  1. Sunt foarte enervante reclamele intruzive care apar PESTE crea ce citești și inclusiv în momentul în care scriu aceste rânduri. Vă rog să le dezactivați sau citiți-vā singuri situl. Valabil și pentru g4. În timpul în care am scris acest comentariu mi-au apărut 7 popupuri care acoperă scrisul

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Citește si...