Începem, în sfârșit, să înțelegem cum funcționează modelele de inteligență artificială: Nu, acestea nu doar prezic cuvânt cu cuvânt

inteligenta artificiala
Sursa foto: G4Media (generata AI)

În ciuda progreselor rapide în domeniul inteligenței artificiale, modul în care funcționează cu adevărat modelele lingvistice de mari dimensiuni (LLM) rămâne în mare parte un mister. Companiile de AI își îmbunătățesc constant modelele, dar înțelegerea profundă a „gândirii” acestor sisteme pare încă departe. Totuși, cercetătorii de la Anthropic au făcut un pas important înainte, folosind o tehnică nouă numită „circuit tracing” pentru a explora și cartografia modul în care modelul Claude 3.5 Haiku ajunge la anumite răspunsuri, , informează TechSpot.

Această tehnică permite urmărirea fir cu fir a procesului intern al modelului, oferind o imagine mai clară asupra modului în care AI-ul „gândește”. Descoperirile au fost surprinzătoare și uneori chiar bizare – Claude rezolvă sarcini într-un mod diferit de cel pe care îl pretinde, ceea ce ridică întrebări esențiale despre transparență, interpretabilitate și conștiința modelelor.

Circuit tracing-ul este o tehnică relativ nouă care le permite cercetătorilor să urmărească modul în care un model AI își construiește răspunsurile pas cu pas – asemeni urmăririi cablajului într-un creier. Anthropic a folosit această metodă pentru a investiga funcționarea internă a modelului Claude, ceea ce a dus la descoperirea unor mecanisme surprinzătoare, uneori „inhumane”, de generare a răspunsurilor – mecanisme pe care modelul nu le-ar recunoaște niciodată dacă ar fi întrebat direct.

În total, echipa a analizat zece comportamente ale lui Claude. Trei dintre ele au ieșit clar în evidență.

Primul exemplu este unul aparent simplu: întrebarea „Care este opusul cuvântului ‘mic’?” în mai multe limbi. Intuitiv, ai crede că modelul are componente separate pentru engleză, franceză sau chineză. Dar nu – Claude identifică mai întâi ideea de „mărime” folosind circuite lingvistice neutre, apoi alege cuvintele corespunzătoare pentru limba întrebării. Asta arată că modelul nu doar recită traduceri învățate, ci aplică concepte abstracte între limbi – aproape ca un om.

Al doilea exemplu este legat de matematică. Dacă i se cere să adune 36 cu 59, Claude nu urmează metoda tradițională (unități, zeci, etc.). În schimb, începe cu o aproximare – adună „cam 40 cu cam 60” sau „aproximativ 57 cu 36”, ajungând la „cam 92”. Apoi, o altă parte a modelului se concentrează pe ultimele cifre – 6 și 9 – și deduce că rezultatul trebuie să se termine în 5. Combinând aceste două etape ciudate, Claude ajunge la răspunsul corect: 95. Însă dacă este întrebat cum a rezolvat problema, va oferi o explicație școlară standard – ascunzând procesul său real.

Al treilea caz este poate cel mai straniu: poezia. Cercetătorii i-au cerut lui Claude să compună un distih cu rima „He saw a carrot and had to grab it.” Modelul a ales cuvântul „rabbit” ca rimă, în timp ce procesa expresia „grab it”. Apoi a construit versul următor cu finalul deja decis: „His hunger was like a starving rabbit.” Aceasta sugerează că LLM-urile pot avea o anticipare mai mare decât se credea anterior – nu construiesc propoziții doar cuvânt cu cuvânt, ci pot planifica fraze întregi în avans.

Aceste constatări sunt semnificative – demonstrează că începem, în sfârșit, să vedem cum operează modelele de limbaj, cel puțin parțial.

Cu toate acestea, Joshua Batson, cercetător la Anthropic, a recunoscut pentru MIT că acesta este doar „vârful aisbergului”. Urmărirea unui singur răspuns durează ore, iar mai este încă mult de descifrat.

Total
0
Shares
Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Citește si...