AI nu „învață” cu adevărat, iar știind de ce te va ajuta să o folosești mai responsabil

artificial intelligence, brain, think, steering, computer science, electrical engineering, technology, developer, computer, man, intelligent, controlled, printed circuit board, circuit board, information, data, function, microprocessor, person, data exchange, digital, communication, network, artificial intelligence, artificial intelligence, artificial intelligence, artificial intelligence, artificial intelligence
Photo by geralt on Pixabay

Puncte Cheie

  • Sistemele de inteligență artificială precum ChatGPT nu învață în mod activ din interacțiuni sau experiențe; ele sunt pre-antrenate prin procesarea unor cantități mari de date și nu continuă să învețe odată ce sunt implementate.
  • AI codifică modele matematice bazate pe relații dintre cuvinte, la o scară mult mai mare decât ar putea să facă un om, dar sunt limitate în a înțelege experiențe sau cunoștințe comune cum o fac oamenii.
  • Sistemele AI, cum ar fi modelele lingvistice mari, sunt blocat în timp post-antrenare și nu își amintesc datele utilizatorului între sesiuni; îmbunătățirile necesită un efort complex și costisitor de reantrenare.
  • Deși sistemele AI sunt eficiente pentru sarcini lingvistice, ele nu sunt surse de cunoștințe exacte și pot oferi informații învechite sau eronate; utilizatorii trebuie să verifice mereu acuratețea răspunsurilor oferite de AI.
  • O parte din versiuni au integrat soluții moderne, cum ar fi conexiunea la internet pentru informații actualizate și personalizarea răspunsurilor pe baza unei baze de date separate, însă AI-urile nu se auto-corectează și necesită supraveghere umană constantă.

Sistemele de inteligență artificială (AI) precum ChatGPT nu învață de fapt. Mulți oameni cu care vorbim sunt cu adevărat surprinși să audă asta. Kai Riemer și Sandra Peter de la Universitatea din Sydney ne explică într-un articol din The Conversation.

Chiar și sistemele AI în sine vă vor spune adesea cu încredere că sunt sisteme de învățare. Multe rapoarte și chiar lucrări academice spun același lucru. Dar acest lucru se datorează unei concepții greșite, sau mai degrabă unei înțelegeri slabe a ceea ce înțelegem prin „învățare” în AI.

Cu toate acestea, înțelegerea mai precisă a modului cum și când învață sistemele AI (și când nu) te va face un utilizator mai productiv și mai responsabil al AI.

AI nu învață – cel puțin nu așa cum o fac oamenii

Multe concepții greșite cu privire la AI provin din utilizarea cuvintelor care au un anumit sens atunci când sunt aplicate oamenilor, cum ar fi învățarea. Știm cum învață oamenii, pentru că o facem tot timpul. Avem experiențe; facem ceva care eșuează; întâlnim ceva nou; citim ceva surprinzător; și astfel ne amintim, actualizăm sau schimbăm felul în care facem lucrurile.

În primul rând, sistemele AI nu învață din experiențe specifice, ceea ce le-ar permite să înțeleagă lucrurile așa cum le facem noi oamenii. Mai degrabă, ele „învață” codând modele din cantități mari de date – folosind numai matematica. Acest lucru se întâmplă în timpul procesului de instruire, când sunt construite.

În cazul modelelor mari de limbaj, cum ar fi GPT-4, tehnologia care alimentează ChatGPT, acestea învață prin codificarea relațiilor matematice dintre cuvinte (de fapt, tokenuri), cu scopul de a face predicții despre ce text se potrivește cu ce alt text. Aceste relații sunt extrase din cantități mari de date și codificate în timpul unei faze de antrenament intensive din punct de vedere computațional. Acest fapt explică si de ce modelele AI actuale se descurcă slab la probleme de matematică mai complexe. Ele știu ca 1+1=2 pentru că au întâlnit de foarte multe ori această expresie și prezic această alăturare de termeni însă nu utilizează calculatorul pentru a calcula matematic rezultatul.

Această formă de „învățare” este evident foarte diferită de modul în care oamenii învață.

Are anumite dezavantaje prin faptul că AI se luptă adesea cu cunoștințele de bun simț despre lume pe care oamenii le învață în mod natural doar trăind în lume.

Dar antrenamentul AI este, de asemenea, incredibil de puternic, deoarece modelele mari de limbaj au „văzut” textul la o scară mult peste ceea ce poate înțelege orice om. De aceea, aceste sisteme sunt atât de utile pentru sarcini bazate pe limbaj, cum ar fi scrierea, rezumatul, codificarea sau conversația. Faptul că aceste sisteme nu învață ca noi, dar la scară largă, le face să fie foarte capabile în genul de solicitări la care ele excelează.

Odată antrenat, învățarea se oprește

Majoritatea sistemelor AI pe care le folosesc majoritatea utilizatorilor, cum ar fi ChatGPT, nu mai învață odată ce sunt construite. Se poate spune că sistemele AI nu învață deloc, trainingul, formarea lor este doar modul în care sunt construite, nu este modul în care funcționează. „P” în GPT înseamnă literalmente „pre-antrenat”.

În termeni tehnici, sistemele AI, cum ar fi ChatGPT, se angajează doar în „învățare pe timp de antrenament”, ca parte a dezvoltării lor, nu în „învățare pe timp de rulare”. Sisteme care învață pe măsură ce merg există. Dar acestea sunt de obicei limitate la o singură sarcină, de exemplu algoritmul Netflix care vă recomandă ce să vizionați.

A fi „pre-antrenat” înseamnă că modelele mari de limbaj (LLM) sunt întotdeauna blocate în timp. Orice actualizări ale datelor lor de antrenament necesită o reinstruire foarte costisitoare sau cel puțin așa-numita reglare fină pentru ajustări pe cantități de date mai mici.

Asta înseamnă că ChatGPT nu învață din solicitările utilizatorilor în mod continuu. Și din concepție, un model mare de limbaj nu își amintește nimic. Acesta păstrează în memoria sa doar ceea ce se întâmplă într-o singură sesiune de chat. Odată închisă fereastra sau se începe o nouă sesiune și se începe de la zero de fiecare dată.

Există modalități de a evita acest lucru, cum ar fi stocarea informațiilor despre utilizator, dar acestea sunt realizate la nivel de aplicație; modelul AI în sine nu învață și rămâne neschimbat până când este reantrenat.

Ce înseamnă asta pentru utilizatori?

În primul rând, fii conștient de ceea ce obții de la asistentul tău AI.

Învățarea din date text înseamnă că sisteme precum ChatGPT sunt modele lingvistice, nu modele de cunoștințe. Deși este cu adevărat uimitor cât de multe cunoștințe sunt codificate prin procesul de instruire matematică, aceste modele nu sunt întotdeauna de încredere atunci când sunt adresate întrebări despre cunoaștere.

Adevărata lor putere este lucrul cu limbajul. Și nu fi surprins când răspunsurile conțin informații învechite, având în vedere că sunt înghețate în timp sau că ChatGPT nu își amintește niciun fapt pe care le spui.

Vestea bună este că dezvoltatorii AI au venit cu câteva soluții inteligente. De exemplu, unele versiuni de ChatGPT sunt acum conectate la internet. Pentru a vă oferi informații mai oportune, aceștia ar putea efectua o căutare pe web și pot introduce rezultatul în prompt înainte de a genera răspunsul.

O altă soluție este că sistemele AI își pot aminti acum lucruri despre tine pentru a-și personaliza răspunsurile. Dar asta se face cu un truc. Nu este că modelul de limbaj mare însuși învață sau se actualizează în timp real. Informațiile despre dvs. sunt stocate într-o bază de date separată și sunt inserate în prompt de fiecare dată în moduri care rămân invizibile.

Dar tot înseamnă că nu puteți corecta modelul atunci când are date eronate (sau să-l învățăm ceva nou), astfel încât să-și aminti să corecteze răspunsurile pentru alți utilizatori in viitor. Modelul poate fi personalizat într-o măsură, dar tot nu învață din mers.

Utilizatorii care înțeleg exact cum învață AI – sau nu – vor investi mai mult în dezvoltarea de strategii eficiente de asistență și vor trata AI ca pe un asistent, ​​unul care trebuie întotdeauna verificat.

Lasă AI să te ajute. Dar asigurați-vă că voi sunteți cei care învățați, prompt cu prompt.

Total
0
Shares
Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Citește si...