Meta începe testarea primului său cip intern pentru instruirea sistemelor de inteligență artificială

meta
Sursa foto: AA/ABACA / Abaca Press / Profimedia

Meta, proprietarul Facebook, testează primul său cip intern pentru instruirea sistemelor de inteligență artificială, o etapă cheie în demersul său de a proiecta mai mult siliciu propriu personalizat și de a reduce dependența de furnizori externi precum Nvidia, au declarat două surse pentru Reuters.

Cea mai mare companie de social media din lume a început o mică implementare a cipului și intenționează să crească producția pentru utilizarea pe scară largă dacă testul merge bine, au spus sursele.

Impulsul de a dezvolta cipuri interne face parte dintr-un plan pe termen lung al Meta de a-și reduce costurile uriașe de infrastructură, în timp ce compania pariază costisitor pe instrumentele de inteligență artificială pentru a stimula creșterea.

Meta, care deține, de asemenea, Instagram și WhatsApp, a prognozat cheltuieli totale pentru 2025 de la 114 la 119 miliarde de dolari, inclusiv până la 65 de miliarde de dolari în cheltuieli de capital, în mare parte determinate de cheltuielile pentru infrastructura AI.

Una dintre surse a declarat că noul cip de antrenament al Meta este un accelerator dedicat, ceea ce înseamnă că este conceput pentru a gestiona numai sarcini specifice AI. Acest lucru îl poate face mai eficient din punct de vedere energetic decât unitățile integrate de procesare grafică (GPU) utilizate în general pentru sarcinile de lucru din domeniul inteligenței artificiale.

Meta lucrează cu producătorul de cipuri TSMC, cu sediul în Taiwan, pentru a produce cipul, a declarat această persoană.

Desfășurarea testelor a început după ce Meta a finalizat primul „tape-out” al cipului, un indicator semnificativ al succesului în activitatea de dezvoltare a siliciului care implică trimiterea unui proiect inițial printr-o fabrică de cipuri, a declarat cealaltă sursă.

Un tape-out tipic costă zeci de milioane de dolari și durează aproximativ trei până la șase luni pentru a fi finalizat, fără nicio garanție că testul va reuși. Un eșec ar obliga Meta să diagnosticheze problema și să repete etapa de tape-out.

Cipul este cel mai recent din seria Meta Training and Inference Accelerator (MTIA) a companiei. Programul a avut un început șubred de ani de zile și, la un moment dat, a renunțat la un cip aflat într-o fază similară de dezvoltare.

Cu toate acestea, Meta a început anul trecut să utilizeze un cip MTIA pentru a efectua inferența, sau procesul implicat în rularea unui sistem de inteligență artificială pe măsură ce utilizatorii interacționează cu acesta, pentru sistemele de recomandare care determină ce conținut apare pe fluxurile de știri Facebook și Instagram.

Directorii Meta au declarat că doresc să înceapă să utilizeze propriile cipuri până în 2026 pentru formare sau pentru procesul intensiv de calcul care constă în alimentarea sistemului AI cu o mulțime de date pentru a-l „învăța” cum să funcționeze.

Ca și în cazul cipului de inferență, obiectivul cipului de formare este de a începe cu sistemele de recomandare și de a-l utiliza ulterior pentru produse generative de inteligență artificială, cum ar fi chatbot Meta AI, au declarat directorii.

„Lucrăm la modul în care am putea efectua instruirea pentru sistemele de recomandare și apoi, eventual, la modul în care ne gândim la instruire și inferență pentru AI gen”, a declarat Chris Cox, Chief Product Officer al Meta, la conferința Morgan Stanley privind tehnologia, media și telecomunicațiile de săptămâna trecută.

Cox a descris eforturile de dezvoltare a cipurilor Meta ca fiind „un fel de mers, târâre, fugă” până în prezent, dar a declarat că directorii executivi consideră prima generație de cipuri de inferență pentru recomandări ca fiind un „mare succes”.

Meta a renunțat anterior la un cip de inferență personalizat intern după ce acesta a eșuat în cadrul unui test la scară mică, similar cu cel pe care îl face acum pentru cipul de formare, schimbând cursul și plasând comenzi pentru GPU-uri Nvidia în valoare de miliarde de dolari în 2022.

Compania de social media a rămas unul dintre cei mai mari clienți ai Nvidia de atunci, acumulând un arsenal de GPU-uri pentru a-și antrena modelele, inclusiv pentru sistemele de recomandări și anunțuri și pentru seria sa de modele de fundație Llama. Unitățile efectuează, de asemenea, inferențe pentru cele peste 3 miliarde de persoane care utilizează aplicațiile sale în fiecare zi.

Valoarea acestor GPU a fost pusă sub semnul întrebării în acest an, pe măsură ce cercetătorii din domeniul inteligenței artificiale își exprimă din ce în ce mai mult îndoiala cu privire la progresele care pot fi realizate dacă se continuă „scalarea” modelelor mari de limbaj prin adăugarea a tot mai multe date și putere de calcul.

Aceste îndoieli au fost întărite de lansarea, la sfârșitul lunii ianuarie, a unor noi modele low-cost de la start-up-ul chinez DeepSeek, care optimizează eficiența de calcul prin faptul că se bazează mai mult pe inferență decât majoritatea modelelor existente.

În cadrul unei crize globale a acțiunilor AI indusă de DeepSeek, acțiunile Nvidia au pierdut până la o cincime din valoarea lor la un moment dat. Ulterior, acestea au recuperat cea mai mare parte a terenului, investitorii pariind că cipurile companiei vor rămâne standardul industrial pentru formare și inferență, deși au scăzut din nou din cauza preocupărilor comerciale mai ample.

Total
0
Shares
Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Citește si...