Compania americană Nvidia pregătește lansarea unui nou procesor specializat pentru calculul inferențial, destinat accelerării modului în care modelele de inteligență artificială generează răspunsuri.
Urmărește cele mai noi producții video TechRider.ro
- articolul continuă mai jos -
Anunțul urmează să fie făcut oficial în cadrul conferinței anuale pentru dezvoltatori GTC, programată în martie, la San Jose.
Potrivit informațiilor relatate de Reuters, noua platformă va integra un cip proiectat de startup-ul Groq, companie specializată în hardware optimizat pentru sarcini AI care necesită latență redusă.
Accent pe inferență, nu pe antrenarea modelelor
Spre deosebire de procesoarele utilizate pentru antrenarea modelelor AI — proces intens din punct de vedere computațional — noul cip vizează etapa de inferență, adică momentul în care un model deja antrenat răspunde solicitărilor utilizatorilor. Această etapă devine tot mai costisitoare pe măsură ce aplicațiile AI sunt folosite la scară largă.
Surse citate de Reuters arată că OpenAI ar fi nemulțumită de viteza actualelor cipuri Nvidia în anumite scenarii, inclusiv în sarcini legate de generarea sau analiza codului software. Noul hardware ar putea acoperi aproximativ 10% din necesarul de calcul inferențial al companiei.
Negocieri cu producători alternativi de cipuri
În încercarea de a găsi soluții mai rapide pentru inferență, OpenAI ar fi purtat anterior discuții și cu alți producători de hardware AI, inclusiv Cerebras Systems și Groq.
Ulterior, Nvidia a încheiat un acord de licențiere evaluat la aproximativ 20 de miliarde de dolari cu Groq, ceea ce a dus la oprirea negocierilor directe dintre startup și OpenAI, consolidând în același timp poziția Nvidia în ecosistemul hardware pentru inteligență artificială.
Investiții masive în infrastructura AI
În septembrie, Nvidia a anunțat o investiție ce ar putea ajunge la 100 de miliarde de dolari în OpenAI, obținând o participație în companie în schimbul accesului preferențial la cipuri avansate. Mișcarea reflectă competiția tot mai intensă pentru infrastructura necesară dezvoltării și operării modelelor AI la scară globală.
Dezvoltarea unor cipuri dedicate inferenței indică o schimbare de priorități în industrie: pe măsură ce modelele devin mai mature, eficiența rulării lor zilnice începe să conteze la fel de mult ca puterea necesară pentru antrenare.