OpenAI nu este mulțumită de unele dintre cele mai recente cipuri de inteligență artificială ale Nvidia și caută alternative încă de anul trecut, au declarat opt surse familiarizate cu problema, citate de Reuters, ceea ce ar putea complica relația dintre cei doi jucători de top din boom-ul AI.
Urmărește cele mai noi producții video TechRider.ro
- articolul continuă mai jos -
Schimbarea de strategie a producătorului ChatGPT, ale cărei detalii sunt prezentate în premieră de Reuters, se referă la accentul tot mai mare pus pe cipurile utilizate pentru a efectua elemente specifice de inferență AI, procesul prin care un model AI, precum cel care alimentează aplicația ChatGPT, răspunde la întrebările și solicitările clienților. Nvidia rămâne lider în domeniul cipurilor pentru antrenarea modelelor AI de mari dimensiuni, în timp ce inferența a devenit un nou front în competiție.
Decizia OpenAI și a altor companii de a căuta alternative pe piața cipurilor de inferență reprezintă un test important pentru dominația Nvidia în domeniul AI și survine în contextul în care cele două companii se află în negocieri pentru investiții.
În septembrie, Nvidia a declarat că intenționează să investească până la 100 de miliarde de dolari în OpenAI, ca parte a unui acord care oferea producătorului de cipuri o participație în startup și oferea OpenAI fondurile necesare pentru a cumpăra cipuri avansate.
Se preconiza că acordul va fi încheiat în câteva săptămâni.. În schimb, negocierile s-au prelungit luni de zile. În acest timp, OpenAI a încheiat acorduri cu AMD și alții pentru GPU-uri construite pentru a rivaliza cu cele ale Nvidia. Dar schimbarea planului său de dezvoltare a produselor a modificat și tipul de resurse de calcul de care are nevoie și a blocat negocierile cu Nvidia, a declarat o persoană familiarizată cu această chestiune.
Sâmbătă, CEO-ul Nvidia, Jensen Huang, a respins un raport privind tensiunile cu OpenAI, spunând că ideea era „o prostie” și că Nvidia plănuia o investiție uriașă în OpenAI.
„Clienții continuă să aleagă NVIDIA pentru inferență, deoarece oferim cea mai bună performanță și cel mai mic cost total de proprietate la scară largă”, a declarat Nvidia într-un comunicat.
Un purtător de cuvânt al OpenAI a declarat într-un comunicat separat că compania se bazează pe Nvidia pentru a alimenta marea majoritate a flotei sale de inferență și că Nvidia oferă cea mai bună performanță pe dolar pentru inferență.
După publicarea articolului Reuters, directorul executiv al OpenAI, Sam Altman, a scris într-o postare pe X că Nvidia produce „cele mai bune cipuri AI din lume” și că OpenAI speră să rămână un „client gigantic pentru o perioadă foarte lungă de timp”.
Șapte surse au precizat că OpenAI nu este satisfăcută de viteza cu care hardware-ul Nvidia poate furniza răspunsuri utilizatorilor ChatGPT pentru anumite tipuri de probleme, cum ar fi dezvoltarea de software și comunicarea AI cu alte programe software. Are nevoie de hardware nou, care ar putea furniza în viitor aproximativ 10% din necesarul de calcul al OpenAI, a declarat una dintre surse pentru Reuters.
Producătorul ChatGPT a discutat despre colaborarea cu startup-uri, inclusiv Cerebras și Groq, pentru a furniza cipuri pentru inferență mai rapidă, au declarat două surse. Dar Nvidia a încheiat un acord de licență în valoare de 20 de miliarde de dolari cu Groq, care a pus capăt discuțiilor OpenAI, a mai afirmat una dintre surse pentru Reuters.
Decizia Nvidia de a achiziționa Groq a părut a fi un efort de a consolida un portofoliu de tehnologii pentru a concura mai bine într-o industrie a IA în rapidă schimbare, au declarat directorii din industria cipurilor. Nvidia a menționat într-un comunicat că proprietatea intelectuală a Groq era extrem de complementară cu strategia de dezvoltare a produselor Nvidia.
Alternative la Nvidia
Cipurile de procesare grafică ale Nvidia sunt potrivite pentru prelucrarea masivă a datelor necesară pentru antrenarea modelelor mari de AI, precum ChatGPT, care au stat la baza creșterii explozive a AI la nivel global până în prezent. Însă progresele în domeniul AI se concentrează din ce în ce mai mult pe utilizarea modelelor antrenate pentru inferență și raționament, ceea ce ar putea reprezenta o nouă etapă, mai importantă, a AI, inspirând eforturile OpenAI.
Căutarea de alternative la GPU de către producătorul ChatGPT de anul trecut s-a concentrat pe companii care construiesc cipuri cu cantități mari de memorie încorporate în aceeași bucată de siliciu ca restul cipului, numită SRAM. Încorporarea cât mai multor SRAM costisitoare în fiecare cip poate oferi avantaje de viteză pentru chatboți și alte sisteme de IA, deoarece acestea procesează cereri de la milioane de utilizatori.
Inferența necesită mai multă memorie decât antrenamentul, deoarece cipul trebuie să petreacă relativ mai mult timp preluând date din memorie decât efectuând operații matematice. Tehnologia GPU de la Nvidia și AMD se bazează pe memorie externă, ceea ce adaugă timp de procesare și încetinește viteza cu care utilizatorii pot interacționa cu un chatbot.
În cadrul OpenAI, problema a devenit deosebit de vizibilă în Codex, produsul său pentru crearea de coduri de computer, pe care compania l-a comercializat agresiv, a adăugat una dintre surse. Personalul OpenAI a atribuit o parte din slăbiciunile Codex hardware-ului bazat pe GPU-ul Nvidia, a spus o sursă.
Într-o convorbire telefonică cu reporterii din 30 ianuarie, Altman a spus că clienții care utilizează modelele de codare OpenAI vor „acorda o mare importanță vitezei de codare”.
O modalitate prin care OpenAI va satisface această cerere este prin recentul acord cu Cerebras, a spus Altman, adăugând că viteza este mai puțin importantă pentru utilizatorii ocazionali ai ChatGPT.
Produsele concurente, precum Claude de la Anthropic și Gemini de la Google, beneficiază de implementări care se bazează mai mult pe cipurile fabricate intern de Google, numite unități de procesare tensoriale sau TPU, care sunt proiectate pentru tipul de calcule necesare pentru inferență și pot oferi avantaje de performanță față de cipurile AI de uz general, precum GPU-urile proiectate de Nvidia.
Ce măsuri ia Nvidia
Pe măsură ce OpenAI și-a exprimat rezervele cu privire la tehnologia Nvidia, gigantul semiconductorilor a abordat companiile care lucrează la cipuri cu SRAM, inclusiv Cerebras și Groq, în legătură cu o potențială achiziție, au spus sursele. Cerebras a refuzat și a încheiat un acord comercial cu OpenAI, anunțat luna trecută.
Groq a purtat discuții cu OpenAI pentru un acord de furnizare a puterii de calcul și a primit interesul investitorilor de a finanța compania la o valoare de aproximativ 14 miliarde de dolari, potrivit unor persoane familiarizate cu discuțiile.
Însă, până în decembrie, Nvidia a decis să licențieze tehnologia Groq într-un acord neexclusiv, integral în numerar, au declarat sursele. Deși acordul ar permite altor companii să licențieze tehnologia Groq, compania se concentrează acum pe vânzarea de software bazat pe cloud, deoarece Nvidia a angajat proiectanții de cipuri ai Groq.