Cererea pentru infrastructura destinată inteligenței artificiale accelerează puternic, iar Nvidia se poziționează să profite din plin, estimând că piața centrelor de date AI ar putea genera comenzi de până la 1 trilion de dolari până în 2027.
Urmărește cele mai noi producții video TechRider.ro
- articolul continuă mai jos -
Anunțul a fost făcut de Jensen Huang, directorul general al companiei, în cadrul conferinței anuale pentru dezvoltatori GTC 2026 de la San Jose, California. Huang a explicat că estimările includ comenzile pentru sistemele Blackwell și Vera Rubin, noile platforme hardware pentru AI dezvoltate de Nvidia, relatează CNBC.
Acestea combină procesoare grafice de ultimă generație cu unități de calcul avansate dedicate centrelor de date, utilizate în special pentru antrenarea și rularea modelelor de inteligență artificială de mari dimensiuni.
Potrivit CEO-ului, cererea provine atât din partea startup-urilor, cât și a marilor companii care dezvoltă aplicații AI, iar nevoia de putere de calcul crește odată cu apariția conceptului de „agentic AI”, aplicații capabile să creeze alți agenți software pentru a îndeplini sarcini complexe.
Anterior, Nvidia estima că generațiile de cipuri Blackwell și Rubin ar putea genera venituri de aproximativ 500 de miliarde de dolari. Ritmul actual al cererii indică însă o piață mult mai extinsă.
În urma declarațiilor lui Huang, acțiunile Nvidia au crescut cu circa 2% în timpul zilei. Compania este în prezent cea mai valoroasă listată la bursă, cu o capitalizare de aproximativ 4,5 trilioane de dolari, susținută de boomul global al inteligenței artificiale.
În februarie, Nvidia a anunțat că veniturile pentru trimestrul curent ar putea crește cu 77% față de anul precedent, până la circa 78 de miliarde de dolari, după ce deja raportase 11 trimestre consecutive cu creșteri de peste 55%.
Noua platformă Vera Rubin, programată pentru lansare mai târziu în 2026, promite de până la zece ori mai multă performanță per watt față de sistemul anterior Grace Blackwell.
Eficiența energetică devine un factor critic, având în vedere consumul tot mai mare al centrelor de date AI.
În cadrul conferinței, Huang a prezentat și Groq 3 Language Processing Unit (LPU), un cip dezvoltat de startup-ul Groq, achiziționat recent de Nvidia printr-o tranzacție de aproximativ 20 de miliarde de dolari.
LPU-ul este conceput pentru accelerarea procesării modelelor de limbaj și poate funcționa împreună cu GPU-urile Nvidia.
De asemenea, compania a arătat un rack dedicat acceleratoarelor Groq, cu 256 de unități LPU, care poate fi integrat în sistemele Vera Rubin și care, conform Nvidia, ar putea crește performanța generării de „tokeni per watt” de până la 35 de ori.
Acest indicator măsoară cât text poate genera sau procesa un sistem AI pentru fiecare unitate de energie consumată.
În plus, Huang a prezentat un prototip al arhitecturii Kyber, un sistem de servere pentru centre de date care va integra 144 de GPU-uri montate vertical.
Designul are ca scop creșterea densității de calcul și reducerea latenței, urmând să fie implementat în sistemul Vera Rubin Ultra, programat pentru lansare în 2027.
Consolidarea acestei infrastructuri marchează o etapă majoră în cursa globală pentru putere de calcul AI, unde Nvidia se poziționează ca lider incontestabil, pregătit să deservească atât companii mari, cât și startup-uri, în era aplicațiilor AI tot mai sofisticate.