CEO-ul Nvidia anunță că următoarea generație de cipuri este în „plină producție” și promite o putere de calcul de cinci ori mai mare

Logo Nvidia
Sursa foto: JUSTIN SULLIVAN / Getty images / Profimedia

CEO-ul Nvidia, Jensen Huang, a declarat că următoarea generație de cipuri a companiei este în „plină producție”, afirmând că acestea pot oferi o putere de calcul de cinci ori mai mare decât cipurile anterioare ale companiei atunci când sunt utilizate pentru chatboti și alte aplicații AI, relatează Reuters.

Urmărește cele mai noi producții video TechRider.ro

- articolul continuă mai jos -

Într-un discurs ținut la Consumer Electronics Show din Las Vegas, liderul celei mai valoroase companii din lume a dezvăluit noi detalii despre cipurile sale, care vor fi lansate mai târziu în acest an și despre care directorii Nvidia au declarat pentru Reuters că sunt deja în laboratoarele companiei, fiind testate de firme de AI, întrucât Nvidia se confruntă cu o concurență din ce în ce mai mare din partea rivalilor, precum și a propriilor clienți.

Platforma Vera Rubin, compusă din șase cipuri Nvidia separate, este așteptată să debuteze la sfârșitul acestui an, serverul principal conținând 72 de unități grafice ale companiei și 36 dintre noile sale procesoare centrale.

Pentru a obține noile rezultate de performanță, însă, Huang a spus că cipurile Rubin utilizează un tip de date proprietar pe care compania speră că industria în ansamblu îl va adopta.

„Astfel am reușit să realizăm un salt gigantic în performanță, chiar dacă avem doar de 1,6 ori mai mulți tranzistori”, a spus Huang.

Deși Nvidia domină în continuare piața modelelor de AI pentru antrenament, se confruntă cu o concurență mult mai mare – din partea rivalilor tradiționali, precum Advanced Micro Devices, precum și din partea clienților precum Alphabet – în livrarea rezultatelor acestor modele către sute de milioane de utilizatori de chatboti și alte tehnologii.

O mare parte din discursul lui Huang s-a concentrat pe cât de bine ar funcționa noile cipuri pentru această sarcină, inclusiv adăugarea unui nou strat de tehnologie de stocare numit „stocare de memorie contextuală”, menit să ajute chatboții să ofere răspunsuri mai rapide la întrebări și conversații lungi.

Nvidia a promovat, de asemenea, o nouă generație de comutatoare de rețea cu un nou tip de conexiune numită „co-packaged optics”. Tehnologia, care este esențială pentru conectarea a mii de mașini într-una singură, concurează cu ofertele de la Broadcom și Cisco Systems.

Nvidia a declarat că CoreWeave va fi printre primele companii care vor avea noile sisteme Vera Rubin și că se așteaptă ca Microsoft, Oracle, Amazon și Alphabet să le adopte și ele.

În alte anunțuri, Huang a evidențiat un nou software care poate ajuta mașinile autonome să ia decizii cu privire la traseul pe care să îl urmeze și să lase o urmă scrisă pe care inginerii să o poată folosi ulterior. Nvidia a prezentat cercetări despre software-ul numit Alpamayo, la sfârșitul anului trecut, iar Huang a declarat că acesta va fi lansat pe scară mai largă, împreună cu datele utilizate pentru antrenarea sa, astfel încât producătorii de automobile să poată face evaluări.

„Nu numai că punem la dispoziție modelele în format open-source, dar punem la dispoziție și datele pe care le folosim pentru a antrena aceste modele, deoarece numai astfel puteți avea încredere cu adevărat în modul în care au fost create modelele”, a declarat Huang de pe scena din Las Vegas.

  • TechRider este o redacție dinamică, specializată în știri și analize despre tehnologie, gadgeturi și inovații. Echipa sa de jurnaliști pasionați oferă conținut relevant și actualizat, acoperind subiecte de la inteligența artificială la recenzii de produse, într-un stil accesibil și captivant pentru publicul român.

Total
0
Shares
Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Citește si...