Google colaborează cu Meta pentru a intra în competiție directă cu Nvidia și a-i reduce avantajul în infrastructura AI

infrastructură AI
Sursa foto: Imagine generată de AI

Google lucrează la o nouă inițiativă strategică menită să îmbunătățească modul în care cipurile sale pentru inteligență artificială rulează PyTorch, cel mai utilizat framework software pentru dezvoltarea modelelor AI la nivel global.

Urmărește cele mai noi producții video TechRider.ro

- articolul continuă mai jos -

Proiectul, cunoscut intern sub numele de „TorchTPU”, are ca obiectiv reducerea dependenței dezvoltatorilor de ecosistemul software al Nvidia și facilitarea adoptării cipurilor Tensor Processing Units (TPU) produse de Google.

Inițiativa este parte dintr-un efort mai amplu al Google, companie deținută de Alphabet, de a transforma TPU-urile într-o alternativă viabilă la GPU-urile produse de Nvidia, care domină în prezent piața de calcul pentru inteligență artificială, scrie Reuters.

Potrivit unor surse apropiate proiectului, Google alocă mai multe resurse și o importanță strategică mai mare acestui demers decât inițiativelor anterioare similare.

Pentru Google, miza nu este doar tehnologică. Vânzările de TPU-uri au devenit un factor important de creștere pentru veniturile Google Cloud, într-un moment în care compania caută să demonstreze investitorilor că investițiile masive în inteligență artificială generează rezultate concrete.

Software-ul, cheia adopției

Deși performanța hardware este importantă, Google recunoaște că aceasta nu este suficientă pentru a atrage dezvoltatori și clienți enterprise. Un obstacol major în calea adoptării TPU-urilor a fost compatibilitatea limitată cu PyTorch, framework-ul utilizat de majoritatea dezvoltatorilor AI.

„TorchTPU” își propune să elimine acest obstacol. Scopul este ca TPU-urile să devină complet compatibile și ușor de utilizat pentru echipele care și-au construit deja infrastructura pe baza PyTorch. Sursele citate afirmă că Google ia în calcul inclusiv deschiderea codului sursă pentru anumite componente software, pentru a accelera adopția și a încuraja contribuțiile externe.

Această abordare marchează o schimbare față de strategia tradițională a Google, care și-a optimizat mult timp cipurile pentru un alt framework, Jax, utilizat în principal intern. TPU-urile se bazează pe un instrument numit XLA pentru optimizarea codului, iar întregul stack software AI al Google a fost construit în jurul acestei arhitecturi.

Diferența dintre modul în care Google își folosește propriile cipuri și modul în care clienții doresc să le utilizeze a devenit tot mai evidentă pe măsură ce cererea pentru soluții AI a crescut la nivel global.

PyTorch și avantajul Nvidia

PyTorch este un proiect open-source susținut puternic de Meta Platforms și reprezintă una dintre cele mai importante unelte pentru dezvoltarea modelelor de inteligență artificială. Lansat în 2016, PyTorch este strâns legat de CUDA, platforma software dezvoltată de Nvidia pentru programarea și optimizarea GPU-urilor sale.

De-a lungul anilor, Nvidia a investit masiv în asigurarea unei integrări profunde între CUDA și PyTorch. Această relație a permis ca modelele AI dezvoltate cu PyTorch să ruleze extrem de eficient pe GPU-urile Nvidia, oferind companiei un avantaj competitiv major. Mulți analiști consideră ecosistemul CUDA drept cea mai puternică barieră în calea concurenței Nvidia, mai importantă chiar decât hardware-ul în sine.

În Silicon Valley, puțini dezvoltatori scriu cod de la zero pentru fiecare tip de cip. Majoritatea se bazează pe framework-uri precum PyTorch, care oferă biblioteci și instrumente predefinite pentru antrenarea și rularea modelelor AI. Din acest motiv, compatibilitatea cu PyTorch este esențială pentru orice producător de cipuri care dorește să concureze cu Nvidia.

Presiunea clienților enterprise

Potrivit surselor, clienții enterprise au transmis în mod repetat Google că TPU-urile sunt mai greu de adoptat pentru sarcini AI tocmai din cauza cerinței de a migra de la PyTorch la Jax. O astfel de tranziție implică timp, costuri suplimentare și efort de inginerie, într-un context în care viteza de dezvoltare este critică.

Această realitate a limitat capacitatea Google de a atrage clienți care doresc alternative la GPU-urile Nvidia, în ciuda avantajelor potențiale de cost sau performanță oferite de TPU-uri. „TorchTPU” este conceput tocmai pentru a reduce aceste costuri de tranziție și pentru a face adopția TPU-urilor mai atractivă.

Dacă inițiativa va avea succes, companiile ar putea rula modele AI bazate pe PyTorch pe cipurile Google fără modificări majore ale codului sau infrastructurii existente. Acest lucru ar putea slăbi poziția dominantă a Nvidia pe piața de calcul AI.

Colaborarea cu Meta

Pentru a accelera dezvoltarea proiectului, Google colaborează îndeaproape cu Meta, compania care joacă un rol central în dezvoltarea și mentenanța PyTorch. Sursele afirmă că cele două companii discută inclusiv posibile acorduri prin care Meta ar putea avea acces la un număr mai mare de TPU-uri.

Meta are un interes strategic în această colaborare. Compania caută să își reducă costurile de inferență și să își diversifice infrastructura AI, diminuând dependența de GPU-urile Nvidia. O infrastructură mai diversificată i-ar putea oferi Meta o poziție mai bună de negociere cu furnizorii de hardware.

Meta a refuzat să comenteze aceste informații.

TPU-uri pentru clienți externi

Mult timp, Alphabet a păstrat majoritatea TPU-urilor pentru uz intern. Situația s-a schimbat în 2022, când divizia Google Cloud a preluat controlul asupra vânzării acestor cipuri. Decizia a dus la o creștere semnificativă a disponibilității TPU-urilor pentru clienți externi.

Pe fondul exploziei cererii pentru soluții AI, Google a accelerat producția și vânzarea de TPU-uri către companii din afara grupului. Mai mult, în acest an, Google a început să vândă TPU-uri direct către centrele de date ale clienților, nu doar prin intermediul propriei infrastructuri cloud.

Un purtător de cuvânt al Google Cloud a confirmat pentru Reuters direcția generală a strategiei, fără a oferi detalii despre proiectul TorchTPU.

„Vedem o cerere masivă și în accelerare atât pentru infrastructura noastră TPU, cât și pentru cea GPU”, a declarat acesta. „Ne concentrăm pe oferirea flexibilității și scalabilității de care dezvoltatorii au nevoie, indiferent de hardware-ul pe care aleg să construiască.”

Reorganizare internă și mize strategice

În paralel, Google își consolidează structura de conducere în zona de infrastructură AI. Amin Vahdat, un veteran al companiei, a fost numit recent șef al infrastructurii AI, raportând direct CEO-ului Sundar Pichai.

Google are nevoie de această infrastructură atât pentru propriile produse, precum chatbot-ul Gemini și funcțiile de căutare bazate pe inteligență artificială, cât și pentru clienții Google Cloud. Printre aceștia se numără companii precum Anthropic, care folosesc TPU-uri pentru dezvoltarea și rularea modelelor AI.

Într-o piață dominată de Nvidia, inițiativa „TorchTPU” reprezintă una dintre cele mai clare încercări ale Google de a ataca nu doar hardware-ul rivalilor, ci și avantajul lor software. Rezultatul acestui demers ar putea influența semnificativ echilibrul de forțe din industria globală a inteligenței artificiale.

Total
0
Shares
Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Citește si...