- Google razvija "TorchTPU" kako bi svoje AI čipove učinio potpuno kompatibilnima s PyTorchom i olakšao migraciju s Nvidia GPU-ova.
- Cilj ovog poteza je pretvoriti TPU-ove u mainstream alternativu u oblaku i lokalnim okruženjima, smanjujući ovisnost o Nvidijinom CUDA ekosustavu.
- Google blisko surađuje s Metom, upraviteljem PyTorcha, i razmatra otvaranje dijelova programa kako bi se ubrzalo usvajanje.
- Jača podrška za PyTorch mogla bi smanjiti troškove i tehničke prepreke za poduzeća koja žele diverzificirati svoju AI infrastrukturu.

Google tiho preoblikuje svoj strategija u utrci za umjetnu inteligenciju u računalstvuNakon godina usredotočenih na vlastite oznake unutar tvrtke, tvrtka sada ulaže veliki trud u to da njezini AI čipovi besprijekorno rade s PyTorchom, alatima otvorenog koda koji su postali zadani izbor za većinu AI programera diljem svijeta.
U središtu ove promjene je projekt poznat interno kao „TorchTPU“, napor osmišljen kako bi se smanjio jaz između načina na koji se gradi Googleov hardver i načina na koji korisnici zapravo grade svoje AI sustave. Podizanjem podrške za PyTorch na vrhunsku razinu na svojim Tensor Processing Units (TPU), Google želi smanjiti... ogromna prednost koju je Nvidia izgradila kroz svoj CUDA softverski ekosustav.
Google pretvara TPU-ove u ozbiljnog rivala Nvidijinim GPU-ima
Googleovi TPU-ovi se dugo predstavljaju kao Visokoučinkoviti čipovi prilagođeni za AI radna opterećenja, ali nisu se mogli mjeriti sa sveprisutnošću Nvidijinih GPU-a. Jedan od ključnih razloga je taj što je Nvidia godinama osiguravala da PyTorch iznimno dobro radi na svom hardveru, dok se Google uglavnom usredotočio na vlastite alate i interne tijekove rada.
Unutar Alphabeta, TPU-ovi su postali ključni motor rasta za Google CloudProdaja pristupa tim čipovima putem svoje cloud platforme sada je središnji dio načina na koji Google želi dokazati investitorima da se njegova ulaganja u umjetnu inteligenciju mogu pretvoriti u opipljive prihode, a ne samo u istraživački prestiž ili eksperimentalne proizvode.
Međutim, sam hardver ne osvaja programere. Poduzeća koja razmatraju TPU-ove više su puta rekla Googleu da Kompatibilnost softvera bila je kamen spoticanjaTimovi koji su u velikoj mjeri standardizirali PyTorch ne žele preoblikovati svoj kod ili prekvalificirati osoblje samo kako bi isprobali novi čip.
Tu nastupa TorchTPU. Inicijativa je osmišljena kako bi se TPU-ovi, s gledišta programera, osjećali kao... jednostavno za korištenje s PyTorchom kao što su to danas Nvidia GPU-oviCilj je da se postojeći PyTorch modeli i cjevovodi mogu premjestiti uz minimalne promjene, tako da se troškovi i rizik eksperimentiranja s TPU-ovima naglo smanje.
Glasnogovornik Google Clouda izbjegao je ulazak u tehničke detalje, ali je potvrdio da je glavni cilj pružiti korisnicima daleko veću fleksibilnost u načinu na koji izvršavaju AI opterećenja, bez obzira na to koji hardver odaberu ispod.
Što TorchTPU stvarno mijenja za PyTorch developere
PyTorch, izvorno kreiran i promoviran od strane Mete, postao je de facto standardni okvir za izgradnju modernih AI sustavaVećina inženjera u Silicijskoj dolini i šire ne programira ručno kernele za Nvidia, AMD ili Google čipove; umjesto toga, oslanjaju se na PyTorch i slične okvire koji pružaju slojeve unaprijed izgrađenih komponenti i uslužnih programa za obuku.
Od svog izlaska 2016. godine, rast PyTorcha usko je povezan s CUDA i okolne knjižnice, softverski paket koji mnogi analitičari s Wall Streeta smatraju najvažnijom strateškom imovinom Nvidije. Nvidijini inženjeri uložili su velika sredstva kako bi osigurali da PyTorch radi s maksimalnom učinkovitošću na njihovim GPU-ima, čineći ovo uparivanje zadanim izborom za obuku i implementaciju velikih AI modela.
Google je, nasuprot tome, godinama podržavao Jax, još jedan softverski okvir koji je bio posebno omiljen unutar vlastitih istraživačkih i proizvodnih timova. TPU-ovi su se oslanjali na sloj kompajlera nazvan XLA učinkovito pokretati Jax-bazirani kod, a velik dio Googleovog internog AI softverskog paketa i optimizacija performansi izgrađeni su oko te kombinacije.
Rezultat je da je došlo do sve većeg nesklada između kako sam Google koristi svoje čipove i kako većina vanjskih kupaca preferira raditi. Mnoga poduzeća su se gotovo u potpunosti standardizirala na PyTorchu, što znači da je prelazak na TPU-ove obično podrazumijevao revolucionarnu promjenu u alatima, kodu i vještinama programera.
S TorchTPU-om, Google pokušava ukloniti to trenje. Projekt ima za cilj pružiti potpuna podrška za PyTorch na TPU-ovima, tako da se tvrtke mogu i dalje oslanjati na poznate biblioteke, petlje učenja i obrasce implementacije dok mijenjaju samo temeljni hardverski cilj. To bi moglo značajno smanjiti i inženjerski napor i krivulju učenja za timove koji žele procijeniti performanse TPU-a ili prednosti u troškovima.
Više resursa, otvoreni kod i veća predanost
Prema ljudima upoznatim s inicijativom, TorchTPU nije samo još jedan sporedni eksperiment. Za razliku od nekih ranijih pokušaja da se PyTorch pokrene na TPU-ovima, Google je sada dodijelio više organizacijske pažnje, proračuna i strateške važnosti ovom naporu, tretirajući ga kao središnji stup svojeg plana razvoja AI infrastrukture, a ne kao projekt nišne kompatibilnosti.
Jedan od najznačajnijih elemenata koji se razmatraju je dijelovi softverskog paketa otvorenog koda iza TorchTPU-a. Objavljivanjem ključnih komponenti zajednici, Google se nada ubrzati usvajanje, privući vanjske suradnike i izgraditi povjerenje među velikim kupcima koji žele transparentnost i dugoročnu stabilnost u svojim AI platformama.
Ovaj otvoreniji stav također je namijenjen uvjeravanju tvrtki koje su smatrale da je podrška za TPU previše povezana s Googleovim internim načinom rada. Davanje vanjskim programerima prilike za pregled, proširenje i otklanjanje pogrešaka u TorchTPU komponentama moglo bi učiniti TPU-ovi se manje osjećaju kao vlasnički otok i više kao građanin prvog reda u širem PyTorch ekosustavu.
Za poduzeća je ovo važno na praktičan način. Ako TorchTPU uspije, mogao bi značajno smanjiti troškove migracije s Nvidia GPU-a na Google TPU-ove, što olakšava diverzifikaciju računalne infrastrukture bez upuštanja u višegodišnje prepisivanje softvera.
Korisnici su Googleu više puta rekli da je povijesni zahtjev za prelaskom na Jax bio glavni odvraćajući faktor. PyTorch već dominira među AI programerima, a na brzorastućim tržištima malo je organizacija spremno pauzirati razvoj proizvoda dok njihovi timovi preurediti oko novog okvira samo za pristup alternativnoj opremi.
Od internog hardvera do široke ponude za poduzeća
Dugo vremena, Alphabet je zadržao većinu svog TPU kapaciteta za interna upotreba unutar Googlea, pokrećući pretraživanje, prevođenje, sustave preporuka i rana istraživanja umjetne inteligencije. Taj se stav počeo mijenjati 2022. godine, kada je odjel za računarstvo u oblaku dobio veće ovlasti nad načinom proizvodnje i prodaje TPU-ova.
Od tada, dostupnost TPU-ova putem Google Cloud se znatno povećaoKako se interes poduzeća za umjetnu inteligenciju ubrzao, Google je pozicionirao svoje čipove kao način da kupci iskoriste vrhunsko računalstvo bez potrebe za upravljanjem vlastitim čvrsto povezanim GPU klasterima.
Nedavno je Google otišao korak dalje prodaja TPU-ova izravno za implementaciju u vlastitim podatkovnim centrima kupaca, ne samo putem javnog oblaka. Taj pomak omogućuje većim organizacijama sa strogim regulatornim ili latencijskim zahtjevima da integriraju TPU-ove u svoju lokalnu infrastrukturu, a istovremeno imaju koristi od Googleovog plana razvoja hardvera.
Ovo širenje također mijenja Googleove interne prioritete. Tvrtki su potrebni TPU kapaciteti i za pokreće vlastite AI proizvode— od Gemini chatbota do značajki pretraživanja pokretanih umjetnom inteligencijom — i za pružanje usluga vanjskim korisnicima Google Clouda, uključujući poznate tvrtke za umjetnu inteligenciju poput Anthropica koje se oslanjaju na iznajmljene TPU kapacitete.
Kako bi sve to koordinirao, Google je podigao vodstvo u infrastrukturi umjetne inteligencije: iskusni rukovoditelj Amin Vahdat imenovan je voditeljem AI infrastrukture i sada izravno odgovara izvršnom direktoru. Sundar PichaiTa linija izvještavanja naglašava koliko je hardverski i softverski paket postao središnji dio Googleovih širih ambicija umjetne inteligencije.
Partnerstvo s Metom za jačanje PyTorcha na TPU-ovima
Google ne traži TorchTPU sam. Prema ljudima upoznatim s pregovorima, tvrtka blisko surađuje s Meta, kreator i upravitelj PyTorcha, kako bi se ubrzala podrška za TPU-ove i uskladili tehnički smjerovi koji koriste oba partnera.
Razgovori između tvrtki uključuju aranžmane koji bi dali Meti pristup većem TPU kapacitetuRaniji prijedlozi navodno su to uokvirili kao upravljane usluge: Google bi rasporedio svoje čipove u okruženjima u kojima bi Meta mogla pokretati vlastiti softver i modele, a Google bi se bavio većim dijelom operativnih troškova.
Za Metu je strateški važno da PyTorch učinkovito radi na širem rasponu hardvera. Tvrtka ima jasan poticaj za... smanjiti troškove zaključivanja i diverzificirati se od isključivog oslanjanja na Nvidia GPU-ove, kako bi smanjila vlastitu potrošnju i ojačala svoju pregovaračku poziciju prilikom pregovaranja o budućim kupnjama čipova.
Suradnjom s Googleom, Meta može pomoći u osiguravanju da PyTorch ostane hardverski neovisno i široko optimizirano, umjesto da se smatra čvrsto vezanim uz ekosustav jednog dobavljača. To, pak, jača status PyTorcha kao standarda zajednice i održava okvir privlačnim za istraživače i poduzeća.
Meta je do sada odbio javno komentirati ove specifične dogovore, ali usklađivanje interesa je jasnoDiv društvenih medija i umjetne inteligencije želi opcije izvan Nvidije, dok Google želi da se PyTorch osjeća kao izvorni na njegovim TPU-ima kako bi ih više kupaca bilo spremno isprobati.
Smanjenje Nvidijine CUDA prednosti
Nvidijina dominacija u umjetnoj inteligenciji ne odnosi se samo na isporuku moćnih grafičkih procesora. Tijekom mnogih godina, tvrtka je izgradila opsežan softverski paket - utemeljen na - koji je duboko integriran u okvire poput PyTorcha. Ova kombinacija hardvera i softvera postala je zadana platforma za obuku i zaključivanje za vrhunske AI modele.
Zbog te bliske integracije, mnoge organizacije vide Udaljavanje od Nvidije smatra se rizičnim i skupimKodne baze, tijekovi rada i stručnost osoblja usklađeni su s CUDA-om, što alternativne čipove čini potencijalnim izvorom trenja čak i ako na papiru obećavaju bolje cijene ili performanse.
Googleov TorchTPU napor je izravan pokušaj smanjenja te prednosti. Ako PyTorch može raditi na TPU-ima sa sličnom razinom lakoće i podešavanja performansi kao na Nvidia GPU-ima, poduzeća dobivaju vjerodostojna alternativa za velika AI opterećenjaNa tržištu gdje potražnja za umjetnom inteligencijom raste, a ograničenja ponude su uobičajena, imati još jednu ozbiljnu opciju moglo bi biti vrlo atraktivno.
Istovremeno, Googleova odluka da razmotri otvoreni kod ključnih dijelova TorchTPU paketa signalizira drugačiji pristup od Nvidijinog vertikalno integriranijeg stila. Dijeljenjem većeg dijela temeljnog softvera, Google želi izgraditi povjerenje među programerima koji cijene transparentnost i prenosivost.
Ništa od ovoga ne jamči da će TPU-ovi zamijeniti GPU-ove, ali mijenja računicu. Umjesto da biraju između Nvidijinog zrelog ekosustava i alternative koja zahtijeva potpunu migraciju alata, kupci bi mogli razmotriti... performanse, cijena i dostupnost dok ostajete unutar poznatog PyTorch okruženja.
U oblačnim i lokalnim implementacijama, ta promjena bi mogla organizacijama olakšati kombinirajte dobavljače hardvera tijekom vremena, umjesto da svoje planove za umjetnu inteligenciju vežu za jednog dobavljača prema zadanim postavkama.
Kako Google produbljuje svoju predanost PyTorchu putem TorchTPU-a, povećava pristup TPU-ovima za poduzeća i jača suradnju s Metom, konkurentsko okruženje oko infrastrukture umjetne inteligencije postaje sve fluidniji. Nvidijina prednost, izgrađena na godinama hardvera i CUDA integracije, i dalje je značajna, ali kupci sada vide realnije puteve za diverzifikaciju mjesta gdje se izvršavaju njihova AI opterećenja i koliko plaćaju za temeljno računanje.