Nvidia připravuje ExaScale Machine na rok 2017 – GPU(CPU) s výkonem 40TFLOPS a 300W TDP
Napsal Jan "DD" Stach   
Čtvrtek, 29 říjen 2009
altNVIDIA to se vstupem na trh výpočetních serverů myslí smrtelně vážně …

 

 

Pokud ještě pochybujete, kam se nám to NVIDIA vydala s čipem FERMI a se svými nejnovějšími softwarovými aktivitami, pak tu máme další dílek do skládačky. Plány výrobců na 2-3 roky dopředu nejsou ničím zvláštní, výrobci samozřejmě kutí čipy a produkty, které vyrazí na trh až za 3 roky a dobře vědí, jaké budou mít zhruba parametry. Mít ale podrobné plány na rok 2017, to se často nevidí. Na druhou stranu nelze nevzpomenout památné věty šéfa NVIDIA, které nedávno vypíchla společnost ATI a kupodivu se hodí velmi dobře i pro tento případ:

Ale následující roky nechme raději být, a podívejme se na to, co NVIDIA slibuje na rok 2017:

 

 

V roce 2017 chce uvést cosi, co nazývá NVIDIA ExaScale Machine. Jedná se o čip, který ponese nějakých 2400SP (GT200 jich má 240, FERMI asi 512)., ale také 16 procesorových jader. Celkově má mít tenhle čip nějakých 300W TDP. Tohle je zjevný důkaz toho, že NVIDIA tvoří hybridní čip a směřuje od GPU k CPU a samozřejmě k jejich spojení. NVIDIA jde cestou od grafik, zatímco Intel jde přes Larabee od procesorů. Jediné AMD má v současnosti k dispozici jak výkonné multijádrové x86 procesory, tak výkonná GPU, jde tak střední cestou, kterou nazývá FUSION a spojí to nejlepší z obou velmi brzy (2011).

V roce 2017 nám tak chce NVIDIA představit GPU s výkonem 40TFLOPS, podporou adresování až 128GB a propustností 2TB/s. Samozřejmě počítá i s hromadným nasazením těchto čipů do multijádrových systémů a to pak padají čísla jako 10MW na výkon 2EPFLOPS a 6,4PBDRAm :). No plány jsou to hezké, ale rok 2017 je setsakramensky daleko a ve světě počítačů je to doslova celá věčnost. Jen tak namátkou v roce 2002 (před sedmi lety) byly aktuální tyto modely grafických karet: ATI Radeon HD 8500 (R200) a NVIDIA GeForce4 TI4000. Takže čistě teoreticky, jakkoliv zní čísla kolem čipu, který NVIDIA plánuje na rok 2017 jako neuvěřitelná, stejně tak by zněly parametry současné mainstreamové grafické karty ATI Radeon HD 5870 se 40nm RV870 s výkonem 2,73TFLOPS v roce 2002 …

Zdroj: En.expreview.com

 

AUTOR: Jan "DD" Stach
Radši dělám věci pomaleji a pořádně, než rychle a špatně.

Starší články


Komentáře
Přidat Nový
Bohumil Stejskal [Zobrazit profil] [Poslat zprávu] 2009-10-29 12:28:12
avatar
nějak mi na tom obrázku "co bude v roce 2017" chybí něco o PhysX
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-29 18:58:01

Provokujes?
MadMaxII [Zobrazit profil] [Poslat zprávu] 2009-10-30 11:14:31

Nikdo se na grilovani pecinky nechytil(zadny flambovani nebude), delas to moc okate(skoro jak invidioti)...
K4SPI [Zobrazit profil] [Poslat zprávu] 2009-10-29 12:29:45
avatar
Jsem zvědav, kdo s tímto směrem vývoje ''vyhraje'' a bude mít slušné zisky. Jak už řekl DD, jediné AMD se snaží procesor nechat procesorem a grafiku nechat grafikou, podle mě to AMD dělá správně, ale na druhou stranu, NVIDII jde o krk, protože nemá svůj procesor a Intel zase nemá výkonné grafiky a chce udělat z nich výkonější GPU založené na CPU.
shurin [Zobrazit profil] [Poslat zprávu] 2009-10-29 13:03:46
avatar
Já mám bohužel obavy, ono u procesoru, jak je vidět ještě není takový problem mít 2 roky zpoždění, ale u grafik je docela problém i pár měsíců, takže pokud to dáte dohromady, tak by to mohlo hlavně u grafické části docela dost vadit, protože vývoj procesoru trvá v porovnání ke grafickým čipům pekelně dlouho (procesory se dělají ručně, grafiky navrhuje počítač - v tom je taky vidět rozdíl dosažitelných frekvencí), ale pointa jde v tom, že nejspíš u AMD nemají takové finanční ani lidské zdroje, aby obnovovali celý procesor jen kvuli grafice, která bude kazdý pulrok za zenitem a zatím to vypadá, že při stálem oddalování termínu vydání řeší tento problém už ted, že než by to vydali, tak už jim výkon grafik ujede někam do pryč. Takže v podání AMD to nejspíš až takový hit nebude, to já spíše čekám, že se to podaří Intelu, ale určitě ne ted s Larabee, to bude jen taková věc pro fajnšmekry, aby se to ozkouselo, ale pak to nejspíše nějakým zpusobem zkombinují do zlatýho poměru mezi počtama a výkoností jader a udělají čip který zvládne vsechno najednou. No a nebo konečně pánbů dá a odprostíme se od x86 architektury a to by se mohla uchytit i nVidia, ale to by tu nemohl být MS s Windowsama...
Gang [Zobrazit profil] [Poslat zprávu] 2009-10-29 12:31:21

Myslím, že jsou to kecy nevzužitého analytika.
Za 7 lét pokrok určitě půjde daleko dále, než tyto docela skromné parametry. Na reálné 3D obrazovce 90000x10000, ohnuté do cylindru a zabírající roh v pokoji tento šunt prostě nebude stačit.
Superdrooper [Zobrazit profil] [Poslat zprávu] 2009-10-29 12:50:37
avatar
No nevím, do pěti let tu prý máme biologické počítače založené na DNA a jako monitor nám bude sloužit speciálním filtrem potažená celá jedna stěna našeho pokojíčku. To teprve bude paráda, až na nás vybafne BSOD!
marin003 [Zobrazit profil] [Poslat zprávu] 2009-10-29 22:38:57

Do 5 rokov... o tom som počul už min pred piatimi rokmi že biologicke počítače tu mame do troch až piatich rokov, a kde su prototypy, a to maju byt ovela výkonnejšie ako tie čo sú teraz.
error2000 [Zobrazit profil] [Poslat zprávu] 2009-10-29 12:54:11

Podľa mňa DD teraz varí z vody ))
Don_F3K3T3 [Zobrazit profil] [Poslat zprávu] 2009-10-29 19:03:00
avatar
nesmieme zabúdať na fakt, že kremík sa blíži k svojím fyzikálnym hraniciam čo sa zmenšovania tranzistorov týka. Na veľmi nízke výrobné procesy sa bude prechádzať čoraz ťažšie ak sa nevymyslí iná alternatíva ako Si. Takže rok 2017 je hodne optimistický
jardop [Zobrazit profil] [Poslat zprávu] 2009-10-29 17:06:28

prilis vzdialena buducnost.. maju vesticu?
Gang [Zobrazit profil] [Poslat zprávu] 2009-10-30 09:28:05

Ano, rozhodně. A ty nemají co dělat. Důkazem obou faktů je právě tato zpráva.
hell.dll [Zobrazit profil] [Poslat zprávu] - nee 2009-10-29 17:31:59

nedožije
radvot [Zobrazit profil] [Poslat zprávu] 2009-10-29 18:02:17

Celkem se mi po tech cerveno zelenych hadkach bude styskat.Nvidia je porad narvana schopnymi inzenyry az na pudu.Tohle je jen dalsi dil do skladacky.Do 2 let diky integraci gpu a X86 procesoru skonci na trhu levnych grafik.A z tech jak vsichni vime se plati vyvoj novych a drahych dedikovanych karet.Tohle je problem X86 licence,ne neschopnosti Nvidia.Cele jeji preorientovani na jiny segment trhu je toho jasnym dukazem.Neustala recyklace a prejmenovani starych jader je jen dusledek toho ze Nvidia na trhu klasickych hernich karet uz nic nevyviji.Uz priorita Fermi snad mluvi za vse.Do ted se delali profesionalni karty jako derivaty karet hracich.Ale ouha,ted to dela Nvidia presne naopak a k loajalnim hracum se dostanou jen fyzicky orezazane verze Fermi.Ale to uz je jen labuti pisen.Nvidia ocividne odchazi do kremikoveho nebe kde se sypou penize proudem a bude konkurovat firmam jako je IBM atd.Akorat ze tu po sobe necha hromadu sirotku
K4SPI [Zobrazit profil] [Poslat zprávu] 2009-10-29 18:24:55
avatar
Možná, že v budoucnosti se objeví nějaká firma, která vleze na GPU sféru a bude tak úspěšná, že bude považována ke konkurenci aktuálních velikánů NVIDIE nebo AMD(ATi), Intel nepočítám, ten sice má největší podíl v grafikách, ale je to grafika pro nenáročné použití, to se ale může s Larrabee změnit
snipermaniak [Zobrazit profil] [Poslat zprávu] 2009-10-30 19:37:07
avatar
Třeba VIA?
Anarki [Zobrazit profil] [Poslat zprávu] 2009-10-29 18:40:10
avatar
To čo nám nvidia sľubuje je naozaj sakramensky ďaleko, do roku 2017 už nemusí nvidia existovať a bue už len Amd-Ati a Intelvidia
Keby nebol intel taký nenažraný a neskúšal postaviť niečo čo naozaj nevie (grafiku) tak by som sa začal obávať, že čím horšie na tom nvidia bude, tým väčšia šanca že ju kúpi intel To je asi jediná rozumná (a poriadne drahá) možnosť pre intel ako konkurovať AMD platforme Fusion. Ale to je ešte ďaleko.
mira89 [Zobrazit profil] [Poslat zprávu] 2009-10-29 19:17:06
avatar
"Intelvidia" už jen ten název by byl jak červenej hadr pro antimonopolního býka
Sephinothf [Zobrazit profil] [Poslat zprávu] 2009-10-29 23:46:58
avatar
Ja myslel ze AMD upustilo od nazvu fusion a preslo na APU

ATI Radeon HD 8500 (R200) "HD" se zacalo pouzivat kapku pozdejc pokud se nemylim
K4SPI [Zobrazit profil] [Poslat zprávu] 2009-10-30 09:31:57
avatar
Já si myslím, že HD pochází z Henry Doody a má nastínit sílu GPU xD.
Pouze registrovaní uživatelé mohou přidat komentář!