NVIDIA vydá RTX 3080/3090 v září. Obě s velkým jádrem! Výroba v srpnu. 350W je realitou.
Napsal Jan "DD" Stach   
Sobota, 13 červen 2020
altVe firmě je hodně dusno, únik informací je závažný a pokračuje. Kdy se RTX 3000 dočkáme?

 

 

 

 

U NVIDIA panuje hodně velké dusno, kdy firma řeší, kdo se dopustil tak zásadního neobvyklého úniku informací. Jde opravdu o hodně. Z více důvěryhodných zdrojů totiž bylo potvrzeno, že všechny uniknuté snímky novinek jsou reálné, a unikly prakticky v rané fázi dokončení finálního návrhu, který neviděli ještě ani všichni zaměstnanci NVIDIA. Potvrzeno je ale také to, že uvedené TBP (total board power, tedy spotřeba celé karty), nejsou spekulace!

320W TBP pro RTX 3080 a 350W pro RTX 390 jsou hodnoty, které NVIDIA poslala výrobcům grafik jako oficiální. Nutno říci, že jde o spotřebu celé grafiky nejen GPU, pro které se udává TDP. Takže nezaměňovat TDP a TBP, což se bohužel často dělá. Speciálně ve srovnání AMD a NVIDIA, kdy oba výrobci uvádějí hodnoty W pro své karty jinak. V případě 350W TBW AMPERE RTX 3090, to znamená, že 350W je tedy reálná běžná spotřeba celé karty v běžném nastavení, jenže v tom je i zhruba 60W co sežere předpokládaných 24GB GDDR6X pamětí (a pořád je udáváno GDDR6X), samozřejmě nějaké další ztráty a spotřeba je u mnoha dalších prvků na kartě, napájení, chlazení atd. Samotné GPU GA102 má zhruba 230W spotřeby, což je pořád samozřejmě ranec. A to se bavíme o hodnotách reference. U OC modelů můžeme klidně reálně počítat s hodnotami kolem 400W TBP!

NVIDIA údajně plánuje začít vyrábět RTX 3080 a RTX 3090 v srpnu a představení grafik pak proběhne v září. Nasvědčuje tomu prakticky všechno, speciálně stav, ve kterém teď karty jsou. Z dalších zdrojů vím, že výrobci grafik ještě nemají své nereferenční designy hotové, ale pracují na nich, takže všechno sedí.

Z hlediska výkonu je jasné, že NVIDIA jde do všeho naplno. RTX 3080 jako nástupce RTX 2080 dostane velké jádro, které by normálně dostal jen nástupce RTX 2080 Ti, tedy RTX 3080 Ti (ten se bude jmenovat tedy RTX 3090). GA102 je obří 7nm GPU, největší, které NVIDIA chystá pro herní grafiky. Větší už je jen GA100 na A100 řešení, které NVIDIA představila nedávno, ale tohle GPU nemá Raytracing HW akceleraci (RT jednotky), protože je určeno pro výpočetní nasazení a s jeho nasazením na herní grafiky se tedy vůbec nepočítá. Použití GA102 na RTX 3080 je překvapivé, protože NVIDIA v posledních generacích nikdy nepoužívala pro „střední model“ největší jádro.

GTX 980 měla GM204 (398mm2) a GTX 980 Ti měla větší GM200 (601mm2). To samé u GTX 1080 s jejím GP104 (314mm2), protože GTX 1080 Ti měla GP102 (471mm2). NVIDIA prostě nepoužívá největší GPU, pokud z hlediska konkurence opravdu nemusí! Naposledy tak měly xx80 a xx80Ti modely stejné největší a nejlepší GPU v případě generace KEPLER, tedy GTX 780 a 780 Ti z roku 2013, kde GTX 780 bojovala se starším Radeon HD 7970 a poté novou sérií AMD R9 a výkonově to bylo vyrovnané. NV ani s GTX 780 Ti nestačila na absolutní vrchol, protože AMD mělo duální high end grafiky s vyšším výkonem. Právě tohle ohlédnutí do minulosti napovídá, že použití velkého GA102 jádra i pro „střední“ RTX 3080, nebylo rozhodně dobrovolným chtěným rozhodnutím NVIDIA, ale prostě vyžaduje si to situace, kdy AMD se o dvou generacích vrací do high endu. NVIDIA tedy zjevně očekává ostrý souboj. Pro nás je to samozřejmě dobrá zpráva, i když je tak i pravděpodobné, že výkonově mezi RTX 3080 a RTX 3090 bude asi menší rozdíl, než mezi 1080 a 1080Ti nebo 2080 a 2080Ti. Ale zase pokud bude RTX 3080 zase za 20 tisíc, tak na rozdíl od 1080 a 2080 za ty prachy bude více odpovídat.

Už GTX 1080 po svém vydání stála mnohem víc, než by stát měla, což naštěstí opravilo vydání GTX 1080 Ti. Úplný nesmysl jsou ale ceny stávající RTX 2000 série, kde RTX 2080 je prostě předražená až hrůza a RTX 2080 Ti je pak úplně nesmysl, a to prostě jen proto, že NVIDIA mohla ty ceny napálit, protože není teď konkurence. U RTX 3000 série to ale díky AMD a jeho RDNA 2 vypadá na úplně jinou situaci. U NVIDIA jsou ale hodně naštvaní, protože aby prakticky všechno zásadní o nové generaci karty uniklo měsíce před jejím vydáním, a dříve než o nich věděli i všichni lidi ve firmě, to se opravdu nevidí. U AMD tedy víceméně přesně vědí, proti čemu stojí, a to si piště, že to zohlední. NVIDIA také přišla o ten moment překvapení s tím novým chladičem, který ale není zase tak originální, jak se myslelo. Ano, dva ventilátory proti sobě jsou novinkou, ale vlastní pasiv a krátké PCB je něco, co úspěšně použilo už Sapphire u svých Radeon VEGA grafik a pár dalších výrobců. Ten druhý ventilátor na zadní straně je ale novinka.

Určitě ale odpovídá tomu, že karty mají velmi vysoké 320W a 350W TBW už jako reference. Něco me říká, že OC nereference budou mít klidně o 100W víc a tahle generace grafik  NVIDIA nás tedy slušně zahřeje …

 

AUTOR: Jan "DD" Stach
Radši dělám věci pomaleji a pořádně, než rychle a špatně.

Starší články


Komentáře
Přidat Nový
TdiRs [Zobrazit profil] [Poslat zprávu] 2020-06-14 15:27:04
avatar
A to sem si myslel že moje Vega64 je tasemnice :-D
Dexter1 [Zobrazit profil] [Poslat zprávu] 2020-06-14 18:08:00
avatar
No mám v plánu Moru to by mohlo ty čtyři rtx 3080 tepelně zkrotit
Yamaha [Zobrazit profil] [Poslat zprávu] 2020-06-14 18:20:00

Pred par dny jsem prodal svou 2080TI.. tak at se pohnou.Love mame ale karty nikde
snajprik [Zobrazit profil] [Poslat zprávu] 2020-06-14 20:47:10

Ja to vezmem trošku s inej strany, samo o sebe Nvidia by nešla do tak vysokej spotreby keby nemusela. Vizera to tak, že Nvidia vie niečo o novych AMD GPU čo mi nevieme, a aby bola konkurencie schopna, tak to ženie pekne daleko nad 250W. Asi niečo na tom bude že nove AMD GPU budu mať vykon ako 2x 5700.
martin.666 [Zobrazit profil] [Poslat zprávu] 2020-06-14 21:12:51
avatar
ono to big NAVI s 2x větším čipem a více paměťovými moduly + na vyšší frekvenci než je na 5700XT ( 225W) také nebude zrovna úsporná karta, pokud nebude mít reálně přes 300W tak to bude celkem zázrak, s tím bych řekl že v Nvidii počítají a tak se nebojí jít s TDP na podobně vysoký level
blackgray [Zobrazit profil] [Poslat zprávu] 2020-06-14 20:50:32
avatar
Hlavně že AMD CPU a GPU žerou a topí jako prase. A jak jim to dávali všichni sežrat. AMD se to aspoň snažilo vyvážit nízkou cenou.
Ryzeny už dokázaly situaci obrátit - teď jsou to Intel CPU (hlavně ty hodně vícejádrové), kdo topí a žerou jak prase a nově to bude i nVidia, kdo už nebude mít nízké TDP. Pamatujete si na řadu GTX 900? Jak to bylo krásné, když mainstreamová GTX 960 brala 120W? Kolikpak bude teď brát RTX 3060? 275W? 280W? A čím se to všechno bude chladit?
martin.666 [Zobrazit profil] [Poslat zprávu] 2020-06-14 21:35:34
avatar
Citace:
AMD se to aspoň snažilo vyvážit nízkou cenou.
něco mi říká že ty nové Nvidia karty budou mít slušný poměr ceny a výkonu, protože nejen že budou mít konkurenci v podobě nových RDNA 2 grafik ale také v podobě nových herních konzolí a tedy Nvidia určitě bude chtít nacenit ty karty jako právě RTX 3060 tak aby jim dali potencionální zákazníci přednost před koupí PS5 nebo Xbox SX, nejen před AMD RDNA 2 kartou
MACHINA [Zobrazit profil] [Poslat zprávu] 2020-06-14 23:16:26
avatar
Ideál parťák k Intel CPU (a vlastní elektrárně)
Varin [Zobrazit profil] [Poslat zprávu] 2020-06-14 23:54:45

Pokud vím, tak nvidia má efektivní GPU, takže ta spotřeba bude adekvátní k výkonu.
Cemada [Zobrazit profil] [Poslat zprávu] 2020-06-15 07:52:35
avatar
Přesně tak. Pokud se výkon procentuelně zvýší o to co spotřeba, tak je to v pořádku.
Chcete velký výkon? No za 120W to v současnosti nebude, že jo
Jsem docela zvědavý, jak se ty nové GPU povedou jak NV tak AMD.
MACHINA [Zobrazit profil] [Poslat zprávu] 2020-06-15 10:56:48
avatar
Tak za prvé RTX 2080Ti efektivní nebyl. Stačí si srovnat poměr velikosti/výkonu/spotřeby menších čipů. Nicméně argument chápu, na druhou stranu je potřeba si uvědomit, kde je rozumná hranice. Nejsem ekoterorista, ale pálit na hraní kilowatt mě přijde jako zhovadilost. Někomu možná ne. Je to jen můj osobní názor, ale před pár lety jsem si představoval že nové výrobní procesy na menších nanonmetrech povedou kromě vyššího výkonu k menší spotřebě/pořizovací ceně a integraci (APU). Dávám + za nové konzole, protože na to, že jsou spotřebním zbožím nabízejí dosud nevídaný výkon a kráčejí v tomto duchu.

No a 350W GPU spolu s 250+W CPU je přesný opak. Mezigeneračně se nám zvyšuje jak absolutní spotřeba, tak i cena. A o té efektivitě bych měl pochybnosti též. Jestliže nový Xbox má žrát kolem 250W, tak hiend PC nové generace (Intel+Nv) se spotřebou kolem 750W by mělo podávat 3x vyšší fps aby dosahovalo alespoň stejné efektivity ve hrách jako ten Xbox. Vzhledem k tomu že GPU Xboxu není žádné ořezávátko a výkonem je nad současným RTX2080, tak si odpovězte sám zdali věříte v zázrak v podobě trojnásobných fps a tedy i vyšší herní efektivitu takového absurdního PC stroje
Dexter1 [Zobrazit profil] [Poslat zprávu] - Zase vedle jak ta jedle. 2020-06-15 11:09:39
avatar
Jestli jsis myslel že vymyšlení nečeho co je úspornější vede k nižší spotřebě tak jsi blázen. Ono to totiž vždy vede naopak k celkově větší spotřebě nadužíváním dané věci/technologie.
Něco pro doplnění tvého vzdělání.
Odkaz

2080ti se nepoužívá jen na hraní i přesto, že to je její primární učel, tak v neherním nasazení je její efektivita naopak velice dobrá, kdy podá až 2,5x výkon 1080ti.
martin.666 [Zobrazit profil] [Poslat zprávu] 2020-06-15 11:58:46
avatar
Z pohledu poměru spotřeby a výkonu je 2080Ti ( 250 W) na tom lépe než např. taková 5700xt ( 225 W) ale jinak je na 2080ti 3x větší čip a výkonnější je jen o nějakých 30%? takže z tohoto pohledu nevypadá 2080ti moc efektivně.

Jinak tomu tak bylo snad vždy v době vydání nových konzol že byli 2-3x efektivnější pokud jde spotřebu/ výkon vs high-end PC a to bez ohledu na to jestli v tom PC byl Intel + Nvidia nebo AMD + ATI/AMD, jinak tomu nebude ani letos, tedy i sestavy s AMD, pokud někdo bude mít např. 3970x s aktivním PBO + OC ( 300 W +) + “big” NAVI s OC ( 350 W +)
Cemada [Zobrazit profil] [Poslat zprávu] 2020-06-15 12:11:02
avatar
Ten výkon u konzolí bude asi daný tím, že je to prostě jednotná HW a SW sestava a odladit na to hru je podstatně jednodušší než na PC kde 100 sestav = 100 různých HW a SW konfigurací. Navíc třebas grafika tam byla často slušně okleštěná.
U nových konzolí to bude zajímavé, protože to jsou vlastně plnohodnotná PCčka.
Cemada [Zobrazit profil] [Poslat zprávu] 2020-06-15 12:06:34
avatar
Tak všichni bychom byli rádi za super mega výkon a prťavou spotřebu, ale to je nereálné.
Ano, pálit obrovské množství energie jen na hraní her je zhovadilost, ale na světě se najde dost lidí, kterým je to asi u zadku a budou chtít pořádně nakrmit své 4K. Třeba DD

Co se týče toho výrobního procesu. O nižší ceně se mluvilo kdysi a snad to tak i bylo, ale dávno to vzalo za své díky vysokým nákladům na zavedení výrobního procesu a velkým čipům. Jak s tím ale dobře naložit ukazuje AMD s Ryzeny, tedy malé čipy a pěkná výtěžnost. Velký čip bude vždy dost drahý. Otázkou je, ejstli něco takového půjde udělat u grafik.
S novými výr.procesy spotřeba klesá a výkon roste. Ale po výkonu je takový hlad, že se často napálí ten výkon kam to jde na úkor té spotřeby. Nenaděláš nic. Chceš výkon, musíš jej něčím nakrmit.

Naštěstí nás nikdo nenutí to kupovat.
Nechceš aby PC žralo kilowattu? Není problém, slušných komponent s fajnovou spotřebou je na trhu dost
johny.mnemonic [Zobrazit profil] [Poslat zprávu] 2020-06-16 22:45:25
avatar
Tak ono udělat multi GPU čip už jde docela dlouho.
Bohužel jak AMD, tak NV narazili na to, že stejně jako u CPU je to závislé na podpoře aplikací.
Ale zatímco u CPU se i bez podpory aplikací více jader vyplatí, páč můžeš na každém pustit jinou jednovláknovou aplikaci, tak u GPU moc využití pro to abys na každé GPU pustil jinou aplikaci není.

Vzpomeň si na první dvoujádrové CPU. V podstatě neexistovaly aplikace, které by je využily. Ale nebyl to až tak velký problém, protože na PC ti málo kdy běží jen jedna aplikace.

Ten kdo první uvede vícejádrové GPU bude mít ale problém s tím, že to málokde bude přidávat výkon navíc oproti klasickému jednojádru.
Jak DirectX 12, tak Vulcan podporují využití více GPU na renderování jedné scény, ale pokud vůbec existují hry, které to umí, tak je nejspíš spočítáš na prstech jedné ruky...
Yamaha [Zobrazit profil] [Poslat zprávu] 2020-06-15 09:12:58

Tak jestli TOP karta na opravdu kvalitni hrani ve 4K bez kompromisu bude potrebovat cca 350V...kolik bude brat karta na 8K 500V jako nic.Bych se nedivil kdyby v budoucnu byly TOP modely Automaticky s vodnim chlazenim.
renmou [Zobrazit profil] [Poslat zprávu] 2020-06-15 09:50:11

Se podívej, kolik žraly karty v minulosti a srovnej jejich výkon s dnešníma kartama... Taky bys tehdy napsal, že karta na 4k bude žrát 10kW?
Yamaha [Zobrazit profil] [Poslat zprávu] 2020-06-15 11:58:31

350V nebo 500V to uz je fuk.10KV je dost ubohej Žert.Tak kdyz se podivam kolik zerou Karty v poslednich letech..tak se to proste zveda.Neustale zlepseni v podobe zmensovani se deje...ale spotreba se tak nejak zveda.Kdyz GTX 1080 TI brala v plnne zatezi cca 200V+..RTX 2080TI 250V+..Tak RTX 3080TI bude nekde za 300V+...A to hovorim o karte ktera teprve bude idelni na 4K..No na 8K hrani si pockame.Kolik generaci?Urcite tak 2-3.Krivka jde nahoru..a kolik nam to teda bud brat? 500V+ Pri 8K v MAX nastaveni ta karta pujde urcite za 500V.A bude s vodnim chlazenim Zase to ale bude opravdu kus TOP Hardware.
renmou [Zobrazit profil] [Poslat zprávu] 2020-06-15 13:47:37

Narážím na to, že roste výkon při zachování spotřeby. Ano, jsou jisté výkyvy spotřeby, kdy některá karta žere víc. Ale když se podíváš do minulosti, kdy ty top modely měly taky velkou spotřebu, ale měli jen zlomek výkonu toho, co mají karty dnes při stejné spotřebě
Yamaha [Zobrazit profil] [Poslat zprávu] 2020-06-15 12:44:57

To jo..ono je ale jedno kdyz ti PC pri pri hrani bere cca 350V.Samozrejme pri praci bere vic..Kdyz se vejdes do tech 500V, tak si tam za cca 2-4KC za Hodinu.To je pakatel oproti tomu co za to dostanes
Phantomiux [Zobrazit profil] [Poslat zprávu] 2020-06-15 14:58:33

Len technická.

V [Volt] - jednotka elektrického napätia U
W [Watt] - jednotka výkonu (prípadne príkonu) P

Zjednodušene platí P = U*I, kde I = prúd.
Akulacz [Zobrazit profil] [Poslat zprávu] 2020-06-15 17:04:33

No aktuálně můžeme jít do těch 400V pak už to bude jen pro ty vlastníky elektráren
martin.666 [Zobrazit profil] [Poslat zprávu] 2020-06-15 12:20:14
avatar
Nepřeháněj 300W + měli už ty top karty před 8 lety minimálně jako např. HD 7970 v různých OC verzích a to je na dnešní AAA hry prakticky nepoužitelná karta i ve 1080p s jejím výkonem a 3GB ...
DejvCody [Zobrazit profil] [Poslat zprávu] 2020-06-16 06:44:05

Dřív sem měl GTX 480.... na tu dobu TOP karta, nic lepšího nebylo, a brala 300W což byl na tu dobu extrém ale nic nenormálního a v poměru k dnešní době kdy třeba rtx 3080ti bude brát 300W ale bude mít asi tak 1000x větší výkon mi nepřijde neadekvátní... neboj se že by šly ty karty přes 300w to si mslim že je takový pomyslný stop
and35rew [Zobrazit profil] [Poslat zprávu] 2020-06-15 17:08:40

Výkonnostních metrik je samozřejmě několik, ale myslím, že Nvidia musela zpozornět už při uvedení R5700XT. Protože AMD se podařilo výkonnostně téměř vyrovnat NVidii pokud bychom počítali výkon na jednotku plochy. Pokud vezmu NV 2070Super, která je dejme tomu o 10 % výkonnější, než 5700XT, ale zabírá 545 mm^2 12 nm procesu, kdežto R5700XT pouze 251 mm^2 7nm procesu, tak při dieshrinku NV2070Super na 7nm při 50 % redukci plochy vychází cca. 270mm^2 plocha. (Nevím space reduction mezi 12 nm a 7nm.. Nicméně odhaduji kolem 50 % dle tohoto článku: https://www.anandtech.com/show/12727/tsmc-details-5-nm-process-tech-aggressive-scaling-but-thin-power-and-performance-gains).

Tzn. bylo jasné, že AMD má velký potenciál škálovat výkon výrobou větších čipů. Nvidia proti tomu nemá kam jít, protože její nejvýkonnější čipy jsou velikostně na hranici výrobního procesu 2080TI má 754 m^2 a kolem 800mm^2 je maximální vyrobitelná velikost čipu.
Yamaha [Zobrazit profil] [Poslat zprávu] 2020-06-15 19:24:01

Zase tu 5700XT neprechval.Dorovnala cca GTX 1080TI.Po tolika letech.Dnes vrchol Herni Grafiky od AMD.Tu kartu bych si proste na hrani ve 4K nekoupil.Jako na 1440p to jako jooo...ale monitor 2560x1440 jsem uplne preskocil.Na hrani ve 4K bez kompromisu proste AMD nema..a vlastne dodnes nema.Bohužel OSTUDA.Takova Firma co mi sezrala milovanou ATI a furt abych kupoval Nvidia.Ted jsem prodal RTXku(2080TI) a dam opet sanci AMD.Jsem ochotnej vysolit ty stovky dolaru..tak at se proberou a hrabnou si pro ně.Když to zase pohnoji tak at se jdou uz zahrabat.
and35rew [Zobrazit profil] [Poslat zprávu] 2020-06-16 09:56:19

Je to reakce na ten článek, ne chvála R5700XT. Nvidia těží z křemíku absolutní maximum. Jdou až na maximální možnosti litografie a tím pádem nemají téměř žádný prostor pro zvýšení výkonu na stávajícím výrobním procesu. A ze stejného důvodu nejdou jako první na nový výrobní proces, protože v prvotních fázích výroby je nízká výtěžnost a čím větší čip, tím se to samozřejmě ještě horší a jejich ceny by musely být astronomické (podobně jako v datacentru, kde si účtují třeba 10000 USD za kartu). No a AMD má na 7nm procesu stále možnost ztrojnásobit plochu čipu. Pokud bychom vzali lineární scale (což v praxi nefunguje, ale pro ilustraci), tak jsou teoreticky schopni vyrobit čip, který bude mít 3 násobek výkonu R5700XT (pokud by byl stejné velikosti jako 2080ti na 12nm procesu). Problém AMD je, že zaostávalo poměrně hodně za NVidii ve výkonu na watt. Tzn. potenciální 760 mm čip by měl 700w spotřeby, což je samozřejmě nesmysl. Nicméně AMD ohlásilo posun v efektivitě s RDNA2 o 50 procent a to způsobilo paniku v Nvidii, protože to přesně umožní AMD vytvořit větší čip tak, aby při zapnutí neshořel dům. Tzn. jestli má R5700XT 225w spotřeby, tak s 50 procent větší efektivitou je to 150w u RDNA2. Tzn. pokud zdvojnásobí velikost čipu, tak budou mít teoreticky 2x větší výkon, který bude uchladitelný a ještě nebudou zdaleka na maximu litografie. Osobně si myslím, že Nvidia bude s 3080ti napřed výkonnostně, ale již ne s takovou převahou..
Yamaha [Zobrazit profil] [Poslat zprávu] 2020-06-16 13:15:54

No..Internet momentale zije Radeonem 6900XT(XT Ze by nastupce 1800XT) s vykonem 22.5 TFlops..Za cenu 999$
Dexter1 [Zobrazit profil] [Poslat zprávu] 2020-06-16 13:37:46
avatar
Jasný FAKE.
Yamaha [Zobrazit profil] [Poslat zprávu] 2020-06-16 13:45:20

Klasika...ale pekne se to čte.
and35rew [Zobrazit profil] [Poslat zprávu] 2020-06-16 14:59:15

To lze těžko komentovat. Jediné, co přímo AMD sama oznámila, je, že se s big navi vrátí do high-endu a že RDNA2 bude mít o 50 procent vyšší efektivitu oproti RDNA1. Já jen dodávám na základě faktů, že AMD je schopno teoreticky na 7nm procesu zvětšit plochu čipu 3x oproti R5700xt, kdežto Nvidia je na 12 nm na limitu litografie a může škálovat pouze přechodem na 7nm, což jí umožní cca. dvojnásobný počet transistorů. Suma sumárum je jasné, že Nvidia už nebude mít takovou technologickou převahu,jako třeba na začátku loňského roku kdy její 12nm 2080ti bylo výkonnější a efektivnější, než 7nm Radeon 7. Tentokráte už to nebude tak, že by Nvidia byla výkonnější a ještě měla "nižší proces k dobru". Z výše uvedeného též odhaduji, že Nvidii klesnou marže, protože již nebude vyrábět levným 12nm procesem a AMD ji bude držet svými cenami více na uzdě. (Pokud nedojde k nějaké neformální zákulisní dohodě a ceny nenapálí obě společnosti zhruba stejně výš vzhledem ke stávajícím produktům. )
Pouze registrovaní uživatelé mohou přidat komentář!