NVIDIA nemá nic a tak alespoň zásobuje všechny PR sliby a líbivými prezentacemi, kde vypadá FERMI opravdu dobře.
Dnes skončilo další NDA na architekturu FERMI čipů, a na svět se tak oficiálně dostala ta prezentace, kterou NVIDIA předváděla novinářům na CES. O tom jsme vás informovali a zároveň jsme vám říkali, že mnozí novináři odcházeli z prezentace s dalším kroucením hlavy a dalším utvrzením v tom, že nejaktivnější ve vydávání nových grafik je PR sekce NVIDIA. Mimo toho, že PR NVIDIA stihlo za poslední 3 roky přejmenovat jednu grafiku s parametrově a výkonově stejným čipem asi 10x, zvládlo už 2x vydat papírově FERMI, udělat z pár profesionálních novinářů nenapravitelné lháře naivky a možná něco horšího (ačkoliv, když někdo opakovaně uvěří prokazatelné cílené lži a nepoučí se, co to z něho dělá ….?).
Protože finální verze grafik s čipy FERMI stále NEEXISTUJÍ a staré grafiky NVIDIA už dnes koupí jen hodně neinformovaný člověk (nebo blázen) a vyšší modely než GTS 240, (možná ani GTS 250) se vlastně ani nevyrábějí, nemá NVIDIA co představovat a ukazovat. Ale jak už jsme se několikrát přesvědčili, to společnosti NV nevadí a tak nás zasypala hromadou líbivých slidů, které představují architekturu herních grafik postavených na čipech FERMI. V záplavě známých architektonických informací z první podobné oficiálně prezentace v loňském roce, se přeci jen dalo najít pár nových informací. Přesto to nejdůležitější a to co nás zajímá, stále neznáme. Někteří novináři byly už podruhé schopni na základě neověřitelných PR slidů sestavit desítky stránek dlouhé články, ze kterých se nic vlastně nedozvíte, a slouží jen jako (snad) neplacená inzerce, ukazující jak by byla jedna firma ráda, aby svět grafik vypadal. Bohužel dáte-li to do kontextu s realitou, zjistíte, že mnohé z těch informací jsou a zůstanou jen u přání a v čistě teoretické rovině.
Z prezentace tedy vybereme to nejdůležitější a přidáme pár informací, které se ven dostaly neoficiální cestou a ukazují stávající realitu.
NVIDIA GF100 FERMI
Než se podíváme na „novinky“ podívejme se na to, co už o FERMI víme:
1, FERMI je nová architektura
Co je snad každému jasné, a za co jsme všichni vděční, že GF100 není jen zvětšené a přejmenované GT200. FERMI GF100 je skutečně nová architektura, nutno ovšem říci, že už bylo na čase, protože G80 alias G92 alias GT200 (2xG92) je tu s námi od listopadu 2006 a to bude prosím pěkně v době příchodu GF100 na trh už neuvěřitelných 3,5 roku! Abychom byli fér v podstatě jen o málo kratší dobu je tu i ATI R600, které ovšem prodělávalo výraznější vývoj (byl nutný) a vzniklo RV670 následně výrazněji modifikované RV770(790) a dnes už tu je RV870, které je všeho všudy ale opravdu dokonale vyladěné, inovované o DX11 vylepšené zdvojené RV790. Novou architekturu ATI chystá až s 32nm generací grafik HD 6000. To je pro NVIDIA zajímavá situace a na jednu stranu výzva na druhou stranu nevýhoda. FERMI bude základem pro následující alespoň 2 generace grafik G300/400 možná i G500. Musí se ale poprat s vynikajícími HD 5000 modely a musí obstát i před chystanou zcela novou generací HD 6000. NVIDIA tak už rok před vydáním HD 6000 odhaluje všechny své trumfy a to je pro NV dost problém.
2, GF100 je obří monolitický čip, který má v nejvyšší specifikaci lehce přes 3 miliardy tranzistorů. Ze strany ATI nemá konkurenci, protože AMD-ATI už velké monolitické čipy nestaví. Naopak razí strategii, že za cenu jednoho velkého dá dva menší. Jinými slovy GF100 a RV870 nejsou přímí konkurenti. Je to 3 vs 2 miliardy tranzistorů a GF100 je o 1/3 větší než RV870. Oba jsou přitom vyráběny úplně stejnou technologií a dokonce i stejnou společností (TSMC).
Mnozí srovnávají GF100 na GTX 380 s modelem ATI HD 5870, ale to opravdu nejsou přímí konkurenti, pokud by byly, byla by GTX 380 propadák. Srovnávat parametry obou grafik lze velmi snadno:
GTX 380 vs HD 5870
40nm vs 40nm
3,08 miliardy tranzistorů vs 2,1 miliardy tranzistorů
384bit vs 256 bit
A tak dále … GTX 380 je jako high end soupeřem pro high end ATI tvořený modely HD 5900 s dvojicí čipů RV870. HD 5870 je jasný mainstream. Nicméně už jsme zažili, že mainstream solidně proháněl high end (HD 4800 vs GTX 260/280) a pokud by se situace opakovala i tentokrát, byl by to opravdu hodně velký neúspěch společnosti NVIDIA. Bohužel NVIDIA už udělala první velkou chybu – přecenila sama sebe a podcenila problémy 40nm výroby obřího čipu. O problémech se jakoby nemluví, reálně však ovlivní opravdu hodně. Ale o tom až později …
3, FERMI je výpočetní GPU. Architektura je hodně přizpůsobena výpočetnímu nasazení v HPC segmentu, od toho se odvíjí některé věci. Samozřejmě ale GF100 je primárně GPU, jak jej známe, protože NVIDIA ani nic jiného vlastně neumí, i když by ráda.
A teď už pojďme na ty nové informace …
GF100 grafiky z pohledu herního
První oficiálně PR představení v loňském roce ukázalo oficiálně architekturu FERMI zaměřenou na výpočty. Zklamání hráčů bylo veliké. NVIDIA nyní servíruje v podstatě to samé představení, jen z pohledu herních grafik. Pokud ale čekáte nějaké konkrétní reálné hodnoty a data k posouzení při nákupu grafik, budete opět zklamaní …
To nejdůležitější stále nevíme a to ostatní předkládá NVIDIA v teoretických úvahách, zabalené do líbivých čísel a marketingových chvástání. Alespoň trochu nás potěšil fakt, že NVIDIA bere vážně DirectX11. Pochopila, že zastávat názor, že když ho nemám, je DX11 k ničemu, který do teď zastávala, jí k ničemu nepomůže. GT200 grafiky jsou mrtvé, a nástup a přínos DX11 očividný a nezpochybnitelný. Za PR pózu o zbytečném DX11 (jen proto, že ho NV nemá a konkurence ano) sklízela NVIDIA posměch většiny hráčů i herních vývojářů. DX11 je tedy pro NV důležité a lehce o něm mluví, ačkoliv nemá na trhu jedinou DX11 grafiku a ještě pár týdnů (měsíců) mít nebude.
Od nové architektury a změn proti GT200 si NVIDIA slibuje hodně. Nás asi hodně zajímá, jak to bude s Tessellací. Té NVIDIA věnuje hodně slidů, bohužel tato část vzbudila ony výbuchy dušeného smíchu na CES od některých zúčastněných novinářů, kteří vědí, jak se věci mají – NVIDIA si maluje situaci až příliš na růžovo. Najdeme zde totiž i porovnání s HD 5870. Samozřejmě jsou to grafy NV a tak si GTX 380 nemůže vést špatně a údajně dosahuje o 60% vyššího výkonu v tessellací. Zde se NVIDIA chlubí, že má HW tesselaci pomocí 16 "Tesselátorů". V RV8xx je jen jeden. Jenže má to háček.
Samotná tesselace je poměrně nenáročný proces, se kterým se dá hodně manipulovat. To co dělá tessellaci náročnou jsou přídavný výpočty mnoha stínů a nových hran ve výrazně detailnějším modelu. NVIDIA a ATI se v přístupu k tessellaci liší a NVIDIA sice mluví o tom, že má 16 jednotek a ATI jen jednu, ale ve skutečnosti jsou tak rozdílné, že je nelze srovnávat, natož zaměňovat, takže to co zvládne ATI jednou jednotkou, na to musí mít NVIDIA 8-16 vyčleněných jednotek (fakticky to nejsou tesselátory), v některých ohledech může mít NVIDIA skutečně až 60% výkonový náskok (HD 5870 vs GTX 380), jenže pokud výrobci zvolí jiný způsob tvorby a přístupu k tessellaci a složitosti modelů a scény, bude náskok GTX 380 v tessellaci výrazně menší, třeba jen 20% (nebo taky žádný)a to je samozřejmě proti HD 5870 s jediným skutečným "tesselátorem" málo - jinými slovy Tesselátor u ATI je účinější, a omezení při tessellaci jde na vrub menšímu počtu výpočetních jednotek - ROP atd. FERMI má také o jednu miliardy tranzistorů více než RV870 a to se musí někde projevit.
Kromě toho rozdíly jsou i v jiných věcech a až reálné hry ukáží, koho přístup je efektivnější. Jinými slovy, na papíře to vypadá dobře, ale realita bude rozhodně horší a všichni to vědí. Nás těší hlavně ten fakt, že NVIDIA DX11 má včetně tessellace a tak vývojáři her nám snad budou tyhle novinky využívat a to jak u ATI podporovaných her, tak u NV podporovaných her a samozřejmě tessellace v DX11 je standardizovaná.
Pak NVIDIA zapracovala na AA. Asi víte, že 8AA dělalo GT200 velké problémy a i když měly karty dost výkonu, konkurence byla v tomto režimu prostě lepší. S tím totiž souvisela i podpora DX10.1, kterou HD 4000 grafiky ATI mají a NVIDIA GT200 ne. NVIDIA ale na AA zapracovala o nová architektura FERMI samozřejmě u vylepšené vlastnosti AA podporuje, protože samozřejmě automaticky s DX11 podporuje i vylepšení, která do této oblasti přinesl DX10.1.
(16AA GT200)
K tomu ale musíme připočítat i vylepšení samotné architektury. Zkrátka GF100 by neměli mít podobně jako HD 4000/5000 ATI grafiky velké problémy s výkonovými propady mezi 4-8AA režimem. Zde se NVIDIA chlubí až 250% zlepšením proti GT200, ale protože GT200 byly při 8AA opravdu neschopné, není to kombinací nové architektury a nutných optimalizací pro DX10.1 a DX11 žádný zázrak takového zlepšení dosáhnout.
(32AA GF100)
Samozřejmě spolu s tím NVIDIA vylepšila i vlastní AA režim, což je odpověď na konkurenční vylepšení AA u HD 5000, které opravdu nemá v kvalitě obrazu dnes konkurenci. NVIDIA nám servíruje několik detailních AA snímků, jak si s ním GT200/GT300 poradí. Zlepšení je patrné, ale obávám se, že při normálním zobrazení bude nepostřehnutelné. Sluší se zmínit o tom, že FERMI bude mít podporu 32CSAA režimu. Opět je to odpověď na konkurenční ATI 24/48AA a z praxe víme, že to sice vypadá dobře na papíře, ale žádná hra to nepoužívá a vynucení přes ovladače nám z 8AA kvalitu obrazu příliš viditelně nezlepší a proto se v praxi vyšší AA, i když jsou už nějaký ten rok dostupné, nepoužívá.
(PhysX DEMO)
Samozřejmě GF100 i na herních grafikách využije své výpočetní zaměření. Takže se můžeme těšit na GPU PhysX, které stále NVIDIA z konkurenčních důvodů nepředělá pod OpenCL, které jinak bude FERMI samozřejmě podporovat. Podpora DirectCompute11 je také jasnou záležitostí.
NVIDIA se chlubí i svým pokrokem na poli RayTracingu, ačkoliv snímky vypadají parádně, realita je taková, že do RayTracing her máme opravdu hodně daleko a i když je v tomto ohledu výkonově FERMi výrazně dál než GT200 stále je hranice FPS při RayTracing scénách daleko za tím, kolik potřebujeme k plynulé hratelnosti, takže RayTracing i u FERMI zůstane stále jen v rovině teoretického možného využití v budoucnu a FERMI je další mezistupněm k vývoji budoucích generací GPU, která si s RayTracingem použitelně poradí.
(RayTracing GF100 vs GT200)
Co z představení FERMI GF100 plyne?
Hodnocení GF100 před vydáním …
Bohužel, opět je to všechno jen snůška líbivých PR materiálů, které si opravdu nelze reálně ověřit, takže nám v podstatě NVIDIA může nakecat cokoliv a pak se když tak vymluvit, že se to úplně nepovedlo a na to jsme prostě zvyklí. Důležitý je důraz na srovnání a udávání výkonu. Když se mluví ve smyslu, že nabídne AŽ o tolik a tolik výkonu víc, a ve srovnání s předchozí generací je ta nová o tolik a tolik lepší, vždy buďte na pozoru.
(Tesselace na GF100)
Realita totiž bude zcela určitě a na beton výrazně horší. Ty samé řeči se vedly i před vydáním minulých generací a hodně podobné sliby byly slyšet i při vydání GT200 a nakonec NVIDIA přiznává v materiálech FERMI, že GT200 vlastně tohle zdaleka tak dobře neumělo a tak dále. Srovnáte-li si prezentace a sliby u architektury GT200 s FERMI, zjistíte, že mají hodně společného a pokud i stejně dopadnou, jako že bychom se divili, kdyby ne, tak rozhodně uberte svá očekávání a připravte se na to, že až přijde nová řada střídající ještě nevydané GF300 grafiky, bude NVIDIA vydávat srovnávací prezentace a přiznávat, že FERMI vlastně tohle neumělo, a v tomhle bylo výrazně horší než se uvádělo a tak dále (samozřejmě FERMI2 bude opět ve všem lepší a tak dále…). Zkrátka, tyhle prezentace jsou opravdu jen marketingovými prezentacemi, jak by to v nejlepším případě mohlo vypadat a to v případě, že by všechen software dělala NVIDIA sama a konkurence neexistovala. Realita bude výrazně odlišná a samozřejmě horší a k FERMI tvrdší.
Říkáte, že prezentace architektury herních grafik vlastně nic nového neřekla? Tedy s výjimkou toho, že FERMI GTX 300 bude výkonnější, lepší a hezčí než GT200. No máte pravdu, přesto něco málo. Jistě jste slyšeli o ATI Eyefinity, kdy grafiky HD 5000 všechny umí obsloužit minimálně 3 monitory, některé edice i 6! NVIDIA musí nabídnout samozřejmě něco podobného, ale nenabídne.
(NV 3D "Eyefinity")
Na jednu FERMI grafiky GF300 nenapojíte 3 monitory. Výjimkou by mohla být duální FERMI, která vlastně bude SLI. Teď si ale říkáte, že NVIDIA přeci ukazovala 3D Surround Vision – 3x120Hz LCD a 3D na tom. Ano, tohle je ona alternativa k Eyefinity, ale na tři monitory budete potřebovat vždy 2 grafiky NVIDIA (nebo duální grafiku). V tomhle má ATI tedy zjevnou funkční výhodu a tři výstupy obslouží najednou i nejlevnější HD 5450 grafika ATI. A 3D? To ATI oficiálně už podporuje a softwarovou podporu nabídne již brzy v ovladačích. NVIDIA FERMI tedy proti HD 5000 nenabídne žádnou funkční výhodu z hlediska obsluhy více monitorů atd.
Co tedy víme o GTX 360/380?
Prezentace architektury opět neukázala nic, co nás nejvíce zajímá. Oficiálně vlastně stále nevíme to nejdůležitější:
Neznáme přesné rozměry čipu a od toho se odvíjející cenu a problémy
Neznáme parametry a frekvence - nejsou totiž ještě zcela finálně stanoveny
Neznáme TDP a spotřebu – pracuje se na finální revizi čipu
Neznáme ceny GTX 360/380 – budou dražší než HD 5800
Neznáme výkon – nebude to taková pecka, jak ukazují oficiální materiály, což ukazují ty neoficiální
Chtě nechtě, přes všechny prezentace o FERMI grafikách nevíme v podstatě nic z toho, co o grafikách chceme vědět. Obě prezentace s architekturou jsou jen líbivé nic neříkající neověřitelné vzdušné zámky malující PR materiály nevypovídající nic o skutečné realitě. Nevadí. CES prozradil mnohé a výrobci grafik také hodně vědí, takže si pojďme povědět něco o tom, jak se aktuálně věci kolem GTX 360/380 mají:
(uniknutý reálný benchmark GTX 380 512SP vs GTX 285 ve Far Cry 2 - 83 vs 50 FPS)
Finální verze grafik neexistují. Finální revize čipu bude až A3 a už se také spekuluje o tom, že by jí mohla být až A4, což by znamenalo další zdržení.
Prozatím platí březen, jako datum vydání GTX 380, kdy se několik tisíc grafik začne ve finální specifikaci montovat v druhé polovině února. V současnosti neexistuje finální verze grafik FERMI.
O čem NVIDIA nemluví, jsou obrovské problémy se 40nm výrobou a velikostí čipu. NVIDIA podcenila možná rizika výroby tak velkého čipu, podcenila konkurenční ATI HD 5000 a přecenila sama sebe. 500mm2 čip GF100 je prostě příliš velký, příliš hřeje a jeho výroba se nedaří. NVIDIA se dušuje, že nejvyšší verze bude mít 512SP, ale mnohem častěji se budeme setkávat se 448SP verzí, protože zkrátka výtěžnost je minimální. Problém je, že 512SP potřebuje NVIDIA k výkonovému náskoku, protože frekvenčně srovnat krok s RV870 prostě s čipem se 3 miliardami tranzistorů nemůže.
Na CES byly prezentovány předvýrobní verze grafik GTX 380 s čipy A2. Ty měly TDP 300W a v podstatě nabízely reálnou ukázkou výkonu. A můžete mě klidně brát za slovo, ale v GTX 380 nabídne v DX9/10 hrách zhruba jen o 20-30% více výkonu než HD 5870 a to přinejlepším. Někteří fandové NVIDIA sází na to, že předvýrobní vzorky neměli finální frekvence, realita je ale taková, že s frekvencemi se moc hýbat nebude, není pro to prostor a u A3 revize se NVIDIA snaží co nejvíce optimalizovat výrobu tak aby se katastrofální výtěžnost zlepšila a hlavně aby TDP grafiky GTX 380 nebylo při nižším výkonu než má HD 5970 stejných téměř 300W. Snaha je dostat ho alespoň na dohled k 250W.
FERMI má určitě potenciál, pokud NVIDIA přesvědčí herní vývojáře k tvorbě DX11 titulů tak, aby z toho FERMI architektura těžila (což je z důvodů tvorby pro většinu titulů hlavě pro konzole se starými generacemi GPU nebo novými stavěnými na ATI (nový Xbox i Wii), v podstatě vyloučeno), může být v extrémních případech GTX 380 o 60% rychlejší než HD 5870, ale to rozhodně nebude v letos vyvíjených hrách a i tak to není žádné terno. HD 5870 je mainstream a má o 1/3 horší parametry, výrazně nižší cenu i spotřebu než GTX 380 a není pro ni soupeřem i proto, že GTX 380 vyjde PŮL ROKU po vydání HD 5800! Navíc je tu HD 5970 a chystaná 5990, kterou GTX 380 nepřekoná a duální monstrum GTX 395 bude z hlediska spotřeby opravdu něco. Mainstream DX11 FERMI přijde až v druhé polovině roku 2010 a to už se bude mluvit o 32nm skutečně nové generaci HD 6000 grafik ATI. Jinými slovy těsné vítězství nové architektury NVIDIA FERMI, která by tu měla být následující 3 roky nad odcházející starou architekturou ATI, která u generace grafik HD 5000 dosáhla pravděpodobně svého absolutního vrcholu a vyladění, není žádné vítězství, ale varování. Co bude NVIDIA s FERMI dělat, až půl roku po vydání FERMI přijde opět malé a supervýkonné zcela nové 32nm ATI HD 6000, které bude minimálně 2x rychlejší a výkonnější než HD 5000 a samozřejmě technologicky mnohem dál?
Každopádně pořád mluvíme jen o GTX 380, což je grafika zajímající reálně maximálně 5% trhu. Pak je tu GTX 360, která se dostupná objeví tak někdy v polovině dubna, pokud nedojde k dalšímu zdržení a tak bude výkonově konkurovat HD 5870, ale cena i spotřeba bude vyšší. Ale to jsme pořád obsloužili jen 15% trhu a kde je konkurence k mainstreamovým DX11 grafikám HD 5850? Kde je konkurence k ATI HD 5700/5600? V nedohlednu a zatím nemáme na trhu ani ty GTX 380/360. Obě nás čekají až v březnu …do té doby se bude mlžit a placení redaktoři budou hypovat výkon a očekávání, aby se nakonec zjistilo, že GTX 380 512SP bude drahá, HD 5870 bude překonávat jen o 15-35% a na přímou konkurenci v podobě high endového HD 5970 mít nebude ... to je můj reálný odhad situace, co nás čeká ... zatím nic nenasvědčuje tomu, že by to mělo vypadat jinak ...
Situace se opakuje. Stejně nevýhodnou situaci řešilo AMD-ATI před uvedením Radeonu 2900. Plno slibů a výkon stejně konkurenční řadu od Nvidie G8800 ani nedotáhl. Takže jestli si můžu tipnout tak jediné v čem je tahle situace jiná jsou promakanější sliby zelené strany na R5000 řadu se to chytat nebude.
Osobně jsem zvědavej, na příští generaci ATI grafik. Úplně nová architektura... Neočekávám podobnej zázrak jako HD 4000 / 5000 ale doufám v "normální" výkon. Snad si ATI vzalo ponaučení z HD 2900.
Uz som tolko teorie a tolko dohadov precital, ze uz mam z toho plnu hlavu a stale nevieme toho dost. Uz aby tu bola, uz mam dost spekulacii, teorie... chcem fakty, chcem testy......
gtx380 vs hd5970
3mld tranzistoru vs 2x 2,1mld tranzistoru
490mm2 vs 2x330mm2
384bit vs 2x256bit
kdyz pouziju tvoji logiku tak mi gtx380 jako konkurence k hd5970 moc nepripada
a mame tu aspon test v unigine benchmarku, podle kteryho vypada ten vykon hodne dobre. ten benchmark sice nic nerekne o realnych hrach, ale je v nem hodne masivne vyuzivana tesselace a displacement mapping a v tomhle bude tedy fermi hodne silna. by me zajimali teda ty tvoje kvalitni zdroje, kdyz si tu donedavna tvrdil ze HW tesselator fermi mit nebude, bude tesselaci emulovat pres SP a bude v ni mit velky propady vykonu a oproti hd58xx bude ve velke nevyhode. ted ma HW tesselatoru rovnou 16, po jednom pro kazdy SM blok, takze pracuji narozdil od jednoho tesselatoru u ati pekne paralelne. jestli tedy hry zacnou masivne vyuzivat tesselaci, tak gtx380 muze byt lehce vykonejsi nez hd5970. uvidime ale jeste nejspise az po tom, jak to dopadne v novym avp.
Citace:
Pak je tu GTX 360, která se dostupná objeví tak někdy v polovině dubna, pokud nedojde k dalšímu zdržení a tak bude výkonově konkurovat HD 5870, ale cena i spotřeba bude vyšší.
uz bych byl byt tebou opatrnejsi s podobnymi tvrzenimi (o te cene a spotrebe). aby to nedopadlo jak s tou emulovanou tesselaci...
no ona reálně emulovaná je FERMI nemá tesselátory, ale má vyšleněné jednotky plnící funci tesselátorů - jinými slovy emuluje tesselátory ...
samotná tessellace je sranda, stačí na to opravdu ta jedna jednotka, problém jsou všechny dodatečné "běžné" výpočty, o které se už ale tesselátory nestarají ;)
nelze srovnávat tesselaci na ATI a NV, jedná se o rozdílné přístupy a rozdílné věci ... dvě cesty k témuž cíly ... FERMI má na to o miliardy tranzistorů více ...to je polovina toho, co má vůbec RV870 ;)
no ona reálně emulovaná je FERMI nemá tesselátory, ale má vyšleněné jednotky plnící funci tesselátorů - jinými slovy emuluje tesselátory ...
muzes rozvest jak to tedy ve skutecnosti je?ja vidim na tech obrazcich samostatne vyclenenou jednotku pro tesselaci. jestli je to tedy jedna jednotka, ktera ma jenom jednu funkci a to tesselaci, tak je to logicky tesselator
podle toho jak tesselace funguje, tak mi to jako takova sranda nepripada. jestli je ale tesselace takovou hrackou a mnohem narocnejsi sou dodatecne bezne vypocty, tak jaktoze ma fermi v unigine benchmarku, kde se prave tesselace tak masivne vyuziva, tak velkej vykon oproti hd5870?
Na tessellaci není náročné vytvoření toho drátového modelu - rozdělení na více trojůhleníčků je poměrně snadné a na to stačí jedna jednotka - navíc stupeň tesselace lze nastavit samozřejmě čím podrobnější model, tím větší by mohla být výhoda, že má fakticky NVIDIA vyčleněno na tesselalci více tranzistorů a síly GPU (dáno velikostí GPU a dostupnými prostředky). Jenže v rozletu tě zabrzdí to, že každý ten trojůhelník pak potřebuje další zpracování - násobně pak tedy roste náročnost na vyhlezní každé nové hry, zpracování stínů atd. Jinými slovy Musíš najít ten poměr tessellace k tomu, aby to ty grafiky zvládly vykreslit .... čím podrobnější model tím více hran a následných operací ....
a to je kámen úrazu poskytne o 1/3 větší Fermi odpovídající výkon tedy o 33% vyšší než RV870? Navíc pokud vezmem do úvahy jednojádrové grafiky tak samotná jádra jsou 1/3 rodílu a ostatní parametry jako sběrnice a množství paměti to samé.
Ten výkon v tom benchmarku neber vážně v tom grafu, na finální verzi GTX 380 bude rozdíl menší ...
to nikdo netvrdí že je špatné ... je to ale prostě jiná cesta a nelze to srovnávat tak jak to někteří dělají. je to také o tom, kolik prostředků můžeš na to a to v čipu věnovat, že u GF100 je toho více je dáno z o 1/3 větším množstvím tranzitorů, které se tam asi jen tak nepoflakují ... záležet ale stejně bude na programátorech , jak to budou používat a protože většina modelů grafik (určitě mainstream FERMI) bude mít méně síly na tesselaci a přidružené věci a trh je zaměřen na konzole a mobilní PC, nelze očekávat, že to budou s tessellací nějak přehánět. Bohužel hry už nejsou stavěny tak, aby je zvládly s obtížemi jen pár nejdražších grafik a i Crysis2 je multiplatformní .... zkrátáka náročnsot her výrazně neporoste a to nahrává menším ATI jádrům ... ae to nepřekvapuje GF100 je HPC GPU čip ...
a to je kámen úrazu poskytne o 1/3 větší Fermi odpovídající výkon tedy o 33% vyšší než RV870?
Da sa to vobec takto brat? To by mozno islo keby sa porovnavali rovnake architektury, ktore by svoje tranzistory vyuzivali rovnakym sposobom. Lenze pristupy ATi a NV su natolko rozdielne, ze sa neda zrovnavat ich vykon na zaklade pomeru medzi velkostami ich cipov. Ved architektura Fermi ukazuje ze toho dost prekopali. Teda podla mna sa neda povedat ze tento cip je o tretinu vacsi a teda musi priniest 33% narast vykonu inak je to prepadak... A to nie je moje psychicke vyrovnavanie sa nad moznym mensim vykonom Fermi. Mudrejsi budeme po testoch.
PS: Inak DD podla mna pises stale zbytocne utocne ked sa jedna o NVIDIu. Neviem preco vykazujes k nej taku zast. Je to naozaj iba kvoli tomu, ze sa ti nepaci jej marketing?
Tak u mna akurat vyvola usmev na tvari rovnako ako ked som videl tie opice ako vymienaju radeony. Ale niajk ma to neirituje. To by som musel nadavat vzdy ked pozeram reklamu v TV. Taketo nieco proste neberiem osobne.
lenze to je reklama...to co robi nvidia to su klamstva, bludy a kraviny.....mna na nvidii iritovalo to ich preznacovanie a pokial si u mna povest nevylepsia tak smola
Netvdrim ze NVIDIA kona spravne ale beries to prisli osobne. Rovnako ako vela ludi z tohto fora. Az mam niekedy pocit ze to tak niektori chcu brat aby si ospravedlnili preco je firma AMD/ATI lepsia. Ale to je iba moj dojem.
ja som mal na vyber 8800GT a 4830 ktora bola s lepsim chladenim a o 400SK lacnejsia...takze grafiku som nevyberal podla toho ci bola ATI alebo Nvidia....
Taky by mě zajímalo, jak je to s tou architekturou HD6000, zatím jen slyším, že bude bombastická a možná strčí FERMI"3" do kapsy i s vypnutým jádrem :-) ale nic konkrétního, aby to opravdu nebyl porod...
A s NV si možná "DD" dělá moc starosti a dlouhé články. Stačilo by napsat nadpis FERMI s článkém "pořád to stejný" :-))
O HD 6000 nevíme zhola nic, jen že bude minimálně 32nm (to ATI potvrdilo) .... víme také, že ATI jí vydá nejpozději jako se HD 5000 objevilo po vydání HD 4000 tedy zhruba 14 měsíců, což by odpovídalo nástupu 32nm výroby tedy někdy v lednu.
Jsou dvě možnosti HD 6000 bude 32nm zdvojené RV870 tedy 3200SP a 4 miliardy tranzisotrů a bude to stále "R600" architektura .... ale větší pavděpodobnost má zcela nová architektura ... i když je otázka, co bude ATI měnit. DX11 tu s námi pobude a RV870 nemá výrazné nedostatky - lze uvažovat snad jen směrem FUSION, tedy přibližování CPU a GPU .... zrkátka o HD 6000 mnoho nevíme, ale určitě za pár měsíců přijde a bude mít výrazně vyšší výkon než HD 5000 a lze očekávat opět dvojnásobek ...
me to bude jen 32nm R600. HD5x00 je momentalne vykonove nad konkurenci a urcite se take AMD poucilo z problemu pri zavadeni nove vyrobni technologie. Problem pro ne bude az die-shrink GF100 na 32nm, kdy, troufam si rict, bude uz vetsina chyb odladena, stejne tak jako SW podpora.
Clanek uchazejici, ale opet nechapu to neustale shazovani te nove architektury. Prece nelze zatracovat neco jen proto, ze marketing mlzi (od toho take je) a autor jej proto nesnasi! Sorry, ale AMD od HD2x00 neprineslo zadnou novou revoluci a nikdo se o to neotira. Osobne jsem zvedavy, jak na tom prave AMD bude pri uvedeni kompletne nove architektury, take muze dopadnout jako pri uvedeni zminovaneho zabijaka konkurence HD2x00.
Podle me nejdriv ATI otestuje 32nm na teto generaci to bude zaklad. Kromě 90nm procesu ATI vzdycky testovala novej vyrobni proces na mainstream cipech. Takze az teprve otestujou vyrobni proces na soucasnejch kartach tak muzeme cekat ze se bude dit neco s novou generaci. Jde o to jak moc bude novejch cipu potreba, pokud nic ATI nebude nutit muze klidne vydat soucasnou generaci na 32nm (RV840 a RV870 sou navrzeny s ohledem na 32nm) s tim ze HD6xxx dorazi pozdeji. Pokud to nebude nova architektura s extra prevratnejma zmenama tak RV940 bych videl na RV870 na 32nm a RV970 ponese aspon 2400SPs Taky je tu moznost ze RV970 vyjde az na 28nm. Tak sem si trosku zaspekuloval
Pokud má ATI 2mld tranzistorů a NVIDIA 3mld tranzistorů, pak má o 1/2 více (tedy o 50%) ne o 1/3, to ATI má o 1/3 méně.
To jen tak na okraj:-)
Jinak jsem na Fermi zvědavý, ale bez finálních karet, specifikací a ovladačů to jsou pořád jen spekulace:-) Každopádně doufám, že TSMC ještě bude na 40nm pracovat, lepší výtěžnost se bude hodit všem a drahé nedostupné Fermi ceny Radeonů nesníží.
ono ako to vezmes, ked ma GF100 3mld tranzistorov, ATI ma o 33,3 percent menej, cize ma o 1/3 menej tranzistorov ako GF100, cize 2mld......, 2mld tranzistorov je 66,6 percent z 3mld tranzistorov.... a stale sa bavime o tom istom..., dolezite je co je zaklad, oboje je spravne...
To bylo jen na okraj...
Ale budiž, pokud vezmu, že 66% má ATi, pak nVidia má o 50% víc, tedy o 33%:-) Pořád je 100% o 1/2 víc než 67%. Základ je snad jasný, když říkám, že věc A má o X více/méně než věc B, že základem je věc B.
Prostě 3 není o 33% více než 2.
Stejně tak 100% není o 33% více než 67%, je to o 50% více....matematika je záhadná
A btw jsem psal, že 2mld je o 33% méně než 3mld, jenže opačně to prostě říct nejde.
Ten raytracing vyzera paradne, ked take hry raz prijdu tak zrejme sa budeme nad grafikou dnesnych Crysis alebo Far cry 2 len usmievat. Inac to by nebolo zle ak by mal autor pravdu a koncom roka by sme tu mali uz nove Ati dvakrat tak vykonnejsie ako hd5000.
nemyslím si že HD 6000 uvidíme dříve jak v lednu, ATI na 40nm už nic vydávat nechce ... architektura bude letos hotová, čekat ase bude na 32nm možná 28nm výrobu a ta bude aktuální nejdříve na přelomu roku
"může být v extrémních případech GTX 380 o 60% rychlejší než HD 5870, ale to rozhodně nebude v letos vyvíjených hrách a i tak to není žádné terno. HD 5870 je mainstream a má o 1/3 horší parametry, výrazně nižší cenu i spotřebu než GTX 380 a není pro ni soupeřem i proto, že GTX 380 vyjde PŮL ROKU po vydání HD 5800!" Po přečtení tohoto hledám odpověd na otázku: "pane Stach,co vám ta nvidie provedla,že do ní tak zoufale kopete?". Kritika je fajn,ale takhle nepůsobíte seriozně,ale jako čistý bulvár. Určitě máte větší znalosti než já,ale s takovým stylem psaní vám nevěřím už skoro nic.
Bulvár? kde? napsal jsem něco co není pravda? Odkdy je konstatování faktů a skutečnosti kopání navíc co je na tom zoufalého? já čekám na konkurenci k HD 5000 s ještě větším nadšením než vy ;) nebaví mě testovat jen ATI grafiky když to není s čím srovnat ...
Musím s tebou souhlasit... taky mi to bohužel připadá že DD Nvidii fakt těžce nemusí a taky podle toho ty články vypadají btw. fandím ATI ale byl by jsem fakt rád kdyby FERMI ATIně fakt drsně naložilo... to by mě pak zajímalo jak by vypadal ten článek o tom tady... to by DD nerozdýchal (nic ve zlém)
tak většina zahraničních šlánků píše podobně - na papíře vypadá FERMI dobře, mnozí přpomínají že podobné to bylo i s GT200 kde byli silácké řeči podobného rázu a šichni víme, jaká byla realita a když se nyní podíváme do materiálů FERMI najednou nacházíme u GT200 značné nedsotatky, které byli při uvedení GT200 líčeny jako výhody, které přinesou supervýkon proti konkurenci ....
až na výjímky, se jinak všichni skutečně profesionální novináři shodují na tom, že FERMI má velké problémy o kterých NV nemluví, výkonově to nebude pecka a když si to dáš do kontextu, že HD 5000 je vlastně poslední z generace "R600" a FERMi už je nová generace, co se musí utkat s HD 6000, anvíc když má FERMI zpoždění, což NV opět nerada připouští a první DX11 FERMi vyjde neuvěřitelného půl roku po HD 5800 tak prostě ti to nemůže vyjít jinak ...
Některé weby prostě kontext schválně zamlčují ... já fakt nevím proč, já čekám na konkurenční grafiky jako na smilování - je nuda pstá furt o ATI, navíc když v testech už není skoro ani o čem a jen se opakujete, není srovnání, není konkurence a není se o čem bavit. Sliby NV kolem FERMI dosáhli skutečně lhaní a to že tomu neustále pár lidí věří a ochotně lžou lidem dál mě nepřestává udivovat ... nemůžu zapomenout na ty zaručené informace o tom, že recenzi budeme mít v listopadu, pak zaručené info o tom že do konce ledna a tak dále ....
Nevím, proč se tu pořád poměřuje velikost čipů. Koho zajímá jak je pod chladičem velký čip? Důležité je jak si karty budou stát proti sobě cenově. Jestli NV dá 380 za cenu podobnou 5870 což při dnešních vysokých cenách za ATI karty může být klidně možné .. tak nebude co řešit.
o tom ze menej zrali neviem ale menej topili preto, lebo na Geforcach bol lepsi chladic...keby si porovnal teploty s rovnakym chladicom tak nvidia by mala vysie teploty ty umelec
jenže NVIDIA nasadí ceny vyšší, musí, GTX 300 jsou výrobně minimálně o 1/3 dražší ;) a pokud budou mít aspoń o těch 20% vyšší výkon tak ta cena prostě bude o 2000-3000 vyšší. Navíc pořád se bavíme jen o high endu pro 15% trhu ten s cenama maisntreamu nepohne ...
mluvíme o výrobních nákladech čistě na výrobní lince .... v tom případě se hodnota funkční čipu stanovuje následovně ...
Wafer - co by základní deska je pro všechny stejná, u 40nm stojí jedna deska stadnardních rozměrů 300mm asi 5000 dolarů. Na to následně "tiskneš" čipy. 100% výtěžnost by byla, kdyby všechny čipy byly funkční na 300mm vafer se logicky vejde více menších čipů než větších a tedy z jedné 5000 dolarové desky se vyrobí více 330mm2 čipů než 500mm2 čipů - i kdyby byly všechny funkční už nyní bude 500mm2 GF100 dražší než RV870 330mm2.
Cenu dále navyšuje fakt, že výtěžnost klesá s rostoucí plochou čipu a tedy počtem tranzitorů. Víme, že výtěžnost RV870 je minimálně 60% (plně funknčí RV870) ale použitelných je třeba 80% čipů (některé jako RV870LE) takže třeba vyrobíš 1000 čipů, ale jen 800 jich je použitelných, jenže ty musíš započíst cenu i tech, co se nepovedly.
U felkého GF100 je výtěžnost logicky nižší, dnes se mluví o 20% a tedy z 1000 možných je použitelných jen 200 čipů! Cena tedy roste ...
když tedy z 5000 dolarového waferu máš tedy 25 funkční GF100 čipů a ze stejného 5000 dolarového waferu máš 60 RV870, který čip bude výrobně levnější a který dražší?
Samozřejmě tohle jsou čistě výrobní náklady které můžeme srovnávat protože oba čipy vyrábí stejná společnost stejným způsobem a v podstatě na stejných linkách. Samozřejmě do nákladů ale ještě musíš započíst náklady na vývoj a tak ... zde můžeme směle říci, že vývojové náklady budou u GF100 vyšší než u RV870 ... přeci jen GF100 je nová generace, RV870 je v podstatě dieshink ...
ještě tam přidej samotné PCB karty, 384bit sběrnice je oproti 256bit cenově náročnější na výrobu PCB proč asi ATI od 512bit a gddr3 (hd2900) utekla zpět k 256bit a (dnes již) gddr5? :-D
Nesmysl. Vůbec nic o nákladech nevíš. Nevíš kolik potřebovali na vývoj, neznáš běžné provozní náklady ani neznáš ceny za jaké NV čipy u TSMC vyrábí.
Přesně stejné to bylo i u generace 260/280 a jak panečku mohla NV jít s cenama dolů a ještě vydělala víc než ATI.
Díky většímu objemu zakázek a lepšímu hospodaření může mít klidně NV výrobní cenu stejnou jako ATI i při větší ploše čipu. Ale to jsou jenom spekulace.
jasně na stejné lince se stejným způsobem vyrobí 3 miliardy tranzistorů za stejnou cenu se stejnou výtěžností jako 2 miliardy .... je vidět, že tomu moc nerozumíš ...
Vydělala? Kde? NVIDIA byla nucena tak stlačit ceny, že se jí přestalo vyplácet vyrábět GTX 275 a GTX 285! Z které planety jsi spadl? Hlavní výdělek NV jsou malé čipy ;) prodala jich mnohem více než ATI NV vydělává nejvíce na 9400M ;)
Když si u firmy objednám 1 chleba, prodá mi ho za 30 Kč. Když si objednám 100 000 chlebů, tak mám jeden za 15 Kč.
Za kolik TSMC prodává ATI a za kolik NV nikdo z nás neví.
Záleží tu přeci na spoustě faktorech a celkovou cenu neurčuje jenom cena u TSMC, ale třeba náklady na vývoj, běžné provozní náklady firmy atd.
DD nic nevysvětlil. Asi pořád nechápe (stejně jako ty), že do ceny hotového výrobku je třeba započítat trochu víc než jen náklady v TSMC a ani mi neřekl, kde vzal to, že TSMC prodává za stejné ceny NVIDII i ATI.
Vůbec bych se nedivil, kdyby měla NVIDIA jako dlouhodobě perspektivnější zákazník lepší ceny. ATI stejně přejde ke GlobalF. tak já být na místě TSMC tak to ATI pořádně vosolím.
NVIDIE odebírá větší množství čipů a jistě má taky přiměřenou množstevní slevu.
Nedavno sa tu pisalo ze pomer liniek u TSMC je 70:30 v prospech NV. Tam by to podla teba vyzeralo na peknu mnozstevnu zlavu. Ale zasa nie vsetky linky vyrabaju Fermi... Do toho nikto z nas nevidi. Uvidime koncove ceny ked karty pridu a budeme mudrejsi.
Já osobně bych to viděl, že má NV tak o 10% lepší ceny u TSMC než ATI. A taky si myslím, že je NV firma, která si velmi striktně hlídá náklady. Nikdy nešla příliš do mínusu vyjma té poslední nešťastné události s mobilními grafikami. Takže dalších 5% bych viděl že je na tom líp s provozními náklady oproti ATI. AMD je v tomto ohledu v katastrofálním stavu to snad vidí každý kdo má alespoň jedno oko nebo ucho.
Na vývoji taky NV dokáže ušetřit, stačí se podívat jak dlouho dokáže konkurovat jen s jednou generací.
Takže suma sumárum budou náklady u NV na čip podobné co u ATI.
Toto všechno je vycucané s prstu u nohy což já narozdíl od DDho klidně přiznám.
no to pochybuji .... on nikdo nenutil dělat NV 500mm2 3 miliardový čip kažodpádně ochybuji že množstvení sleva nějak znatelně GF100 zlevní jak si tu někdo myslí NVIDIA zase nemá tolik těch kapacit je to dnes asi 60:40 ....
vsak jasny ze to tak neni..trosku nadsazky cert vi jaky oni maji smlouvy a verejne k nahlednuti urcite nejsou, takze muzeme jenom hadat. ale na podle me se vyrobni cena jednoho cipu pro nvidii ani pro ati opravdu nerovna jen cene wafferu/pocet funkcnich cipu. urcite se tam musi brat naky ohledy na vyteznost cipu, objem vyroby, delku smlouvy a tak dale...navic tohle je jenom vyroba cipu za kterou musi nvidia zaplatit. za kolik pak cip prodava vyrobcum karet je vec druha. tam se do ceny pripocitava dale cena vyvoje cipu, marketingu a dalsi a tyhle polozky uz nezname vubec...urcovat tedy vyrobni naklady jen podle vyroby cipu v tsmc mi prijde docela nesmyslne...
Přesně tak. V normálním obchodu s čímkoliv je běžné, že zákazník, který odebírá většinu výroby má mnohdy o desítky procent lepší cenu než všichni ostatní.
Ne nevím. A nevíte to ani VY. Ale taky tady neprezentuji jako fakt že NVIDIA má stejně drahé wafery jak ATI.
Ale narozdíl od Vás vím, jake slevy se dávají odběratelům výrobků. Kolik si tipnete, že dává takové IBM slevu na hw firmě, která jim udělá obrat nad 10 mega oproti firmě která třeba jen 5?
300mm wafer stojí opravdu přibližně 5000 dolarů pro všechny, navíc NV není o tolik významnějším zákazníkem jako NV aby konečné výrobní ceny byly nějak výrazně rozdílné, takže tady neoperujte zase vy s údajným faktem že NV má levnější výrobu .... NV a ATI jsou obratově i jinak srovnatelné firmy a nevidím důvdo, proč by měli mít jiné ceny - dokonce je možné že mají ceny úplně stejné NVIDIA možná i vyšší, zaplatila si a vyjednala více linek za což zaplatila více ;)
DD vyrobni cena waferu muze byt +- stejna ci spise podobna, ale prodejni cena se urcuje podle trhu, tj. podle toho kdo je kolik ochoten zaplatit a jake si casem vybuduje vztahy(pohyby cen) s vyrobcem waferu, takze z toho logicky vypliva ze takovato exkluzivni zbozi nemajici mnoho konkurence maji prodejni cenu rozdilnou pro kazdeho zakaznika....
Dam priklad: Mam vyrobek s naklady 3k, zkusim jit na trh s cenou 5k, prvni zakaznik to veme a ty budes hledat dal strop sveho vyrobku, druhemu zakazniku si reknes o 6k a take ho veme, dalsimu zkusis prodat za 7k a take ho veme a za 8k uz treba neprodas, ale mas pak spektrum zakazniku s ruznymi cenami a dokonce i treba s ruzne dlouho trvajicimi smlouvami a dalsimi odlisnymi parametry ve smluvach, to je proste zakladni mechanizmus trhu poptavky a nabidky kdy se uplatnuji efekty prvenstvi na trhu kdy jsou ze zacatku obrovske marze nez vznikne konkurence, dalsim silnym faktorem v posledni dobe jsou nepsane kartelove dohody a dalsi a dalsi prvky ovlivnujici cenotvorbu...
Ale jdi ty brepto, Ati by nyni obsadila 70% vyrobnich kapacit TSMC uplne s prehledem, takze zadne vyhody z toho plynout pro nV nemohou kdyz vlastne blokovanim kapacit vytvari TSMC provozni ztraty, tohle trzni chovani ti nejak v tom tvem teoretickem idealismu chybi...
A z tohoto pohledu dokud nebude GF100 odladeno do revize urcene pro masovou vyrobu tak bude TSMC kvuli firme nV ztratova takze asi tezko nV dostane lepsi ceny, bude rada za normalni ceny pomoci kterych kompenzuji zpetne TSMC zpusobene ztraty blokaci vyrobnich kapacit...
Ty vztahy jsou proste o moc slozitejsi nez si predstavujes
Ale jdi ty, pisu snad ze stavajici blokovane vyrobni kapacity nejsou vyuzivany? Ja se preci bavim o efektivite(marzi) a kdyz jedes na nizkou marzi a muzes jet na vyssi tak je to preci usly zisk to jest mnou zminovane provozni ztraty(i kdyz uznavam ze jsem to mel trochu vice rozvest, bylo to zavadejici nicmene ne nepochopitelne)...
PS: Na ty ukriceny fanouskovysky decka pod tebou ani reagovat nebudu(ty aspon vis o cem je rec v ekonomice), chytili se pekne....
Ukricane decka. Mozno keby si zmenil styl pisania a vyjadroval sa jasne a nie ci sa niekto chyti alebo nie tak by sme sa obisli bez tychto nedorozumeni. Tvoje reakcie su zatial ako od decka.
Mimochodom ked uz si reagoval na moj predchadzajuci prispevok bolo v nom:
Citace:
Nedavno sa tu pisalo ze pomer liniek u TSMC je 70:30 v prospech NV. Tam by to podla teba vyzeralo na peknu mnozstevnu zlavu. Ale zasa nie vsetky linky vyrabaju Fermi...
T.j. len som doplnal uvahu diskutujuceho nado mnou. Netvrdil som ze to tak aj naozaj je pretoze to neviem. Je tam napisane ze by to podla neho vyzeralo na peknu mnozstevnu zlavu. Bolo na tom nieco nepochopitelne?
EDIT:
Citace:
vlastne blokovanim kapacit vytvari TSMC provozni ztraty, tohle trzni chovani ti nejak v tom tvem teoretickem idealismu chybi
Tymto si chcel teda povedat, ze vzhladom na terajsi dopyt po ATI kartach by v pohode vyuzila aj trebars 70% vyrobnych kapacit a tym ze ich od TSMC nedostane tak je jej vyroba blokovana? Pretoze to by bola dost scestna uvaha.
Tak jak jsi to napsal vyznelo, ze blokovanim vyrobnich kapacit je prakticky pusobena provzni ztrata TSMC, kterou by nemela, kdyby se kapacita vyuzivala k produkci RV7xx. Proste si zabreptal, deme dal.
Takze u mna teoreticky idealizmus a u teba zasa naivita. Vazne si myslis, ze by TSMC bola kvoli NV v strate a naschval by blokovala ATI? Ale ved ta zla NVIDIA to dobrej ATInke stale nejak kazi.
Hustota cipu vychazi z pouzite technologie. Velky cip neznamena automaticky velkou spotrebu(tim ale nemyslim ze Fermi bude usporne nebo tka neco). Spotreba a teplo je umerne plose cipe + technologie (cim nizsi vyrobni technologie, tim vyssi leakage) +- 20% podle konkretniho zapojeni. Jako priklad muze byt chip o 100mm2 ktery na 180nm procesu zere 10W a na 40nm procesu 15W. Mnozstvi tranzistoru je ale enormne rozdilne. Zaroven firma 1 a firma 2 to muzou vyrobit s +- 20% jinou spotrebou i kdyz mnozstvi tranzistoru bude stejne.
Chci jen poukazat ze to neni az tak jednoduche. U maleho vysokotaktovaneho chipu bude tepelna hustota vyssi a muze dochazet k lokalnimu prehrivani cipu. V tomhle smeru ma vetsi cip nepatrnou vyhodu. Jinak ale spousta vyhod mluvi spise pro male chipy
No vzhledem k tomu, že čipy vyrábí stejná továrna stejným způosbem to poměřovat samozřejmě je uplně normálně možné .... ta plocha čipu ti totiž ovlivňuje hodně - cenu, výtěnžost, provozní vlasnosti atd.
vzhledem k vysoké ceně FERMI TESLA produktů, které byly oznámeny a jsou výrazně vyšší než ceny TESLA GT200 opravdu čekáš, že když může stejný čip a stjenou grafiku prodávat NV za 3999 dolarů, tak ji bude prodávat za 399 dolarů jako HD 5870? .... lidi vzpamatujte se ....
slyšeli jste slovo boží
neboj se o nás,my co už známe čekání na HD 2900,na špek neskočíme.Až bude karta a její cena venku tak se rozhodnu kterou koupit,2 nebo 3 hry s DX11 mě fakt nedonutěj uspěchat nákup.Jestli mám vytáhnout balík za GK tak si radši počkám, AMD snad do tý doby neklekne takže bude z čeho vybírat
No tentkrat se to tady oznamovalo jako bomba, myslim to cekani na HD2900, takze pokud se bude situace opakovat, tak bude Fermi opravdu povedena architektura.
Neboť cena GF je přímo uměrná ceně Tesla? To je další stále omýlaný blábol.. neboť cena je tvořená poptávkou a nikoliv poměrem k produktu v jiném segmentu..
Stojí snad osobák Volvo přímo úměrně k tahači Volvo?
Přesně tak, pokud v jednom segmentu mám reálnou konkurenci, tak se musím cenou přizpůsobit a pokud v druhém segmentu nemám konkurenci (nebo si to alespoň myslím), tak můžu zvolit i několikanásobně vyšší cenu. Otázkou je, jak to pak celé dopadne, ale to je úplně jiná věc. Prostě ekonomický nesmysl, co se tu pořád předkládá.
přijde opět malé a supervýkonné zcela nové 32nm ATI HD 6000, které bude minimálně 2x rychlejší a výkonnější než HD 5000 a samozřejmě technologicky mnohem dál
Mozem vediet odkial je tato informacia?
EDIT: Dalej ako si mozeme byt isty, ze ATI nebude mat problemy rovnako ako Fermi kedze pojde o novu architekturu? Ci u NV sa vzdy dopredu vie, ze zlyha a o ATI ze to bude pecka? nechcem sa opakovat ale nemali sme to tu uz raz? A to si tvrdil ze si sa uz poucil. Okrem toho definoval niekto ako ma vyzerat teselator? Alebo mozes prezradit na akej definici si postavil tvrdenie, ze ATI ma skutocny teselator a NV nie? NV dokaze predsa az 16 paralelnych roznych operacii a na kazde z tychto vlaken ma priradeny jeden teselator. Teda jednotku urcenu iba na jedno vyuzitie...
logika .... v podstatě vždy když se objevila nová generace grafik (s výjímkou přejmenovaných GF9 na GT200) tak byl výkon nové generace skoro 2x větší než té staré ... proč by to u HD 6000 mělo být jinak, když to ATI už pár let dodržuje?
EDIT: ATI má jednotku tesselátor už asi 8 let ;) definovala jej ona a donutila Tessellaci využít v DX11 jako standard ;). NV nikdy teselátor neměla. jinými slovy ATI prostě definovala, jak má tesselátor vypadat, ale to neznamená, to, že tak musí vypadat .... stadnardzizované je, jak má vypadat výsledek, a jak se k němu dobrat, jak to budou grafiky dělat je na nich .... nidko netvrdí, že ATI to dělá dobře a NV špatně! Ale každý k tomu jde jinou cestou ... která je lepší, levnější, kratší a výkonější se ukáže ...
O HD 6000 nevíme nic, takže nemůžeme vyloučit že může mít problémy jako FERMI ale stejně tak neexistuje důkaz, že by mít stejné problémy mělo ....
tak se koukni na GT200 čip na GTX 285 ;) spočítej si jednotky vyděl dvěma, co ti zbyde? G92 tedy 8800GT - 8800GTS 512MB - 9800GTX - 9800GTX+ - GTS 250 - "GTS 350"
Ved prave kvoli novej architekture. ked ju menila ATI tak mala po roka meskanie, teraz ked ju meni NV detto. Preto logicky mozeme ocakavat to iste aj u ATI.
Citace:
ATI má tesselátor už asi 8 let ;) definovala jej ona
Sorry ale s tymto sa stotoznit nemozem. A nie kvoli NV ale vo vseobecnosti. Definovana je totiz metoda teselacie. A to ako ju kto dosiahne je v podstate jedno. Nejde o standard ani o definiciu ze takto sa to ma robit. Tymto samozrejme neupieram ATI prvenstvo v implementacii teselatora do svojich GPU ale urcite to nie je standard.
Napisali sme to rovnako. Najskor si to tam nemal tak som ja napisal co si myslim. Ked som to dal odoslat a refreshol som screen tak si tam mal odrazu to iste co ja. Nahoda
tím prvenstvím ATI bych byl opatrnější... HW tessellator se objevil (pokud se nepletu) poprvé v GeForce 3 OdkazTenkrát se však teselace nechytla a v GF4 se už tessellator neobjevil.
pokud jsi četl tak byl přítomen v HW ale jestli jsem sem pochopil ten text správně tak neměl doladěnou podporu v ovladačích z té doby pochází i ATI Radeon 8500 který měl jak podporu v HW tak i v ovladačích a ten rozdíl ve hrách byl ve svojí době celkem radikální takže bych netvrdil že se nechytla jen to nebyl standart ale s oblibou jsem využíval po celou dobu životnosti karty a že jsem ji měnil až s při přechodu na PCIe a athlona x2 do patice 939
Ja mel zkusenosti s teselaci na karte ATI radeon 9200(prakticky 8500) kdy jsem to aplikoval na Half life. Postavicky kulate a fajn. Bedny kulate a nic moc :-D Ale jako technologie zajimave. Rozhodne to ma potencial
Ja cakam na Fermi jak na spasenie lebo mam 5750 ale zistil som, ze obraz neni ani zdaleka tak pekny teda skor farby, aj ked ladim nastavenia v CCC kolko chcem, ako ked si zapnem digital vibrance na GF. Predtym som mal totiz tiez GF tak som chcel zmenu ale je to funkcia, na ktoru zatial Ati nema odpoved, uplne ozivi hru.
"DVC - Digital Vibrance Control
Tohle je druhá ´inovace´ se kterou přichází MX. nVIDIA o DVC tvrdí následující: DVC bylo vytvořeno s cílem zobrazit obraz jasně, kontrastně a čistě. V ovladačích jsou tři stupně nastavení tohoto efektu. Účinek je okamžitý, ale poté, co jsem s tím trochu experimentoval, můžu s klidem říci, že ten samý kontrastní obraz lze s trochou snahy dosáhnout laděním jasu, kontrastu a gama korekce, které jsou v ovladačích od nepaměti. Zřejmé jsou dvě věci: implementované to rozhodně NENÍ na úrovni hardware a to samé dosáhneme trochu složitěji laděním gama korekce. Zdá se tedy , že jde o pouhý šikovný marketingový trik dle teorie "něco nového tam přece být musí"."
No to asi tazko, ja ked som si kupil kedysi GF 9800 tak som este nevedel naco je digital vibrance a snazil som sa nastavit lepsie farby cez gamu a podobne v control paneli a potom ked som bol presvedceny ze som dosiahol najkrajsi obraz tak som nahodou pridal digital vibrance a nedalo sa to vobec porovnat. A to iste plati aj o Ati control panel, dal som nastavenia v ccc na default, to sa mi napozdavalo, potom som zase pol dna ladil obraz a farby v CCC aj na monitore ale nic sa na zapnutu dig. vibrance nechytalo. Ale hovorim to za seba, niekomu sa mozu na druhej strane farby Ati.
snazil som sa nastavit lepsie farby cez gamu a podobne v control paneli a potom ked som bol presvedceny ze som dosiahol najkrajsi obraz tak som nahodou pridal digital vibrance a nedalo sa to vobec porovnat.
pořád to vypadá na problém mezi židlí a monitorem...
Nebudu se zapojovat do imbecilní diskuze, který karty mají lepší barvy. Rozdíly byly v dobách dávno minulých a od určité doby se barvy neřeší, jelikož je to přibližně vyrovnané a někomu se líbí to a jinému ono - kvalitní monitor udělá 10x větší efekt než blbosti s ovladačema aneb to co hardware neumí software nemůže vykouzlit.
Ved to ani nikto nechce aby si sa zapojoval. Nesnazil som sa nikoho presviedcat o kvalite toho ci onoho kazdy nech si kupuje co chce. Iba som uviedol dovod, preco si chcem vymenit Ati za GF a moj nazor, ze pre mna osobne sa obraz GF oproti Ati neda porovnat,vzhladom na funkciu ktoru som spomenul vyssie. To je asi tak vsetko.
naopak, ATI má lepší obraz než GF určitě barvy ... ten rozdíl je dost velký - nic nenastavuj a nech to na automatice. je to evidentně o zvyk ....
barvy třeba při přehrávání videa jsou ejdnoznačně živější na ATI je na to na netu hlada srovnávacích fotek .... tak fakt nevím v čem máš problém, já jsem si nikdy na grafice s nastavením barev nehrál, tedy zkoušel jsem to u NV GTX 260 kde se mi nelíbily barvy při videu ve srovnání s ATI ale nedalo se ...
když testuješ a vidíš tolik grafi co já, tak ten rozdíl poznáš .... nejlepší jsou dva monitory vedle sebe na dvou grafikáczh .... jinak kdysi dávno jsem tu měl pekné srovnávací vlastní fotky z videa .... myslím že byli u HD 2900 vs 8800 v nějakém velkém testu grafik ...
Predpokladam, ze to byly identicke modely monitoru, identicky zkalibrovane pomoci sondy a pouzil jsi identicke nastaveni testu, abys mohl tvrdit neco takovehleho. Pokud ne, pak bohuzel nikoliv prvne pouze placas do vetru nesmysly.
Jinak bych taky uvital linky na ty hromady fotek, kde se to resi - predevsim tedy u GTX260 vs HD48xx, tam by me to zajimalo markantne.
ja mužu porovnat jen geforce 7600 a ati radeon 2600 kde jsem měl připojený oba k tomu samímu monitoru(přepínal jsem vstupy) a rozdil tam je u videa jo ale ve 3D ten rozdíl byl neznatelnej ale video bylo nebe a dudy
7600 v nekterych driverech Purevideo pridala, pak by nemel byt zadny vyrazny rozdil (Purevideo i AVIVO nabizi cca stejne funkce a stejnou kvalitu). Verze do AGP mela omezenou podporu DXVA, takze urcite problemy tam byli. Takhle mam nedostatek ofnormaci, abych byl schopen specifikovat problem konkretne. Samozrejme, zalezi pak taky na tom, jaky kodek je pouzivan, pripadne prehravac.
PS: to, ze jen menis vstup do monitoru neznamena, ze je kalibrovan... Velmi pravdepodobne bude prave vylazen na jeden typ, kdezto na druhy by ho bylo potreba prekalibrovat. Kvuli tomu se pouziva sonda, ktera ti zajisti stejne podani barev. Rodil v podani barev je zavisly spis od subjektivniho vnimani (nekdo rad vic cervene, zivejsi barvy, nekdo spis strizlivejsi realne barvy) - kazdopadne vse je zalezitost spravneho nastaveni a to predevsim u LCD.
3D aplikace pouzivaji jine nastaveni ovladacu a jine funkce nez video - standardni nastaveni je, ze je vse rizeno aplikaci, pak prave nejsou vysledovatelne zadne podstatne rozdily mezi jednotlivymi resenimi. Stejne tak v pripade nepodpory AVIVO(PV) v aplikaci nedojde k pouziti filtru a obraz bude vicemene identicky.
Dobrý večer.Je to asi mimo téma (jinak moc dobrý článek),ale potřebuji poradit.Odjíždím na půl roku do zahraničí kde nejdou koupit notebooky a chci si nějaký výkoný vzít sebou,který by ještě chvilku vydržel.Uvažuji o MSI s GT160M 1 GB cca za 22 tis (cena je dost dobrá).DD prosím o radu,co by jsi navrhoval ty,určitě máš daleko větší zkušenost (tak do 25 tis.).Jinak MOC super web.Předem děkuji.
Bral bych jednoznačně Dell. Kvalita, jednoznačně nejlepší servis, slušná cena. Odkaz
HD4570 by mněla stačit i na nějaké to hraní.
Mimochodem, ví někdo co je to zač GT160M? je to víc než GT230M? A co je GT130M? U desktop grafik od Nvidie sem ještě v rámci možností zvládal všechny ty přejmenovávání, ale tady sem absolutně ztracen.
chtěl jsem vzít dell, konkrétně dell studio 1555, bohužel s dostupností to není nic moc (alespoň u nás na Moravě), ptal jsem se na to a bylo mi řečeno, že se čeká na modely s W7 a budou nejdřív v únoru
mrkni na SONY VAIO řady NW, vzhedem k ceně kvalitní zpracování... teda pokud jsem pochopil dobře že hledáš něco okolo 20k:
http://www.czechcomputer.cz/product.jsp?artno=69970
Kluci ti to tady psali 2x tenhle Odkaz notas, ma dx11 grafarnu HD5730, 17"LCD, 4Gb ram, Intelacke CPU i5 s turbem a predinstalovany W7, proste maximalni uzitna hodnota vzhledem k cene, vic za ty penize nesezenes a vydrz bude na ten vykon taky paradni...
Tak ja už sa teším na finálny produkt a som zvedavý ako bude na tom DD z príjmaním pravdy. Ak to bude prepadák budiš ale ak to bude "bomba" prekonávajúca aj 5970? Určite sa nájdu rozlíšenia nastavenia a či hry kde bude 380 horšia a ja viem kde to nájdem Tu A ak náhodou by sa nenašli bude tu problém s veľkoťou chladením spotrebou ....
Ak by to tak bolo tak sa mozme radovat. Pretoze by to bol podareny produkt a ani ocakavana spotreba by bola prijatelna ak sa bude drzat max na urovni HD5970.
Ak by to tak bolo tak sa mozme radovat. Pretoze by to bol podareny produkt a ani ocakavana spotreba by bola prijatelna ak sa bude drzat max na urovni HD5970.
Nejvíc mě dorážejí věty "..., ani v tomhle vás ale nVidia nepotěší"//Jediný koho nVidia nepotěší je totiž asi autor.
K 3 monitorům - Je to pěkná věc, na práci, ale na hraní mi příjde divná, ano, k simulátorům jistě, ale dokážete si představit hraní FPS na 3x LCD? Osobně ne, jelikož hraju hlavně CoD4 (clanbase a esl) na hodně ořezaných configách tak se není ani čemu divit ( ted mě napadá, mohlo by se tak dobře šmelit, viděl bych i to co bych neviděl ), ale ani při hraní CoD6 - na plné detaili si to představit prostě nedokážu.
No a pokud jde o tu práci, tak se hodí do práce...ale doma. Z brigády v nejmenovaném fast foodu, nebo i u táty v práci vím, že než 1 PC a 3 monitory se používají 4 PC a 1 monitor, zabere to míň místa a jednoduchý switch pod monitorem oblouží všechno . Ale těško říct jak je to jinde....
Bereš to jako high-end čip proti mainstreamovému čipu, ale tak to bereš asi jen ty a pár jiných. Osobně to beru jako jendočip proti dvoučipu, je mi jedno jestli je to R nebo RV čip, GTX380 nebo 360, ale tady se hraje "na čipy", a jak sám říkáš není problém přetaktovat HD5900 přes 300Watt, není problém udělat FERMIx2 s TDP pod 400Watt .
tebe potěšilo, že místo představení výkonu a uchopitelných faktů a parametrů tu máme další PR prezentaci? Ano, tak to si jediný ...
3x LCD zkus to, pak kritzuj, já si to už vyzkoušel na práci i na hraní a už nechci jinak už mám doma taky připraveny 3x27" LCD na stálo ... na FPS je to ultra paráda a doporučuji vyzkoušet, už se těším až si na tom dám Mass effect 2
Že ty bereš jednčip vs jednočip je tvůj problém, realita je že HD 5870 je mainstream s o 1/3 slabšími parametry nižší cenou a spotřebou a GTX 380 je high end konkurenci k high endu a tím je u ATI HD 5970 to je realita .jak říkáš tady se hraje na čipy a ATI high endový čip nemá nahrazuje jej svou strategií dvou maisntreamových čipů za cenu jednoho čipu u NV ATI nabídne dva .. vzheldem k tomu že obě grafiky budou mít podobné TDP je to jasnější co je konkurence ....
problém udělat dual FERMi s TDP pod 400W (strašné číslo samo o sobě) určitě není, když ATI zvládne udělat dual HD 5870 v podobě HD 5970 pod 300W, ale jaký to bude mít výkon a cenu? Bude to stačit a stát za to?
Já už si Eyefinity v 3 monitorech měl tu čest vyzkoušet, bohužel ne FPS, ale letecký simulátor a nějakou střílečku z tředí osoby. Jak jsem už řekl, simulátor byl nádhernej, no, to bych tomu přidával, bylo to odbrý c(nevím ale, jestli mě spíš neuchvacoval ten letecký joystich a páčky na ovládání motorů ), ale střílečka mě nějak neuchvátila, bylo super žes viděl i "mrtvé úhly", ale osobně mě to štvalo, mnohem líp vám totiž splyne když kolem sebe vidím jak se mění krajina, než když vidím to co před sebou ale 2x roztaženější - k čemu?
Asi je to tím že prostěnedokážu tuhle technologii ocenit, ale i přes moje snažení jsem se snažit najít pro mě jakožto hráče FPS nějaké využití. Mass effekt 2 na tom bude možná ještě poměrně dobrý, ale dokážeš si představit hrát na tom Call of Duty? Osobně ne, a je to právě Call of Duty které tu trhá rekordy, ne Mass Effekt, ikdyž jistojistě má a bude mít svoji skupinku fandů.
DD, odkuď čerpáš informace ohledně efektivity jednotek na Tessellaci? Páč mě se zdá, že je to pouze názor, stejně tak jako by mohli někde na nvidia-webu (takové nejsou!!!! ) říkat, že tessellace nebude 16x , ale třeba 32x výkonější, protože GF100 tessllatory jsou daleko efektivnější ...To není útok, jen mě zarazila ta jistota s jakou to říkáš.
prezentačka a články o architektuře tak jak jsem to pochopil - já vůbec neříkám, že to NV dělá šaptně, ale je faktem, že to dělá jinak než ATI, vyčlenila na tesselaci více prostředků, protože prostě má v o 1/3většímm čipu více možností .... záležet ale prostě bude na situaci a na programátorech aby byly využity a je docela jasné, že menší FERMi čipy budou mít méně prostředků pro tesselaci ... u ATI je Tesselátor jinak zařízen ... výsledem by le u obou přístupů měla být stejná scéna což je dáno standardizací DX11 ...
Vzhladom na to, ze ma ATI jeden teselator tak ho maju vsetky modely rovnaky? Alebo sa nejako meni vzhladom k tomu ci ide o low-en, mainstream alebo high-end cip?
podle mě je stejnej pro všechny ale výkon pod tessellací ovlivňuje ostatní protože prostě ten složitý model s více trojůhelníčkama musíš zpracovat po stránce vykreslení stínů,hran, AA a dalších věcí a na to samozřejmě má každý model určitý počet jendotek a je tedy jasné že HD 5700 se nemůže výkonem ve stejné scéně s tessellací měřit s HD 5800 ano model může být stejně detailní, ale HD 5700 má polovinu jednotek na běžné operace s dopracováním modelů proti HD 5800
JJ to je fakt. Osobne som zvedavy ako budu proti sebe stat karty z nizsich tried v tomto smere. U NV sa bude pocet teselacnych jednotiek okresavat zrejme v takom istom pomere ako aj tych ostatnych podla navrhu cipu. Uvidime aky to bude mat vplyv na vykon.
ne nepotřebuji ji a ty několik měsíců staré PR videa slibující 6 výstupů mně nemusíš připomínat.
Já jen že dokud to není v obchodu, nelze o tom mluvit jako že to je (připomínám tvou větu "...některé edice i 6.."). Momentálně žádné edice se šesti výstupy nejsou.
jenže HD 5870 6 byla předvedan, viděli jsme jí fungovat a víme že to umí, neboj ini se objeví, otázka proč se neobjevila ví asi lépe výrobci, nevím jak ty, ale já o grafiku se 6ti výstupy nějak velký zájem nemám a ty 3 mi úplně stačí.
tady jde o to že ATI prostě zvládne až 6 LCD na jednu grafiku, předvedla to, nromální jsou 3 u všech moelu HD 5000 takže co na tom vychvalujeme když je to pravda?
Ano já věřím, že to umí (stejně tak věřím že Fermi je převratný výkonný čip), ale proč tyhle grafiky slibovala a nyní se k nim vůbec nemá a ani nevysvětlí proč nejsou na trhu. Původně šlo o velký marketingový tah při představování HD5xxx a teď nic. Nezáleží zda o tych 6výstupů stojím, či ne, ale o princip. A když už kritizovat tak stejným metrem a ne u ATI vychvalovat něco co sice má, ale doposud to neuvedla na trh a používá to jen jako PR máničku.
AMD-ATI u HD 5000 zvolila jiný přístup než dříve ... dodá čipy a nechá výrobce aby si grafiky udělali podle svého ... záleží tedy na výrobcích, zda HD 5000 vybaví 6ti konektory, ATI k tomu dala jen funkční podporu a podklady, výrobci grafik si sami rozhodnou, zda to budou vyrábět nebo ne .... asi si většina řekla, že to za to prostě nestojí dělat na to linky, když si to skoro nikdo nekoupí, mnozí nechápu k čemu jsou jim 3LCD a to je na HD 5000 úplný standard ....
na trhu to tedy není, ale dobře víme, že 3LCD umí a umí i 6najednou stačí když kartu výrobci vybaví konektory, není to nic experimetálního, nic PR, prostě je to holý dokázaný technický fakt .... nic víc nic míň
takže ty mně tvrdíš, že výrobci mají možnost vyrobit a uvést na trh grafiku se šesti výstupy, ale doteď se nenašel ani jeden, který by to udělal? Promiň, ale tomu přece nemůžeš věřit ani ty sám. Na trhu by si takové karty najisto našli zákazníky a najisto by toho min. dva/tři výrobci využili.
ATI tuto technologii mohutně propagovala a stoprocentně by si našla výrobce, který by takové karty vyráběl.
ATI jednoduše nejdřív nalákalo lidi a potom produkt odložili aniž by o tom lidem řekli. Jednoduše použili to k PR účelům. Není to nic experimentálního, je to dokázaný fakt, ale neprodává se - neboli jde momentálně jen o PR vábničku.
Nechápu proč se snažíš za každou cenu obhajovat ATI. Pořád jde jen o ziskuchtivou společnost jako všechny ostatní a my jsme jejich oslíci co se jednou za čas otřesou.
na vykon pod dx11 a tesalaci sem zvedav, na nakym videu byl videt brutalni propad fps v tom benchamrku na ati, ta scena s drakem. tak jakpak si s tim poradi nvidia . a to ze jedna karta zvladne jen 2 monitory je ostuda , 2 monitory na hrani je nepouzitelny, dobry asi na praci, ale na hrani to chce 3 monitory, jinak je misto zamerovacku ramacek od monitoru....
Ozaj, je uz na tento rok ohlasena nejaka hra, kde by sa teselacia vyuzivala vo vacsej miere, teda aj na ine veci ako prostredie, predmety atd. a nie iba na postavy(Stalker, AvP)? Neviete niekto nahodou?
Ohladom Avp, vcera som cital clanok resp. rozhovor s niekym z Rebelionu a sa vyjadril, ze teselacia bude pouzita iba na votrelcov. Sa mi to zda dost malo, tak dufam, ze tam toho bude viac.
AVP ale o tom NV nerada mluví protože to je hra podporovaná ATI ... vůbec všechny DX11 hry jsou dnes tvořeny na ATI protože jednoduše není na čem jiném, NVIDIA nemá sample DX11 grafik pro vývojáře ...
Myslím, že každopádně jsou "zaručené informace" všech stran ohledně Fermi spekulace, jedinou pravdu(at už špatnou nebo dobrou, ví jedině NVidia) a ta momentálně nic určitého neřekne. Já mám GTX 260, takže momentálně mě nic nemotivuje ke koupi 58xx,(rozhodně ne DiRT 2 se svou slavnou podporou DX11). Jelikož první "opravdu" DX11 hra bude AvP tak to už vydržím a počkám jak bude vypadat, a to už budou asi informace a testy ohledně Fermi reálné a potom se uvidí.
zase je tu plno zelenych a cervenych, ja som vacsinou neutralny ale teraz sa trochu priklanim k ATI lebo ma dobre, vyladene a realne cipy(HD5000) ale diskutoval by som o tom co ma aku spotrebu, vykon, cenu,... ked tu budu realne testy a majitelia kariet s fermi
Velice dobré informace o Fermi s rozborem architektury na http://www.behardware.com/articles/772-1/nvidia-fermi-the-gpu-computing-revolution.html
Další info o prezentaci http://www.hardware.fr/articles/782-1/nvidia-geforce-gf100-revolution-geometrique.html (Francouzky, použijte google překladač)
když si čtu články z konkurenčních serverů na stejné téma, tak chápu proč chodím nejraději na DDWorld. Největší problém mám vždy s PCT. Je pravda, že DD občas řekne něco nepěkného na nVidii, ale kdo by se tomu divil. Já jsem typ co bere co je lepší, výhodnější a kvalitnější. Ale na pct by brali i hovno prelepene paskou kdyby na nem bylo logo nvidie. No dneska me to nastvalo kdyz tam byl clanek o tom ze Fermi je bozi dilo a rozseka HD5000. Treba ale nemelo by byt spis na HD6000 kdyz tak vidim to odkladani??
Tady je to to samé jen obráceně, momentálně je na vrcholu ATi, tak to tu vypadá lépe, až vyjde Fermi, bude to vypadat věrohodněji zase na PCT, přitom je oboje stejně zkreslující
Zase když člověk pročte oboje a odfiltruje rozdíly, tak tuší, na čem je.
Nezlob se DD, ale ty FERMI odsuzuješ odzačátku a to ani nevyšla. Taky těm kecům moc nevěřím, ale zdá se mi to už dost přehnané, že tu je vidět chvála na ATI a špína na Nvidii.
Já jsem FERMI neušpinil, já ji nevytahuju už v druhé nic neříkající prezentaci ani ji falešnou nepředvádim veřejnosti ... a netvrdím že zašlape všechno do země (když to ani enní možný)
Jsem realista, hodnotím na základě faktů a nejlepších dostupných informací, jasně jsem řekl jak to s FERMI bude a nevidím na tom žádné pošpinění ... chála na ATI je, protože je co chválit, na trh uvedla nové grafiky včas a pořádně, co chceš chválit u NV, že nemá jedinou grafiku, která by stála za úvahu a vypráví nám akorát PR pohádky? Já to opravdu nepřehnal ani nezadržuji NV dodávky nových grafik .... odkdy je konstatování faktu, že NVIDIA prostě kromě PR dnes nemá nic, pošpinění ... pošpinění by to bylo, kdyby to nebyla pravda ....
..že dokud neuvidíme skutečnou kartu a skutečné výsledky, jsme jen v téhle teoretické rovině. A už párkrát teoreticky slabé karty překvapily (byť byly od ATi a ne nVidie).
Fermi podle designu vypadá velmi zajímavě, místo velmi zacíleného výkonu se rozhodli jít cestou něčeho co vypadá skoro jako CPU-GPU, pěkně unifikovanej design, kterej teoreticky dokáže dělat skoro vše.. což nic proti, využití rozhodně mít bude. Mínusem zřejmě bude odpadní teplo, následně logická žravost karet a mizerná výtěžnost dokud se TSMC nevzchopí a nedoladí proces výroby.
Ale jak říkam, zatim známe spoustu teorie, která je jen teorií. Kdo ví, třeba nVidia překvapí znova.. jádro G80 rozhodně nebylo propadák, že?
já nevím, ale mě to odhadování výkonu vzhledem k silovým parametrům přijde trochu zcestný. Troufnu si tvrdit, že tu neni moc lidí, který by rozuměli tomu, jak ty grafiky fungujou po HW stránce. To máte jako když bude srovnávat motory. Podle týhle logiky by totiž třeba atmosférickej 6-ti litrovej V12 by měl bejt výkonější než malej přeplňovanej V8. Ale ve výsledku ten výkon bude stejnej, i když ten první má víc litrů, víc válců, víc ventilů atd. Cíl je stejnej, ale cesta k němu je úplně jiná.. Můj názor je ten, že různý architektury nemůžete porovnávat na základě pár čísel.. Já si počkám na skutečný testy, na žádný předpovědi výkonu nevěřím...
to už není odhadování .... máme dost neoficiálních materiálů abychom na základě dlouhodobých zkušeností s grafikami mohli poměrně přesně ten výkon určit .... hodil jsem vám tam i video, které se NV pokoušela marně před pár dny stáhnout z oběhu a to ukazuje výkon GTX 380 na finální verzi se bude lišit jen málo ...
Nechápu potřebu dávat počet tranzistorů do přímé úměry s výkonem. Proč by pro Krista měla mít GF100 o 33% větší výkon jen proto že je o 33% větší? Když si jde někdo koupit grafiku tak počet tranzistorů je opravdu to klíčové, podle čeho si hráči grafiky kupují.
Kdyby GF100 měla 10 miliard tranzistorů... pokud bude poměr cena/výkon/spotřeba lepší nebo podobný jako konkurence, může mi být počet tranzistorů ukradený.
Ta logika, že když je něco větší, tak to musí být i lepší, jinak je to propadák, je pro mě nepochopitelná.
I tys skočil na DDho propagandu?
Ve skutečnosti je o 50% větší a měla by být o 50% výkonnnější (já se tak těším).
Jinak souhlasím, ale jde o to, že nic jiného vlastně o Fermi nevíme, tak se dělají závěry z plochy čipu a počtu tranzistorů. Výkonnější karta bude mít asi o něco větší spotřebu a o něco horší poměr výkon/cena, čekat jakékoli zázraky v tomhle se asi nevyplatí.
Vyrobna cena zavisi od plochy a vytaznosti. Ak sa ma GF100 zaplatit, musi byt tak vykonny aby svoju cenu obhajil.
Ked si spominam na GT200 tak nVidia musela vracat cast kupnej ceny, nespokojnym zakaznikom. Tiez to bol boj tranzistorov a GT200 cenu neobhajil svojim vykonom proti Ati 4000.
Ked kupujem grafiku samozrejme na pocte tranzistorov nezalezi, zaujima ma cena, vykon, spotreba. Lenze prave od poctu tranzistorov sa tieto faktory odvijaju, nehovoriac o dalsich prevadzkovych vlastnostiach.
Samozřejmě záleží na tom, jakou cenu výrobce nasadí. Pokud vyrobí čip, který je drahý na výrobu a je nucen ho kvůli konkurenci prodávat s nižším ziskem, tak je to pouze a jen problém výrobce a zákazníka to nemusí vůbec zajímat.
Příjde mi až úsměvné, že se Honza (DD) prezentuje jako člověk, kterého zajíma jen a pouze hardware z pohledu uživatele a píše testy a recenze pro uživatele a neustále tady řeší výrobní náklady jednotlivých čipů a jiných produktů. Přitom výrobní náklady za předpokladu, že prodejní cena je odpovídající kvalitě produktu, jsou to poslední, co by běžného zákazníka mělo zajímat.
Vy snad u jiných věcí řešíte, kolik stojí jejich výroba? Když si kupujete chleba, rohlíkž, šunku, sýry, mobil, foťáky, kolo, auto, řešíte, kolik mají tyto věci výrobní náklady? Dám ruku do ohně za to, že ne. Nevím tedy proč by u HW konponent to měl být najednou jeden z nejdůležitějších údajů.
Problém pre nvidiu je ten, že drahé grafárne sa proste moc nepredávajú. A fermi bude high-end za kopec prachov. To je kardimálny prúser. AMD najviac zarobí na 5xxx low-ende a mainstreame. A aj ked bude cca fermi 30% výkonom nad 5870 AMD nemá problém dať cenu o 50% menšiu ako je teraz. A ruku na srdce čo si potom kúpite 5870 za solídnu cenu, alebo predražené FERMI. Nvidia nebude moct manévrovať s cenou a to je dosť zlé. V dnešných časoch sa moc drahých komponentov nepredáva a hlavný doraz sa dáva na pomer cena/výkon. Ja mám 5870 dokonca som mal aj cross, ale ten som rozobral bo jedna karta je tak výkonná, že neni potrebu mať dve. Aspon nie na jeden 26 palcový monitor. Proste a jednoducho nech už tu je FERMI nech zlacnejú výkonné radeony nech má každý poriadny hráč DX11 grafiku.
kdo chce vykon,tak je mu celkem jedno,kolik bude Fermi stat a stejne si ji koupi...vubec nemam starost,ze se Fermi bude prodavat...nVidia ma marketing zvladly dobre a bude to nejvykonejsi karta...na to zakaznici vzdy slyseli...
obrazky pekne,samozrejme vykon prepaleny,ale uz aby tu karta byla...bylo by to plus pro vsechny...hlavne spadnou nesmyslne vytahle ceny radeonu rady 5000...vykon bude velky,karty drahe,ale trhu to pomuze...kdo bude chtit vykon,pujde do Fermi...kdo bude chtit cena/vykon pujde do radeonu,u nehoz doufam ceny spadnou...na Fermi se osobne moc tesim :-)
Myslím, že kdo bude chtít výkon, půjde spíše do odladěného HD5970 nebo pokud bude tak HD5990. Ale FERMI bude hodně čerstvé. A přeci jen je to zcela nová architektura.
nevim,vykon tam proste bude...sice ne stoprocentni,ale proste bude a casem s vyladenymi ovladaci pujde ten vykon nahoru...prave proto,ze to bude nova architektura,tak pujdou karty na odbyt slusne...nove ATI se take prodavali dobre a uz jen ten punc novoty bude plus...Fermi bude (nejspis) nejvykonejsi karta,takze kdo chce vykon,pujde do ni (nerikam,ze takovy vykon bude potreba,to je uz druha vec )
zcela nova architektura to neni. zakladni principy funkci vychazi stale z predchozich cipu, i kdyz jsou masivne upraveny a optimalizovany. z ovladacemi by tedy nemel byt podle me zadny problem...
Podla architektury je v podstate jadro GPU rozdelene na 4 casti - v podstate takmer samostatne fungujeci jadra. Co je mozno prvy krok nieco ako x-jadrove CPU v jednom puzdre... Takze je to posun dost velky aj ked nieco malo ma spolocne aj s predchadzajucou generaciou. A to nehovorim este o prekopanej pipeline.
Tak jsem neodolal a vymenil moji zanovni GF260/192 za HD5850.
A opet jsem si nabehl. Grafickou kartu mam v compu vyhradne na akceleraci her, nejake vypocty buhvi ceho jsou mi uplne ukradene.
Mam 26" monitor, takze se snazim pouzivat vyhradne rozliseni 1920x1200. S GF260 jsem nemel vetsi problemy hrat v tomto rozliseni i nejnovejsi hry a predevsim LOTRO. Po instalaci HD5850 jsem u nezaznamenal nejaky vyraznejsi narust vykonu, spise naopak. Dragon Age mi jede mizerne a LOTRO bezi cca hodku v pohode, ale po te se zacne na 2 az 3 vteriny zasekavat.
Zkusil jsem projet benchmarky, v tech atina exceluje. Ale benchmarky se hrat nedaji. Takze se mi opet potvrdilo, ze Ati umi vyrobit spickovy hardware, ale kurva drat, neumi napsat poradne ovladace. Co je platne, ze je karta vykonna a ma v sobe nejnovejsi technologie, kdyz to zazdi driverama.
Takze az prijde Fermi, vratim se pokorne zpet do zelene staje, i kdyz bude drazsi a mene vykonna jak slibuji
chyba je evidetně mezi židlí klávesnicí a monitorem .... sorry ale se softwareme ATI žádný problém HD 5850 funguje na jedničku všude a rozhodně je o dost rychlejší než GF260/192
Mam Vista 64bit nainstalovany cca 2 mesice. V compu krome her mam jen standardni soft (Nero, Firefox, Thunderbird, nic specialniho). Drivery jsem pri vymene vycistil v nouzaku DriverSweeperem. Sosnul jsem jen drivery z uz pri prvni pokusu o instalaci mi ty visty vytuhly. Druhy pokus se zdaril. Jak pisu, treba v unigine benchmarku mam v 1920x1200 prumerne FPS 30. Coz je super. Ale v DA musim orezat kdeco, aby se to dalo hrat. Rad si necham poradit. Ale blbe chytre keci o zidli si nechte od cesty. Proste nemam s ATI zkusenosti a s Nvidii jsem nikdy problem nemel.
osobne mi almychovo vymena pripada zbytecna,ale pokud kartu sehnal za dobrou cenu,tak proc ne? s Ati ani s nVidii nejsou po strance ovladacu zadne (leda zcela vyjimecne) problemy...ja problem tedy nemel nikdy ani s Ati a ani s nVidii (a to jsem mel uz Rivu 128 )
Ja som atinu este nemal. Tiez si nemyslim ze by v dnesnej dobe mala nejak prilis zle vyladene ovladace. A ani by som sa toho neobaval. Som proste spokojny s tym co mam a nepotrebujem menit. Teraz cakam na Fermi a uvidim co dalej. 500E sa mi za nu davat nechce takze mozno podjem do GTX360 alebo pockam na nejake znizenie cien.
No NVidia mě vytáčí neskutečně... Proč se jim to do prčic furt tak vleče...! Kdyby měli něco pořádného v celém spektru gr. karet, tak jsem teď nemusel kupovat 5750ku za 3300,- ale třeba za dva a půl, nebo ještě míň...
Tak opatrně s tím škodolibým chichotáním nad zlou NVidií, které se tak krásně nedaří...
Súčasná situácia na trhu s grafikami sa nemôže páčiť normálne (ekonomicky?) uvažujúcemu človeku. Nie si v tom sám. A tie posmešky? Čo nám ostáva, keď nVidia aj pán Huang Odkaz si za ne môžu z veľkej časti sami.
Ak možem poradit odinštaluj všetky ovladace nvidia aj physx. potom daj do prikazoveho riadku regedt32, reg editore daj edit, find a napis tam nvidia, potom stláčaj F3 a všetko čo odkaže na nvidiu vymaž. Odinštaluj aj ovladace na amd. sweeperom to ešte raz prečisti. potom nainštaluj catalist 9.12 + hotfix a samostatný physx driver a je to.
Všetko nvidia može vyhadzat. Teda ak nema nvidia chipset. Ja to tak robím a funguje to. A to som menil už hodne vela grafaren. Ale najlepšie je preinštalovat OS.
sorry DD ale nechapem ako mozes tvrdit ze HD 5870 je jasny mainstream. namatkovo som sa pozrel do e-shopov, napr. v alze je najlacnejsia dostupna HD 5870 384 Eur, skor HD 5850 je cenou (260-280 Eur) aj vykonom vyssi mainstream.
pre mna ako bezneho uzivatela je 5870 proste jasny high end (cenou aj vykonom). Povedz kedy sme mali v minulosti GK za takmer 400 Eur oznacovane za jasny mainstream? ci uz ati alebo nvidia.
a co je pak HD 5970, která je minimálně o 40% výkonější po OC i o 100% ???
v minulosti byly karty typu X800GT či 8800GTS 320 taky mainsream a staly 8000 ;), mě udivuje jak to všechno zapomínáte .... HD 5870 je prostě vyšší mainstream
HD 5800 je Performance u nás vyšší mainstream
HD 5700 je mainstream u nás nižší mainstream
HD 5600 v zahraničí označují jako mainstream u nás je to spíše už low end
HD 5900 je HIGH END patří tam jen grafiky se dvěma čipy
U ATI je to jednoduchý dva čipy = high end, jeden čip = vše ostatní.
u NV je označení GTX pro high edn, GTS pro Perfomance a GT pro mainstream a G pro low end ;)
Když bude stát auto nižší třídy víc peněz než jiné auto střední třídy tak automaticky spadá do vyšší třídy řekl bych, že záleží na "specifikaci" a né prodejní ceně. Specifikace zůstává, ale cena se mění bud nahoru nebo dolů