Nvidia GF8800 – Technologie a přínos srozumitelně
Napsal DigitalDooM   
Pondělí, 13 listopad 2006

 

 

 

 

 

Nvidia GF8800 – Technologie a přínos srozumitelně

Generační obměna začala. Jako vždy první kartou nové generace se chlubí nVidia. Nová GF8800 přináší hned několik pozoruhodných technologických novinek. Pojďme si jednoduše vysvětlit, co které znamenají a co nám přinesou v oblasti zvýšení výkonu a kvality obrazu stylem a pohledem běžného uživatele.

gf8800 

V několika posledních dnech si můžete na všech významných i méně významných serverech číst o nové nVidii 8800. Všude se rozebírá její výkon i technologické novinky, které přináší. Pojďme se tedy dnes podívat na shrnutí těchto novinek, co vůbec přinesou běžným uživatelům.

 

Je mnoho pojmů kolem nové nVidie, které sice byly 1000x vysvětlovány, ale možná ne úplně dokonale a pochopitelně. Samozřejmě nelze vše zjednodušit, ale přeci jen běžného uživatele tyto věci zajímají hlavně z pohledu toho, co mu přinesou na výkonu, či na kvalitě obrazu ve hrách. Pokusím se tedy vysvětlit vše okolo nové nVidie právě z tohoto pohledu. Nehodlám vás ,,umlátit“ technickými fakty a udivovat množstvím zkratek – k čemu také?  

 parametry

Čím začít ? Tak nejlepší bude srovnávací tabulka parametrů s kartami předchozí generace. Podívejme se na to, čím se na první pohled na parametry karta liší.

 GF8800GTX a GTS

Nová karta GF8800 je ultimátní kusem hardwaru. Jedná se o nejsložitější grafickou kartu, kterou kdy kdo vyrobil. Ale to platí takřka o každé nové generaci grafických karet. Donedávna to samé platilo o Radeonu X1950XTX a s trochou štěstí ATI na svou stranu toto prvenství přetáhne v lednu znovu. Teď se však hřeje na výsluní nVidia a musíme říci, že zcela zaslouženě.

 kentsfieldvsg80

Prvním, co nás v tabulce zaujme, je ohromný nárůst počtu tranzistorů. Do teď v tomto ohledu byla nepřekonatelná ATI se svým radeonem X1950PRO, který disponoval 384miliony tranzistory. Nejsložitější jádro nVidie přitom disponovalo ,,pouhými“ 278miliony tranzistory! U nového jádra G80 však nVidie pořádně přidala pod kotel. Proti Radeonu X1950XTX má náskok 297 milionů tranzistorů a proti své bývalému TOP jádru G71 je tu dokonce nárůst o 403 milionů. Jinými slovy G80 je proti předchůdci G71 skoro 2,5x složitější a větší. To je skutečně ohromný skok.

 X1950XTX-vs-X800XL

Překvapením v tomto ohledu je fakt, že jádro je vyráběno stále 90nm výrobním postupem. U ATI již přecházejí u většiny modelů na 80nm postup a u nové ATI se horší nečeká. nVidia v tomto ohledu poněkud pokulhává, ale časem i ona na tento postup přejde a jádro G80 by mohlo vykazovat opravdu zajímavé výkony.   

 gf8800gtx

Nejšpičkovější varianta 8800GTX disponuje ohromnou 384bit sběrnicí. Jak a proč je přítomna si vysvětlíme v další kapitole. Pro tuto chvíli nám stačí vědět, že s tím nemá karta absolutně žádné srovnání. Všechny karty dnešní generaci disponovali maximálně 256bit sběrnicí. Slabší model GF8800GTS disponuje ,,skromnější“ 320bit sběrnicí.

 gf8800gtx

Ohromný rozdíl je také v množství paměti. GF8800GTX disponuje 768MB paměti, slabší GF8800GTS ,,jen“ 640MB. Trochu zarážející může být fakt, že se jedná stále o DDR3 moduly. DDR4 tak zůstávají nadále pouze výsadou ATI. Faktem však je, že nVidia použila DDR3 paměti na taktu 1800MHz a dražší DDR4 zatím tikají na ATI jen o 200MHz výše. Nepochybuji o tom, že později i nVidie sáhne po DDR4, ale pro tuto chvíli je to zbytečné a díky parametrům nové karty nVidie s DDR3 dosahuje ohromné propustnosti pamětí. Přesně 86,4 GB/s! V tomto ohledu získává na předchozí generaci karet přibližně 36GB/s, což je opět obrovský nárůst, který předznamenává velký růst výkonu a hlavně kvality obrazu, hlavně ve vysokých rozlišeních a s vysokými stupni vyhlazování.  

 GF8

Další parametry jsou záležitostí jádra G80. Pojďme si tedy představit samotnou konstrukci jádra a ony parametry.

 

 

 

 

 

 

nvida GF8800 – revoluce mezi kartami

Zatímco při přechodu mezi minulými generacemi – tedy GF6 na GF7, či RX100 na RX1000 nebylo zdaleka novinek tolik, aby se to dalo nazvat revolucí, tak v případě nového jádra nVidie už to revoluce je.

zaba

Unifikované shadery a dx10 – přínos, technologie

 Před tím, než se pustíme do vysvětlování, proč je jádro G80 vyrobeno tak, jak je vyrobeno, si musíme vysvětlit jednu z největších revolučních novinek – unifikované shadery.

 unifikovan

Mezi uživateli je jen málo těch, kdo mají alespoň obecnou představu, co tato věc vůbec znamená. V první řadě je důležité neplést si dva pojmy. Těmi jsou unifikované shadery ( directX10 a SM 4.0) a unifikovaná architektura. Unifikované shadery jsou záležitostí softwarovou, které může podporovat i neunifikovaná architektura chipu. A naopak unifikovaná architektura nemusí podporovat unifikované shadery. Důkazem je současný grafický čip ATI, který nalezneme v konzolích Xbox360. Jedná se o ATI Xenos, který je navržený jako unifikovaný, ale přitom je známo, že nepodporuje zdaleka Sharder model 4.0. Celkem se nic moc neděje touto záměnou, ale jedná se o nepřesnost a pokud s někým na toto téma zavedete hovor můžete si udělat oko ;)

 pipeline

Ale vraťme se k našim shaderů. Co je to vlastně Sharder? Nebudu zde rozebírat podrobně technické podrobnosti a data. Jednoduše je shader grafická podjednotka. Je součástí grafické pipeline, což je výpočetní jednotka. Graf takové pipeline máte na obrázku. Sami vidíte, že to asi nebude tak jednoduché a nutno říci, že k pochopení jak to funguje to chce podrobné znalosti, které ale k využívání grafické karty nepotřebujete, takže to nechme u zjednodušených pojmů a dojmů a teoretizování ponechme serverům a autorům, kteří s v tomto vyžívají. Máme dva základní shadery a to Verte a pixel. Každý přináší něco a každý má něco do sebe. Z tohoto důvodu je nutné mít na kartách oboje. Poslední hry však výrazně potřebují pixel shadery a těmi jsou nadopované zejména ATI karty. Což je také odpověď na otázku, proč se ATI v nových hrách tolik daří. Ale Pixel Shadery nejsou zapotřebí zdaleka všude. Navíc dva typy shaderů jsou specifikací directX9.0c. Nový directX 10 specifikuje třetí typ - Geometry shadery!  

 prace-unif

Z toho důvodu se přistoupilo k unifikaci. Jde o to, že pokud doteď bylo velice obtížné udělat grafický chip s vhodnými poměry počtu verte a pixel shaderů, se třemi typy shaderů je to takřka neřešitelný úkol. Rozdíl mezi současným návrhem a unifikovaným návrhem je na obrázku jasně patrný.  Unifikovaný shadery nahradí nedostatky a vyplatí se tak více i přesto, že je mnohem složitější. Jde hlavně o to, že jakoby zaskakuje tam, kde verte, nebo pixel shadery nestíhají. nVidie to demonstruje na následujících obrázcích, ze kterých to myslím jasně vyplývá.

 unify-1

Na prvním obrázku máte situace v současných čipech s architekturou 4 vertex a 8 pixel shader. Nezřídka nastává situace, že část čipu nestíhá a druhá nemá do čeho píchnout.

 unify

Unifikované shadery toto vyřešily. Nevýhodou této unifikace je funkčnost. Unifikované shadery jedou stále na plný výkon a složitost. Proto má jádro G80 oněch 681 milionů tranzistorů a ty je potřeba krmit. Proto má tato karty velmi vysokou spotřebu i v klidovém režimu. Zajímavé je, že i přes takto vysoký počet tranzistorů není spotřeba v zátěži zas tak dramaticky vysoká.

 

 

 

 

 

jádro G80 – konstrukce

Už víme, z čeho se jádro G80 hlavně skládá. Teď se podíváme jak je to tam vůbec uspořádáno. K tomu nám slouží diagram jádra G80.

 G80

Opět nepokládám za nutné znát a vysvětlovat dopodrobna funkci každé části jádra, stačí nám vědět tak přibližně proč je tam to a to a co to dělá. Data se do grafické karty dostávají po PCIe sběrnici do vstupu (HOST). Data se v dalších čipech překládají a zpracovávají – podrobnosti považuji za zbytečné. Prostě tam ty data obíhají tak dlouho, dokud nejsou připravena k dalšímu zpracování.

 prace-unif

Pak jdou v určitém rozdělení a poměrech do stream procesorů (SP) to jsou ty největší zelené čtverce. Právě ty jsou celým tajemstvím a hybnou sílou karty. Oni se starají o shaderové operace. Jsou to tedy defacto ony vertex a pixel shadery. A zde přichází další novinka. Z tabulky víte, že jádro tiká na 575MHz(GTX), ale nVidie šla dál. Různé části jádra totiž jsou taktovány na různých frekvencích! Celé jádro sice běží na 575MHz, ale stream procesory tikají na 1350MHz! Zde nás asi může zarazit onen fakt velmi nízkého celkového taktu celého jádra proti dejme tomu procesorům, i když GPU jdou v před mnohem rychleji. nVidia ale použila nevídanou novinku a část jádra výrazně zrychlila. Uvidíme, kam toto povede. Nicméně jedno je však jisté. Současné grafické akcelerátory jsou schopny nabídnout mnohem vyšší výkon ve specifických operacích než jakékoli CPU!

 dellquad

nVidia dokonce uvádí číslo 520 GFLOPS. Pro srovnání výkon čtyřjádrového CoreQuadro je maximálně 50 GFLOPS. Pokud se budeme držet reálnějších čísel, pak nás zajímá hlavně srovnání grafických karet. A zde se dá konstatovat, že se opět povedlo navýšit výkon dvojnásobně proti předchozí generaci. Prostě jedna G80 má opět výkon dvou 7900GTX  - majitelé SLI pláčou.

 vykon

Za zrychlením G80 proti předchozím návrhům stojí oddělení jednotek pro adresování a filtrování textur. To má za následek dvě pozitiva. Redukce počtu tranzistorů – 16 stream procesorů disponuje 4řmi jednotkami pro adresaci a 8 pro filtraci textur. Filtrování již nezatěžuje shaderové jednotky – to byl hlavní důvod ohromného propadu výkonu na GF7 při náročných vyhlazováních atd., kde i silné karty Nvidie prohrávali s mnohem slabšími ATI. Tedy díky chybnému návrhu GF7 čipů. Což přiznala nedávno i Nvidia s tím, že se z chyb poučila – upřímně, je to rozhodně vidět :) .

 wafer-G80

Data jdou dále do ROP jednotek ( ty modré bloky dole). Mohou, ale nemusí – s unifikovanými shadery totiž přibyla možnost to celé absolvovat vícekrát. 8800GTX disponuje celkem 6 ROP se 4řmi pixely. Hlavní síla spočívá ve skutečnosti, že ROP na 8800 disponuje 64bit řadičem pamětí – proto je šířka paměťové sběrnice 384bit (6x64). Na GF8800GTS je 5 ROP a tedy 5x64 je 320bit. Pro běžného uživatele to znamená přirozeně jednoduchou věc – více paměti - možnost procpat po sběrnicové ,,dálnici“ více dat a tedy v důsledku vysoký výkon na co jen bude GPU stačit. To jsou další zbraně nové nVidie proti současné generaci grafických čipů, které s ní v těchto ohledech nemohou soupeřit.

 

 

 

 

 

 

Nvidia GF 8800 – Vyhlazování a optimalizace obrazu

Výkon je krásná věc, ale kde dnes potřebujeme výkon je při kvalitním obrazu. Asi každý, kdo kdy hrál s plným vyhlazováním HDR atd., tak potvrdí, že bez zapnutých těchto vylepšeních se defacto koukáte na mnohem horší hru.

 HDR

Tím hlavním, co bude pro tyto mody důležitý je počet texturovacích jednotek. Těch je celkem 64 a pracují na taktu jádra – tedy 575MHz!!! Tento počet byl pro mnohé velkým překvapením. Nvidia tím sleduje však jediné.

 HDR

Není tajemstvím, že současné GF7 prostě neumí s HDR pořádně pracovat a na nějaké HDR s AA můžete na nich rovnou zapomenout. Opět se jedná o návrhovou a neodstranitelnou chybu. Na GF8800 je však všechno jinak. Nvidia nejen že se poučila ale notně přidala i do zásoby. Ohromný počet 64 TF jednotek je možná až přehnaný. Jen pro srovnání – dnešní karty mají 16TF jednotek - výkon nové nVidie bude v nastaveních s HDR atd. prostě OHROMNÝ.

Tohle nás zajímá právě z uživatelského pohledu – 64TF jednotek nám přinese následující věci:

  • Bilineární, či trilineární filtrace bez ztráty nebo s minimální ztrátou výkonu.
  • Možnost 16AA filtrace (poprvé reálně použitelné na singl kartě vůbec) s minimálními ztrátami výkonu

Prostě a jednoduše to znamená – že plné detaily budou plnými detaily. Skončila doba omezování se :). Na okolních obrázcích můžete vidět sílu a kvalitu nové nVidie. Stalo se již tradicí, že při uvedení nové nVidie bude přítomna i maskotka. U GF 8 je to Adrianne Curry. Pod ní máte hned onu osobu v reálu. Sami vidíte, že doba skutečně pokročila a pomalu ale jistě se blížíme do doby, kdy počítačová simulace nebude odlišitelná od reality. Pro tuto chvíli, ale stále je ,,umělá“ Adrianne poznat.

 adrianne

pro zvětšení klikněte na obrázek


Vysvětlování různých modů AA, a že jich je, by bylo na několik dalších kapitol. Opět nepokládám za nutné je znát, jelikož výrobci je mění pomalu s každou novou generací. Podívejme se tak jenom na to nejdůležitější, s čím přišla nVidia na novém chipu G80.

 CSAA_specs

Hádáte správně, nVidia odstranila největší bolístku GF7. Na nové nVidii si pustíte HDR s AA. Samozřejmě jako vždy s novou generací grafických karet přichází i lepší a vyšší stupeň vyhlazování a optimalizací. Demonstrace na několika okolních obrázcích.  

 kvalita-AA

Nebudeme chodit do podrobností o MSAA, CSAA atd. atd., čímž nás krmí jinde. Nás zajímá, co to přinese. Říkal jsem, že GF8800 je první kartou, která reálně skutečně podporuje 16AA. Samozřejmě přínos tohoto vyhlazování uvidíme až v testech. Proti 4AA to je jasné zlepšení obrazu – ona si to prostě nVidia GF8800 může vzhledem ke svému výkonu dovolit. Teď asi nahraji kdejakému marketingovému oddělení, když napíši, že nás zkrátka čekají obrázky ještě hladší, ještě jemnější prostě více reálné.   

 

 

 

 

 

nVidia GF 8800 – přínos a závěr

Pomalu se blížíme k závěru této předmluvy k nové nVidii. Podle mého soudu si ji prostě tato revoluční karta plně zaslouží. Tímto snad opět umlčím ty, kteří si myslí, že jsem nějak zaujatý jednou značkou (možná se objeví další, kteří zase začnou tvrdit, že jsem zaujatý druhou značkou :) ). 

 logo

Dnes jsem chtěl článek pojmout tak, abych vysvětlil některé záležitosti okolo nové nVidie. Neříkám žádné nové věci, jenom to překládám do obecně srozumitelné podoby bez zbytečných technických faktů. Chápu, že toto zjednodušení se každému líbit nemusí a že díky tomu je v článku několik nepřesností, ale běžnému uživateli to vadit v užívání vůbec nebude a jde mi o to, aby měl teoretickou představu o tom, co vůbec doma používá.

Přínosy nové nVidie

1, Výkon, výkon, výkon:

Prvním a jednoznačným přínosem je výkon. Ten je skutečně enormní a právě tam, kde potřebujeme, proti stávající generaci bude zejména v nejvyšších nastaveních i dvojnásobný. Hlavně bude potřeba pro fyzikální výpočty. Nová G80 taktéž překonává v určitých aspektech výkonu jakýkoli dnešní procesor.

2, Unifikované shadery

První grafická karta se skutečně plně unifikovanými shadery podporující formát directX10 a Sharder Model 4.0. Revoluce ve způsobu práce grafické karty!

NVIDIA_Froggy_500


3, Použitelná vysoká vyhlazování a optimalizace obrazu

Úzce souvisí s výkonem. Nová nVidia, jako první karta přichází se skutečně použitelným 16xAA. Ale hlavně napravuje nVidii reputaci a konečně funguje HDR + AA nastavení.

4, 384bit sběrnice, 768MB RAM, 681milionů tranzistorů …

Neskutečný technický krok proti předcházející generaci. G80 a G71 jsou jakoby každý od jiného výrobce. Zatímco G71 je spíše nepovedeným čipem, který moc radosti nVidii neudělal, tak G80 je zcela něco nového. Možná je ještě brzy na soudy, když není s čím porovnávat, ale nVidia neudělala stejnou chybu zdrženlivosti při návrhu chipu, jako u předchozí generace GF7.

Negativa nové nVidie:

1, rozměry

Prvním negativem jsou určitě rozměry. A to nejenom samotného čipu, ale celé karty. G80 je skutečně obrovským čipem, pro který je skutečně 90nm výrobní postup málo – těšíme se na 80nm variantu. Spolu s tím je negativem velikost celé grafické karty. Vypadá to vypadá, že bude potřeba předělat návrhy počítačových skříní. Již předešlé karty sahají až k pevným diskům. Nová GF8800GTX je ještě o přibližně 20mm delší – umíte si představit problém, kam to narvat.

 GF8800

2, Napájení a spotřeba

Negativem je rozhodně spotřeba, i když nutno dodat, že to není tak strašné, jak se čekalo. Karta má sice vysoký odběr v zatížení, ale jen o pár Wattů proti současné generaci. Bohužel díky konstrukci unifikovaných shaderů má vysokou spotřebu stále. V klidovém stavu prostě nežere o moc méně a v porovnání se současnou generací je její spotřeba v klidu skutečně velmi vysoká. Negativem je nutnost dvou napájecích konektorů a odpovídajícího zdroje. Jednu větev budete minimálně muset vyhradit pro tuto kartu.

Nehodnotitelné parametry nové nVidie:

1, SM 4.0 a dx10

Marketingově nejfrekventovanější lákadla v podobě podpory shadery modelu SM 4.0 a directX 10. V souvislosti s SM 4.0 je to jasné. Podpora je to sice pěkné, ale nelze ji v reálu ověřit. Ještě pořádně neexistují hry, které by užily plně možností SM 3.0 natož 4.0. Napadá mě srovnání s podporou SM 3.0 u nvidia GF6. Taky naprosto k ničemu, ale mnozí viděli právě jen to magické SM3.0 – co na tom, že GF6 ani 7 ho ve skutečnosti nepodporují. SM 4.0 tedy zůstane dlouho nevyužitelnou záležitostí – mrzet nás to nemusí, unifikované shadery přinášejí vysoký výkon i do SM 2.0 a 3.0.

 formaty

DirectX10 je další záležitostí. Opět unifikované shadery v hlavní roli. Zde je situace poněkud složitější. Náběh na directX10 není tak vzdálený. Problém je v jeho rozšíření. Pro Windows XP nebude dx10 nikdy existovat. K dx10 budete potřebovat Vista. Pravdou ale je, že v současnosti dx10 také dost dobře neotestujeme – Vista sice máme, ale dx 10 pořádnou hru ne a první se dočkáme za dlouho. Opět nám to ale vadit nemusí, protože GF8800 má vysoký výkon v dx9.0c.   

 World_in_conflict_500

Nová nVidia GF8800 má hodně co nabídnout. Na její konkurenci v podobě ATI si ještě nějakou dobu počkáme. První informace bychom mohli mít v prosinci, či v lednu. Pravdou je, že čekáme minimálně překonání nVidie 8800. Vzhledem k současným možnostem ATI nic menšího čekat nelze. Jediné, co nás děsí je, jaké to bude monstrum – že by 512bit sběrnice s 1GB DDR4 RAM ? Uvidíme.

 8800GTX-ASUS
 

Vy se však již tento týden dočkáte podrobného testu nových nVidií. Po přečtení tohoto článku již víte, co nás čeká a co budete případně pořizovat.  

 

 

AUTOR: Jan "DD" Stach
Radši dělám věci pomaleji a pořádně, než rychle a špatně.

Starší články


Komentáře
Přidat Nový
czlucas [Zobrazit profil] [Poslat zprávu] - hezka karta 2006-11-13 07:10:10

Je to pekna grafika,to se musi nechat,ale vzhledem k tomu ze si doma platim elektrinu me desi kam speje "vyvoj".Takze kartu s podporou Dx 10 budu porizovat az kdyz ji budou delat 80 nebo lepe 65 um,bude rozmerove mensi a hlavne ji bude stacit pouze jedine napajeni s jeji spotreba bude na urovni soucasnych karet.
Elendil [Zobrazit profil] [Poslat zprávu] - Oblivion 2006-11-13 09:30:20

Dobré by bylo pro ilustraci toho výkonu a kvality ještě přinést testy ve hrách, které všichni znají - třeba v Oblivionu, s plnými detaily, HDR a AA a přinést obrázky a údaje o frame rate. Protože teprve s tímto nastavením si každý ten skok od sedmičkové řady plně uvědomí
drnoha [Zobrazit profil] [Poslat zprávu] - Jak muzete neco takoveho napsa 2006-11-13 14:32:58

Jak muzete napsat, ze "Zatímco G71 je spíše nepovedeným čipem, který moc radosti nVidii neudělal"? Co je jako na G71 jepovedene? To uz taky prahnete k fanATIsmu nebo co? Hlavne kdyz se tedka NVIDII dari jako nikdy jindy? Urcite to nebude tim, ze je G71 nepovedeny cip. Trochu zapojim mozek nez neco napisu.
aDDmin [Zobrazit profil] [Poslat zprávu] - DigitalDooM 2006-11-13 14:54:59
avatar
[B] Možná by si to chtělo sundat zelené nVidia brýle než něco podobného napíšu pane drnoha ...

Napsal jsem,že G71 je spíše nepovedeným chipem nikoli, že by byl přímo špatným a mám pro to rozhodně argumenty

1, havní vývojář nVidia sám přiznal, že na G71 udělali spoustu chyb, které na G80 napravili to je myslím velké připuštění, že G71 není tak skvělý, jak vy si myslíte ...

2, G71 má od počátku problémy, ano výkon ji nechybí, ale bohužel byl brzy převálcován ATI a navíc mainstreamová varianta 7900GT trpěla obrovskými problémy, kdy sehant ji bylo po několik měsíců nadlidský úkol ..

3, ATI ji nakonec totálně převálcovala, nutno dodat, že to bylo hlavně kvůly cenové politice. 7900GTX byly za své ceny totálně neprodejné, stejně jako 7900GT. X1950XTX(X1900XTX) a X1950PRO(X1900GT) nabízeli a nabízejí za lepší ceny podstatně více. Ano máte pravdu, že nyní nVidia trochu zabrala - vydání velmi nepovedené 7900GS je sice další mínus pro G71, ale 7900GTO je skvělým počinem. Nicméně trochu pozdě ..

4, Stále to však nemění to, že G71 je spíše nepovedeným čipem už od počátečního návrhu - a nVidia to věděla - spoléhala na pomalejší rozjezd her nového typu - bohužel pro ni se rozjely mnohem rychleji a mnohem pokrokovější ATI ji strčila do kapsy. Nvida G71 neumí pořádně pracovat s HDR a už vůbec ne s vyhlazováním natož s HDR a to je velikou chybou, protože dnešní hry ho přímo vyžadují - výkon i nejlepších nVidií s HDR a AA ve vysokých rozlišeních vůbec nekonkuroval ATI. Proto je G71 jako higendový čip spíše nepovedeným rozhodně nesplnil očekávání ani samotné nVidie ... navíc když i v Quad SLI utrpěl od dvou ATI v CrossFire porážku - jak by G71 mohl být povedený?

ALE TO VŠE JE MINULOST MÁME TADY G80 A ZDE JE VŠECHNO JINAK ! NVIDIA SE POUČILA A G80 JE VYNIKAJÍCÍM CHIPEM, KDE NENÍ ZOPAKOVANÁ STEJNÁ CHYBA SE ZDRŽENLIVOSTÍ V NÁVRHU, JAKO U G71. TAKŽE JAKÁ FANAatiSMUS? - pochválím nvidii a pořád jsem za fanatika, tady si prostě člověk nevybere ...
enc0re [Zobrazit profil] [Poslat zprávu] - Chybička 2006-11-13 15:20:53

V parametroch x1950xtx máte chybu. Pamäťová priepustnosť by mala byť 64 GB/s a nie 49.6GB/s. To len tak, dobré čítanie.
cch [Zobrazit profil] [Poslat zprávu] - bože 2006-11-13 15:56:52
avatar
už běšte někam s tim věčným ati- nvidia někam. dnes je nahoře nv, zítra to bude ati a pozítří bych typnul zase nv, ale pak jí to vyfoukne ati. jak na houpačce a pořád dokola. tak by mě zajímalo jak se jmenuje úchylka která onačuje "nvidiistu" a "atistu".....
PUCIVAL [Zobrazit profil] [Poslat zprávu] - HALO DIGI ... 2006-11-13 16:07:03

Pane DigitalDooM, v hre Most Wanted testujete totalne s max. detailmi t.j. aj so shadows?
Krtek [Zobrazit profil] [Poslat zprávu] - no že by zázrak... 2006-11-13 17:17:40
avatar
Co jsem viděl testy všude možně... rozplývaj se nad tim ale mě to jako extra zázrak nepřipadá. Skoro nikde nebyla GF8 alespoň 2x rychlejší než nejrychlejší GF7 a to je zatraceně málo vzhledem k době vývoje, ceně a spotřebě.
Obrázky srovnávající DX10 nebo nový možnosti... sorry ale to jsem viděl už při uvádění GF4 s DX8 oproti DX7.
Rentigo [Zobrazit profil] [Poslat zprávu] - menší kritika 2006-11-13 17:19:51

Zdravím, tak sem to přelouskal :-). A protože kritika je důležitá v zdokonalováni sebe sama takže:
1) Celé mi to připadá jako přepsané z PCtuningu, jsou tam pasáže téměř jako by z oka vypadly. Když sem přečetl článek na žive, či na SHW, tak sem onen pocit neměl… Těžko to nějak dokazovat. Ani nečekám odpověď ;-).
2) Že to nebude „vysoce“ odborné a nebude se tady zabíhat do detailů beru, ale že o tom budeš psát několik vět opakovaně na každé stránce je trochu přehnané, nemyslíš? Čtenář se třeba nechce dočíst odborné řeči, ale aby zase četl v každém odstavci jak se v těch termínech „vyžívaj“ na jiných serverech…
3) Citace: „Což přiznala nedávno i Nvidia s tím, že se z chyb poučila“
Nepopírám to tvrzení, ale trochu mi uniklo to samotné prohlášení. Kde se to konkrétně píše, nebo kde to Jen-Hsun řekl?
aDDmin [Zobrazit profil] [Poslat zprávu] - DigitalDooM 2006-11-13 18:44:14
avatar
[B]
Tak popořádku ...

NFS MW - testujeme na plné detaily se vším co jde zapnout tedy i stíny

ad kritika - samozřejmě beru i když jsem ji čekla musím ji odmítnout.
1, Článek na PCT jako i na mnoha a mnoha jiných webech jsem četl. Upřímně nikde nepopisují nic odlišného alespoň ty větší weby to mají napsané jak přez kopírák. Vím kdo stojí na české poměry za slušným článek na PCT a z jeho vědomostí také čerpám, ale rozhodně to není přeipis či opis dokonce ani inspirace. přiznávám, že jsem čerpal ze stejných materiálů a také z jednoho serveru (anandtech). A při vší úctě k PCT na anandtechu je toho mnohem více k dané problematice. Z PCT jsem vůbec nečerpal a pokud naleznete stejné pasáže o čemž notně pochybuji, tak jen z toho důvodu, že se to jinak říci nedá. Ten pocit máte právě z toho důvodu, že už jste to četl a já vám prostě dost dobře nemohu sdělit nic nového a jiného.

technická data uvést mohu, ale pak to bue skutečně jak na jiných serverech a já osobně je nepokládám za důležitá, ta upozornění jsou tam proto, aby po nich nikdo nepátral v mém článku.

co se týká pana jen-sun, možná vám ten rozhovor utekl, ale mě ne. Možná ho ještě dohledám - nicméně hovořil v něm právě o G80 a předchůdcích - samozřejmě jeho slova nutno brát s rezervou nVidia musí G80 dobře prodat a tak prohlášení, že G71 se nepovedlo a G80 je mnohem lepší se dalo čekat Ale myslím, že důvody proč jsem to tak napsal jsou jasné a jasně jsem je uvedl Díky za reakce snažil jsem se právě o jednoduchost podání informací bez zbytečných technických udajů a podrobností, to myslím jinde není - pokud mi to nevyšlo tak pardon - snad příště
[/B]
Yngwie [Zobrazit profil] [Poslat zprávu] - Pokud uz opisuju z PCT tak to 2006-11-13 20:07:38

Omlouvat se za kritiku nebudu, protoze clanek je plny blabolu a autor se velmi inspiroval teoretickou casti predevsim Jiriho Soucka...bohuzel vsak ne zcela pochopil jeji obsah.

Zamysleni nad zbytecnosti 64TMUs je usmevne, kdyz v dalsi kapitole autor vyzdvihuje prinos kvalitniho AF s plnym trilinearnim filtrem...pan autor asi z clanku na PCT nepochopil, ze se na tom podileji predevsim ony TMUs (32 s adrsovaci jednotkou a 32 bez ni prave pro pripady jako je AF s trilinearnim filtrem).

"Prostě tam ty data obíhají tak dlouho, dokud nejsou připravena k dalšímu zpracování" ... opět pro zasmání nebo k pláči?

"16 stream procesorů disponuje 4řmi jednotkami pro adresaci a 8 pro filtraci textur"...další perla

Perly o oznaceni 16xCSAA za plnohotne jsou takove mensi perlicky...ono kdyby uz autor postudoval ony weby, tak by jiste zjistil, ze u CSAA je pouzito mensi mnozstvi barevnych vzorku.

Pokud necemu nerozumim,tak radeji nepisu a pokud se inspiruju (rozumej) opisuju, tak k tomu pridam svou hrivnu a nezbastlim obsah do neceho neurciteho co ani nema cenu cist.
PUCIVAL [Zobrazit profil] [Poslat zprávu] - JESTE K Most Wanted prosim ... 2006-11-13 20:31:28

A v MW testujete v max. detailoch i napr. Radeon X1300?
aDDmin [Zobrazit profil] [Poslat zprávu] - DigitalDooM 2006-11-13 23:12:07
avatar
[B] Jsem rád že to čtou skuteční odborníci já ale musím znovu říci to, že jsem v žádném případě neopisoval z PCT, onu teoretickou část PCT jsem sice četl ale jen velmi zběžně, četl jsem ale tyto informace jinde. Snažil jsem se je podat velmi jednoduše a tak je můj článek plný nepřesností za což jsem se již v článku omluvil těm, kteří vědí o co kráčí. Nebojte, že bych neznal souvislosti - vzdělávám se v tomto ohledu rychle ...

omlouvat se za kritiku rozhodně nikdo nemusí, nikde se nezamýšlím nad zbytečností 64TMUs právě do těchto podrobností jsem se nechtěl dostat, za další nepřesnosti se omlouvám znalým čtenářům ale již v úvodu článku jsem jasně dekralovat o čem a jakým stylem článek má být ... mohu vám klidně odpřísáhnout, že jsem z PCT neopsal ani slovo ... článek jsem četl - PCT čtu stále, ale využil jsem informací z jiného webu a znalostí kolegy - také mě mlátil do hlavy za nepřesné výrazy přesně v bodech jako jste vylíčil, ale pokud si to vezmete do důsledku dá se to zjednodušit tak jak jsem to udělal já a stále to zcela chybné nebude (nepřesné a zavádějící z pohledu znalého člověka ano) a neinformovanému člověku to dá obecnou představu o což mi hlavně šlo ...

samozřejmě že tímhle článkem dojem na odborníky neudělám ale to vůbec nebyl záměr takže prosím berte to z tohoto pohledu. PCT mi již jako zdroj informací neslouží - již mám své

AD testování X1300 - ano ale v praxi to není použitelné nastavení. [/B]
aDDmin [Zobrazit profil] [Poslat zprávu] - DigitalDooM 2006-11-13 23:17:42
avatar
ČLÁNEK NEMÁ BÝT ODBORNÝM POJEDNÁNÍM O TECHNOLOGII NOVÉ KARTY. MÁ BÝT SEZNAMOVACÍ PŘEDMLUVOU POCHOPITELNOU PRO BEŽNÉ LAIKY ABY ALESPOŃ NĚJAK POCHOPILI, JAK A CO JE UVNITŘ GRAFIKY. VŠE JE TAK ZJEDNODUŠENÉ JAK JEN TO JDE COŽ MÁ SAMOZŘEJMĚ ZA NÁSLEDEK NEPŘESNOSTI A PRO ODBORNÍKY AŽ ZAVÁDĚJÍCÍ OBRTAY - OMLOUVAT SE ZA TO VÍCEKRÁT NEBUDU, UČEL I STYL ČLÁNKU JSEM DOPŘEDU DEKRALOVAL.
Hanzy *HonzaN [Zobrazit profil] [Poslat zprávu] 2006-11-14 08:38:22

Pro mě a pro mé "znalosti" byl tento článek vyčerpávající a líbil se mi, mě zajímá tak maximálně šířka pamětové sběrnice, velikost paměti,chlazení, už i velikost GK :grin a samozř výkon ve hrách,takže pro mě,jako laika, ideální článek,Děkuji
ton [Zobrazit profil] [Poslat zprávu] - test 2006-11-15 16:25:33

udelejete test gf8800 a ati x1950xtx co bude lepsi
aDDmin [Zobrazit profil] [Poslat zprávu] - DigitalDooM 2006-11-16 12:53:15
avatar
Nebojte test bude .... ale vyskytly se nějaké potíže, omlouvám se, budete to muset ještě nějakou dobu vydržet - ale pro nedočkavce - 8800GTS je lepší než X1950XTX za podobnou cenu. Taktovat ale moc nejde. 8800GTX nemá soupeře
Henk [Zobrazit profil] [Poslat zprávu] - Zase dobrej čánek 2006-11-17 07:22:22

Musim se postavit za DigitalDooma, jeho argumenty jsou stejně silný jako parametry nové Nvidie.
2Yngwie: mohl si ty "bláboly" uvést na pravou míru a tos neudělal...
Sry za PCT ale tenhle článek se sem (možná:-) hodí na 100%. Popisuje jistý Český fenomén... :grin
....pctuning.cz/index.php?option=com_content&task=view&id=4419&Itemid=54
Hanzy *HonzaN [Zobrazit profil] [Poslat zprávu] - Článek 2006-11-18 17:17:07

No tak podle mě výraz "jistý český fenomén" je nesmysl,sou to jen kecy :roll .Podle mě záleží na individualitě člověka a dovolávat se k takovým rádoby heslům je hloupost.Sme naprosto normální jako třeba naši sousedé,vždycky se najde nějakej magor a nebo normal v poho člověk,takhle to vydím a ten kdo to zpochybňuje by měl na sobě zapracovat
Libich [Zobrazit profil] [Poslat zprávu] - Nepřesnosti 2007-01-17 16:43:14

Chápu, že tenhle web není pro odborníky a sám autor se za odborníka nepovažuje, spíše vychází ze svých zkušeností a tak se to musí brát. Já bych ho za to nekritizoval. Kdo chce, tak si najde podrobně odborné články o kartě a nebude číst toto. Je to pro běžné lidi a psané čtivě a ne moc podrobně, aby se v tom člověk neztratil. Chybičky věcné i slovní v tom občas najít jde, ale autor to v diskuzi objasní nebo se to vysvětlí, od toho to je. Chápu, jak je těžké psát články a odolat kritice, web je to dobrý a s rostoucí technickou znalostí autora snad poroste nadále kvalita článků. Trochu se opakuje, ale ty hlavní laické poznatky jsou cennější než tisíc odborných termínů a slov okolo, který většina lidí brzy zapomene a také jim neřeknou. 8800 je zdařilý kousek, i když si myslím, že na trůnu se dlouho neudrží. Každopádně je jasné, že dokud nepřijde R600, tak ho z trůnu nikdo nesesadí.
Pouze registrovaní uživatelé mohou přidat komentář!