Téma: NVIDIA FERMI – nová generace grafik jde pryč od grafiky
Napsal Jan "DD" Stach   
Thursday, 01 October 2009
alt

 

 

 

Téma: NVIDIA FERMI – nová generace grafik jde pryč od grafiky

 

Společnost NVIDIA představila novou architekturu grafik, mění hodně věcí a to jak v architektuře, tak na trhu.

  • Úvodem

Marně jsem se snažil mírnit očekávání některých čtenářů, kteří po vydání grafických karet Radeon HD 5000, vyhlíželi konkurenci od NVIDIA očekávající návrat zeleného krále, slibujíc krutou pomstu všem červeným nepřátelům (i když grafiky ATI jsou ve skutečnosti stejně jako NVIDIA zelené, protože barva firem NVIDIA i AMD je zelená). Marně jsem posledních pár měsíců vysvětloval, že NVIDIA se vydává na jinou cestu, než jak jsme ji znali doposud. Marně jsem posledních pár týdnů hovořil o tom, že výroba nových grafik NVIDIA ještě ani nezačala a někteří čekáte nereálné. Pokud jste mé varování brali na lehkou váhu a těšili jste se na novou generaci grafik NVIDIA, pak můžete být po včerejším-dnešním představení společnosti NVIDIA poměrně dost zklamáni. Pokud jste mi ale věnovali náležitou pozornost, byli jste na skutečnost, co nová generace grafik NVIDIA bude zač, dobře připraveni a vaše zklamání je o dost menší.

Abychom si rozuměli, pokud mluvím o zklamání, mluvím k běžným uživatelům, kteří očekávali pokračování herních čipů G80-GT200 a pořádnou konkurenci herním grafických kartám ATI Radeon HD 5800/5700. Zklamáni naopak nebudou ti, kteří se o GPU zajímají, jako o pracovní nástroj. Právě na ty totiž nová NVIDIA cílí …

  • NVIDIA začíná novou kapitolu - Fermi

Jak už jsem vám říkal v mnoha článcích v uplynulých měsících, u NVIDIA se hodně věcí změnilo. Vývoj čipu samozřejmě není otázkou jednoho roku. Je to běh na dlouhou trať, a zatímco v loňském roce se na trh dostalo GT200, jako zdvojené G80, současně už běžel dávno vývoj toho, co NVIDIA představuje dnes. Nicméně NVIDIA během té doby změnila svého šéfa vývoje, jehož jmenování už mohlo mnohým hodně napovědět. Navíc tento profesor ze Standfordu už s NVIDIA spolupracoval delší dobu a tak byl směr dalšího vývoje NVIDIA poměrně přesně odhadnutelný.

(Enrico Fermi)

Nová kapitola pak nese název FERMI, který unikl před pár dny na veřejnost. To je opravdu označení pro novou architekturu, samotný čip ještě označení nemá. Proč FERMI a co to je? Ti kdo vědí, co je to FERMI vědí zároveň jakou cestou NVIDIA míří. FERMI není věc, Fermi je jméno jednoho z nejslavnějších fyziků 20.století. Enrico Fermi byl významným průkopníkem na poli jaderné fyziky a jako první představil a předvedl jaderný reaktor. Pojmenování Fermi je tedy nejen na počest tohoto vědeckého velikána, ale i jasným označením toho, kam NVIDIA a její nový čip míří.

Ačkoliv jsme rozhodně zaměření spíše na existující produkty a technologie, které můžeme jako běžní uživatelé využít, nelze FERMI ignorovat, protože hodně napovídá o tom, kam se segment s grafikami bude ubírat a vůbec to, jak bude grafických trh v následujících týdnech a možná letech vypadat. Podívejme se tedy krátce na to, co nová architektura NVIDIA Fermi představuje a také se na ni podívejme okem běžného uživatele …

  • NVIDIA Fermi – zrozen pro GPGPU

Abychom pochopili, kam se to NVIDIA s novou architekturou vydala, musíme si říci něco o tom, co je to grafická karta, k čemu slouží, k čemu může sloužit a tak dále.

Grafické karty jako samostatné jednotky fungovat nemohou. Jako takové byly od nepaměti předně pro vykreslování obrazu na monitor, posléze na ně byly kladeny větší nároky a lidé najednou chtěli, aby to umělo nejen vykreslit věci na monitor, ale dokonce to i něco spočítat, což dalo vzniknout prvním paralelním čipům. Ty byly pořád ale příliš slabé a poměrně složité na programování, protože se aplikace museli psát jim na míru. Postupem času se začaly objevovat standardy jako DirectX9 a dnes neméně zlomové DirectX11 s DirectCompute, vedle kterých stojí ještě OpenCL. Důraz je tedy kladen nejen na vysoký herní a aplikační výkon, ale také na programovatelnou architekturu grafik.

Současné grafické karty poskytují neuvěřitelný výkon a v některých aplikacích a oblastech, kdy je jejich architektura a možnosti daleko lepší než klasických procesorů, je jejich výkon mnohonásobně vyšší. Napsat pro ně aplikace však nebylo bez existence standardů jednoduché. API DirectX je jen první vlaštovkou, posléze se objevily první GPGPU prostředí, a tím prvním nebylo CUDA společnosti NVIDIA, ale ATI STREAM. CUDA přišla až potom. Obě prostředí, ačkoliv v zásadě řeší úplně to samí, jsou ale navzájem nekompatibilní – přesto dnes obě používají jako základ jazyk C. NVIDIA nakonec došla se svým CUDA nejdál, ale CUDA se nikdy všeobecným standardem GPGPU nestala a pravděpodobně se ani nestane. Tím první standardizovaným GPGPU prostředím se nakonec stává otevřený formát OpenCL.

Nyní, když tedy máme obecný uznaný standard paralelního prostředí a jazyka, zbývá přijít s hardwarem, který poskytne pro GPGPU aplikace nejen dostatek výkonu, ale i plně programovatelnou architekturu. A to je to, co si dala NVIDIA za úkol a to, co má přinést architektura Fermi.

  • Od G80, přes GT200 a ž po Fermi

Jádro NVIDIA G80 bylo přelomovým jádrem v oblasti grafik vůbec. G80 bylo prvním grafickým procesorem, který podporuje programování jazykem C díky rozšíření CUDA GPGPU. To značně zjednodušilo programování aplikací pro grafiky samotné.

G80 ale také bylo prvním čipem, který obsahoval místo klasických Vertex a Pixel shader unifikované výpočetní jednotky, nesl také speciální skalární procesor, který rozděloval úlohy registrům. G80 uměl také jednu instrukci rozdělit díky unifikovaným jednotkám do více vláken a její zpracování se tak urychlilo. Samozřejmě jádro G80 nebylo jediné grafické jádro na světě, které to umělo, architektura ATI R600 ze které vychází jak RV670 a RV770, tak i RV870, umí a uměla to samé, unifikovaná architektura byla požadavkem pro DX10 atd.

Čip G80 následoval čip GT200. Ten nebyl to nejpovedenější, co NVIDIA kdy vydala a dnes už to začíná opatrně přiznávat. GT200 je v podstatě jen zdvojeným G80 a samotná architektura zůstala stejná. GT200 šlo jen cestou větší síly a větších parametrů, největší novinkou byl výpočetní výkon tzv. Double Precision, který je určující pro mnohé výpočetní vědecké aplikace, u GT200 však nebyl příliš dobrý. GT200 mělo řadu omezení a celkově zdaleka nesplnilo to, co si od něj NVIDIA slibovala. Navíc se NVIDIA musela sklonit před RV770, které na tom bylo nejen v mnoha ohledech výkonově, ale hlavně architektonicky a z hlediska nákladů na výrobu daleko lépe.

A zde přichází Fermi. To je čip, který sice má s GT200 některé věci společné, v zásadě je to ale zcela nová architektura, která přichází s konkrétními vylepšeními pro konkrétní účely. NVIDIA už nemluví o herním výkonu atd. NVIDIA mluví o výpočetním výkonu. A právě tento čip a tuto architekturu NVIDIA právě představuje …

 

  • NVIDIA Fermi – jádro

Je čas se na ten zázrak podívat. Jádro Fermi zatím nemá jasné označení. Tedy pokud jde o číselné označení, zda to bude GT300, což se nyní jeví dost nepravděpodobně, nebo GF100 se teprve ukáže. Jasno v tom ještě nemá ani NVIDIA, stejně jako u řady jiných věcí. Jádro FERMI je totiž horká novinka a v současnosti jeho výroba ještě ani neběží a všeho všudy existuje pár testovacích kusů pro účely samotné NVIDIA.

  • Specifikace

NVDIA ale odtajnila některé specifikace. Potvrzuje se to, že jádro nese celkem 3,2 miliardy tranzistorů, což je 2x tolik, co mělo GT200. Jádro je vyráběno 40nm, stejně jako konkurenční RV870, které nese na ploše 330mm2 celých 2,15 miliardy, což není o moc méně. Přesto ale bude jádro Fermi opět větší a tedy nepochybně i výrobně o dost dražší a náročnější než to od ATI.

V jádru je nově 512 SP jednotek, které už se nejmenují SP, ale CUDA procesory. V GT200 jich bylo 240. Celé jádro se dělí na 16 SM jednotek po 32 CUDA procesorech a 4 SFU procesory. Tohle nás ale jako běžné uživatele moc zajímat nemusí, snad jen se hodí vědět to, že s jádra FERMI se 16 SM jednotkami se časem budou rekrutovat menší čipy pro levnější grafiky. Můžeme očekávat jádra třeba jen s 12/8/6/4 SM jednotkami po 32 CUDA procesorech což nám dá nějakých 384/256/192/128 jednotek v každém jádru.

Jádro FERMI má v základu 384bit sběrnici a řadič pamětí je samozřejmě nativně GDDR5 a jádro jich nese hned 6. Umí maximálně obsloužit 6GB pamětí. 384bit sběrnice byla zvolena proto, že jádro už je samo o sobě dost drahé a NVIDIA se poučila z GT200 a jeho 512bit, kdy prostě výroba PCB s takovou sběrnicí se výrazně prodražuje a protože Radeon HD 5000 má stále jen 256bit, nechce opakovat stejnou chybu jako u GT200 vs RV770. Navíc použije konečně rychlé GDDR5 paměti a 384bit sběrnice je v tomto případě více než dostatečná a je lepším řešením než GDDR3+512bit. U herních modelů můžete počítat s pamětí o velikosti 1,5GB.

A teď něco k výkonu. Samotná NVIDIA toho v této oblasti mnoho neprozradila, což je proto, že toho sama zatím o moc víc neví. Jádro je příliš nové a zatím se vše zjišťuje. V zásadě se ale NVIDIA soustředila hlavně na zvýšení výpočetního výkonu a to zejména v Double Precision výpočetním výkonu, který je pro ni a vědecké aplikace, kam chce proniknout důležitější. Ten by měl být podle informací, které NVIDIA zveřejnila, asi 4x vyšší než u GT200 a tato informace velké ovace nevyvolala. Výkon GT200 v režimu double precision je totiž pouze 78GFLOPS, FERMI tak má nějakých 312GFLOPS. Proti GT200 velký pokrok, jenže konkurenční RV870 má na HD 5870 výkon celých 544 GFLOPS v Double precision! A to vůbec nemluvíme o Singl precision, který je u HD 5870 plných 2730GFLOPS a FERMI má „jen“ nějakých 1536GFLOPS. Bohužel tyto hodnoty výpočetních výkonů jsou u FERMI dosti nejasné, NVIDIA uvádí jen to, že výkon Double precision je u FERMI asi 4x lepší než u GT200, zbytek jsou jen dopočty. 4x lepší než u GT200 znamená konkrétně tedy něco přes zmiňovaných 300GFLOPS, ale slyšel jsem i čísla kolem 712, 1250 i více než 2000GFLOPS, jenže o jaké základy se opírají, těžko říci. Čistě teoreticky pokud 30 jednotek v GT200 zvládne výkon 78GFLOPS, pak 256 ve FERMI zvládne 665GFLOPS, pokud by mělo být FERMI 4 lepší, pak by to mohlo být až 2660GFLOPS! Ale to je spíš výpočetní fantazie než reálné výpočty.

V současnosti to už jsou spíše jen babské řeči – neznáme totiž takty jádra, pamětí ani nic další a ty zatím vůbec jasné nejsou, protože karty se ještě ani do finální výroby nepřipravují! Zatím se hodnoty kolem 1,6TFLOPS / 330GFLOPS jeví jako nejpřesnější a to není proti ATI RV870 na HD 5870 s jeho současnými 2,73TFLOPS / 544GFLOPS zrovna výkonová drtička.

Záležet tak evidentně bude i na dalších schopnostech architektury FERMI, které jsou pro určitá použití a oblasti opravdu přelomové. Podívejme se tedy na to, co konkrétně FERMI umí a dokáže.

 

  • NVIDIA FERMI – novinky a inovace

Architekturu jádra jsme nakousli v předcházející kapitolce, teď si jí tak nějak po lopatě dokončíme s tím, že si řekneme, co vlastně FERMI přináší za ty inovace. Samotná výpočetní jednotka se hodně změnila.

FERMI obsahuje vlastně třetí generaci Stream Multiprocesoru, těch je v jádře hned 16 a z čeho se skládá nově CUDA procesor? Nese v sobě jednu ALU jednotku a jednu FPU jednotku – jedna pro aritmetické výpočty a druhá pro výpočty s plovoucí desetinou čárkou. Nutným vylepšením bylo přidání podpory nejnovějšího standardu pro programovatelné výpočty, kterým je IEEE 754-2008, který podporují samozřejmě i grafické karty ATI Radeon HD 5000. Ten je základem nové generace GPGPU a kromě jiných věcí výrazně zpřesňuje výpočty.

FERMI také nově používá přesnější funkci (FMA) pro výpočty a to jak pro Double precision, tak pro singl precision, což je posun k lepšímu a větší přesnosti výpočtů. Zrychlení výpočtů pak má na starosti přidání jedné speciální jednotky, které byly u GT200 jen tři. Ve FERMI je jedna navíc a navíc mají poněkud jiné uspořádání, co se týká jejich řízení a tak by mělo být jejich využívání daleko efektivnější. Což ve finále opět znamená rychlejší dokončení požadovaných výpočtů, než tomu bylo u GT200.

Hlavní změnou v architektuře jednotek je ale přidání a zrychlení vyrovnávacích pamětí (Cache). V GT200 měla každý SM blok s jádry k dispozici jen 16kB paměti, ve FERMI už má každý blok rovnou 64kB, která je navíc programovatelná a dělitelná pro požadavky konkrétních aplikací. Ve finále tedy opět vyšší výkon co se operací s pamětí týká.

Přibyla navíc ještě další L2 paměť o velikosti plných 768kB, což by v některých oblastech mělo znamenat až 20x větší výkon než u GT200. NVIDIA uvádí, že díky tomu se reálně výkon v PhysX demu zvýšil 2,7x proti GT200. Tohle dává jistou naději na zvýšení výkonu, pokud grafika bude zpracovávat najednou grafiku i fyziku, jak se to NVIDIA právě snaží prosadit. Nicméně větší paměť samozřejmě pomůže mnoha dalším aplikacím.

Pro profesionální segment je také důležité nasazení podpory ECC pamětí. ECC je systém kontroly dat, ta sice výkon jako taková vlastně snižuje a na druhou stranu hlídá, zda je vše v pořádku a to je v profi sféře klíčové. ECC technologii běžně používají servery, TESLA, která se o proniknutí do Profesionálního segmentu snažila právě na úkor serverů, ale narazila právě na to, že ECC neměla. FERMI už je toto technologií vybaveno a díky dalším změnám v architektuře čipu samotném má právě toto být tím rozhodujícím, co posune GPGPU technologii dál.

Poměrně zajímavou funkcí je jistě i GigaThread, tedy vlastně souběžný běh jednotlivých výpočetních vláken a to kolik jich může najednou běžet, jak jsou organizovaná a jak se mezi nimi přepíná. G80 umělo najednou zpracovat nějakých 12288 vláken, GT200 pak už 30720. FERMI pak umí 24 576. Než začnete někteří panikařit, že FERMI je slabší než GT200, není tomu tak. Ano reálně sice zvládne najednou méně vláken, ale za to s větší efektivitou. Přepínání mezi úlohami je prý 10x rychlejší a to konkrétně mezi 3D úlohou a GPGPU, jinými slovy se tedy věci dějí rychleji a ve výsledku z toho tedy kouká vyšší výkon a efektivnější využití systémových prostředků. Jinými slovy, FERMI grafika by měla daleko lépe zvládat to, když jí najednou budete zaměstnávat vykreslováním herní scény a výpočtem herních fyzikálních efektů.

Je ovšem otázka, zda je nutné jí tím obtěžovat, NVIDIA, která ale nemá procesory a snaží se PhysX prosadit i přes mrtvoly přes GPU, si myslí, že ano. Na druhou stranu mnozí programátoři vidí i mnohé další využití lepší správy prostředků. FERMI totiž umožňuje i spuštění věcí programových jader najednou, což u předchozích jader možné nebylo. Tím už se v podstatě začíná podobat procesoru. A když jsme u toho …

  • Programování FERMI

Právě zde je asi největší inovace a důvod toho, proč se nové GPU tváří spíše jako CPU. NVIDIA FERMI podporuje OpenCL a DirectCompute, obojí je ale podobné vlastně stávajícímu CUDA, takže to žádné překvapení není. Co je nové je podpora instrukční sady paralelních vláken PTX 2.0. Nemá cenu si nějak podrobně vysvětlovat, co to je, protože nás to jako běžné uživatele vlastně ani moc nemusí zajímat. Bylo by ale dobré vědět, že právě tohle je základem nabídky FERMI architektury z hlediska programování.

PTX 2.0 je unifikovaná sada instrukcí, která sjednocuje rozdělení adresní prostory, což výrazně zjednodušuje programování v mnoha směrech. Navíc jako taková podporuje C++, samozřejmě to ale neznamená, že programy psané pro X86 procesory rozjedete na FERMI grafice. To opravdu ne. Znamená to ale, že se takový programátor nemusí v podstatě učit zcela nový programovací jazyk a muže vytvářet snadněji programy v C++ optimalizované pro grafiku. Samozřejmě celá věc je poněkud složitější, odborníci odpustí, a nám ostatním to pro představu bohatě stačí.

Ještě než programování opustíme, ukažme si alespoň ještě novinku, kterou NVIDIA spolu s FERMI vypouští. Tím je vývojové prostředí s názvem NEXUS. To je navrženo k podpoře masivně paralelních aplikací psaných v podporovaných GPGPU jazycích jako je CUDA C, OpenCL nebo DirectCompute. NEXUS přináší spolupráci s Micrsofto Visual Studia a umožňuje tak snáze vývojářům pracovat, vyvíjet a analyzovat programy psané pro GPU stejně, jak to dělali s programy pro CPU. NEXUS umožňuje vývoj aplikací využívající, jak CPU, tak GPU právě programování a toto nové vývojové prostředí je důvodem proč je alespoň jedna skupina uživatelů nadšena z nové architektury FERMI.

Pro běžné uživatele z toho ale kromě prvních aplikací, které skutečně budou využívat plně výhod CPU i GPU, nic dalšího nekouká. Každopádně FERMI by mělo skutečně posunout GPGPU o dost dál …

 

  • Kam ta NVIDIA jde aneb hodnocení FERMI?

Některým už může jít trochu hlava kolem ze všech těch ALU jednotek, cache,CUDA jader, paralelního programování a podobně, a to jsem to opravdu zjednodušil, jak jen to šlo. Pokud chcete plnou dávku toho, jak to vlastně celé funguje, pak doporučuji tento dokument.

Nás běžné uživatele ale samotná architektura příliš nepálí. Nás zajímá, kdy si nové grafické karty budeme moci koupit a jaký to bude mít výkon zejména ve vztahu ke konkurenci. Už na začátku jsem řekl, že pokud jste mě ignorovali v posledních měsících a týdnech ohledně varování, že NVIDIA se vydává jiným směrem, budete zklamaní. Stejně tak jsem vás varoval, že výroba nového jádra nejde hladce a skutečná konkurence grafikám ATI HD 5000 je dál, než si myslíte. Opět ti, kteří neposlouchali, budou dost zklamaní. Realita je tedy přesně takováto:

Jádro FERMI je sice v podstatě vlastně hotovo a na samotné architektuře se nedá moc měnit. FERMI je ale ve fázi, kdy se teprve připravuje a dolaďuje pro samotnou výrobu! Neexistují ještě finální specifikace karet a jakékoliv bližní údaje o výkonu. Samotné grafické karty jsou jen ve formě předvýrobních sample pro předvýrobní sample, na kterých testuje samotná NVIDIA základní funkce a připravuje finální specifikaci jádra pro výrobu.

(Jedna z první Fermi TESLA grafik)

V současné fázi by NVIDIA vůbec jádro FERMI nevytahovala a na veřejnosti neukazovala, kdyby nemusela! Problém je, že NVIDIA má doslova prázdné ruce, co se týká současného grafického trhu a nabídky grafických karet proti HD 5000, které jsou výkonnější a dostupnější více a dříve než se čekalo. Všichni vědí, že současná generace grafik GT260/275/285/295 je vydáním HD 5000 prostě mrtvá. Všichni tak tlačili na to, aby NVIDIA něco ukázala a tak ukázala to, co v současnosti má a to je FERMI, které vlastně ani nemá.

NVIDIA dala nový význam obratu papírového vydání, kdy je běžné, že se představuje grafika, jejíž reálná dostupnost je nevalná. NVIDIA včera a dnes představila produkt, který ještě není ani ve formě grafických karet a v podstatě je teprve na začátku instalace na samotné grafiky a to bude ještě minimálně 2 měsíce trvat! Tedy za předpokladu, že všechno půjde dobře, což ale rozhodně nejde, protože výtěžnost 40nm FERMI je vážně mizerná. Každopádně podle poměrně přesných informací, které jsou k dispozici, se testovací sample neobjeví dříve, než na konci listopadu, nebo na začátku prosince. Od toho je ale pořád daleko uvedení reálných grafik do obchodů, natož uvedení nějaké konkurence k HD 5800/5700 modelům. NVIDIA vůbec nechce o nějakém konkrétním datu uvedení mluvit a na rovinu se tak mluví o tom, že až leden nebo spíše únor 2010 je opravdu reálné datum. Ale i to jsem vám na základě svých informací říkal už před týdny a měsíci, že to tak dopadne, opět někteří nevěřili a tak mohou být kvůli svým přehnaným očekáváním, zklamáni.

  • NVIDIA vs ATI

Hlavní otázka je, jak výkonné případně grafiky NVIDIA budou, za kolik budou a jak si budou stát proti ATI HD 5000. V první řadě je jasné, že na trhu dojde k něčemu, co jsme tady už dlouho neměli. Vzdáleně to může připomínat situace s vydáním G80 (8800GTX), kdy ATI ještě dlouho nic podobného neměla, jenže to je jen slabý odvar. Nyní se situace obrátila, a pro NVIIDA je daleko vážnější. ATI totiž nezačíná s High endem, kam mířila 8800GTX, ATI začala v mainstreamu a bude pokračovat oběma směry. Do konce roku obsadí novými grafikami segmenty 100 – 200 dolarů, ale také 200-400 dolarů (ten už má) i segment nad 400 dolarů. A chystají se i mobilní verze. NVIDIA nemá doslova nic, co by mohla nabídnout. Rozhodování, kterou grafiku koupit v následujících týdnech a měsících je tedy poměrně jednoduché.

Ale ani vydání FERMI grafik nemusí pro herní grafický trh nic moc znamenat. FERMI a NVIDIA totiž jasně kráčí cestou od GPU k CPU, a hlavně NVIDIA jasně cílí na profesionální segment a proti Intel Larabbe, či spíše proti procesorům Intel i AMD. Proč?

1, Profesionální segment skýtá pro využití GPGPU obrovský potenciál a velkou příležitost vydělat (marže jsou tam daleko větší než u desktopových grafik). Navíc vývoj je jasný grafiky a procesory se nám přibližují. NVIDIA na to jde od GPU, protože nemá CPU, Intel na to jde od CPU (Larrabee), protože zase nemá výkonné GPU. AMD je jediné, které má jak výkonné GPU, tak výkonné CPU a na jeho směřování je to vidět, pomalu ale jistě obojí přibližuje a markantní to bude u FUSION i nové architektury procesorů Bulldozer, která nahradí letitou K10, což je vlastně K8, která tu s námi je už pěkných pár let. Budoucnost využití grafik pro výpočty je jasná, ale ještě jasnější je cesta, kdy počítače a aplikace pro ně budou využívat souběžně možností CPU i GPU a FERMi je toho jasným důkazem, totéž je ale i platforma AMD-ATI dohromady, kdy AMD už před nedávnem představilo podporu STREAM a OPENCL pro své Procesory i Grafiky.

2,NVIDIA zdá se pouští herní klasický segment grafik lehce k vodě. A to proto, že se na něm nedá uživit. Ještě před pár lety byly příjmy za kvartál nějakých 5 miliard dolarů z celého grafického desktopového businessu, dnes, ačkoliv počet prodaných karet vlastně neklesá, příjem klesl na 2 miliardy! Z toho se opravdu financovat vývoj GPU čistě pro grafiku nedá.

Jak výkonné budou vlastně NVIDIA Fermi grafiky (až tedy někdy vyjdou) proti ATI HD 5000? Pokud vám někdo tvrdí, že to ví, tak kecá. Čísla jako 50-100% proti GT200 jsou v současnosti cucána z prstu a všichni jen odhadují. Odhadovat to lze z výpočetního výkonu, a to co vychází, se nám moc nelíbí. Osobně si myslím, že když budete mít jednojádrová FERMI grafika výkon na úrovni GTX 295, možná lehce nad, bude to reálné, jenže na HD 5800 to nestačí, to nabízí stejný herní výkon už dnes a za cenu, které se NVIDIA vyrovnat nebude moci. Otázka jsou navíc DirectX11 hry, kdy NVIDIA o věcech jako Tesselace a podobně raději vůbec nemluví, protože FERMI nemá tesselátory, a další věci. Podporu DX11 má, ale některé věci bude dělat emulací přes své složité jednotky a to proti specializovanému RV870 od ATI stačit dost dobře prostě nemusí. Neznáme ani to jak FERMI přistupuje k AA/AF atd.

Raději v tomto směru moc neočekávejte, o to menší zklamání, nebo naopak případně větší může být vaše překvapení. Každopádně FERMI moc herně nevypadá a NVIDIA o tom také jako o herním čipu vůbec neumí. Hry to bude umět, ale není to hlavní. Z výkonového hlediska v určitých GPGPU aplikacích by ale FERMI nemuselo stačit ani výkonově. RV870 je skvěle připraveno na podporu OpenCL a DirectCompute a jeho výkon 2,73TFLOPS vypadá zatím nedostižně. FERMI cílí na určitou skupinu programátorů do určité oblasti z hlediska svého přístupu k programování, kde má evidentně náskok před ATI, a kde může mít velký úspěch, ale také nemusí. To vše ukáže až čas, představení FERMI je opravdu hodně předčasné a ačkoliv řada věcí vypadá z hlediska programátora GPGPU jako bomba, ještě nikdo si to v reálu vlastně nevyzkoušel, a na papíře vypadá dobře kde co.

Každopádně FERMI je možná velkým přelomem ať už z hlediska konstrukce GPU, vývoje GPGPU a nebo z hlediska poměrů a vývoje grafické trhu na několik dalších let. V podstatě ale v současnosti nevíme téměř nic o grafikách jako takových a než se jich na trhu dočkáme, uplynou ještě měsíce. Pro v současnosti již na trhu dostupné ATI Radeon HD 5000 grafiky, není ale NVIDIA FERMI nic, čím by se měly nějak znepokojovat – minimálně do prodejů v roce 2009 nemají šanci zasáhnout. Až to bude dostupné v roce 2010, ATI už bude pomalu připravovat lehce upravené verze RV870 (RV890?), a až se objeví nějaký mainstream založený na FERMI (čekám až někdy v květnu-červnu-červenci 2010), to už dokonce můžeme mluvit o připravované zbrusu nové architektuře a grafické generaci ATI karet, která bude nahrazovat tu v současnosti novou RV870 …

 

 

AUTOR: Jan "DD" Stach
Radši dělám věci pomaleji a pořádně, než rychle a špatně.

Starší články


Komentáře
Přidat Nový
negru.inger [Zobrazit profil] [Poslat zprávu] 2009-10-01 15:31:42
avatar
co k tomu rict, na grafickym trhu zavladne monopol zvany ATI, protoze pokud je tohle vsechno pravda a nVidii to opravdu vyjde, tak nebude mit smysl pro ni se na herni trh vubec vracet... proste nam nVidia prechazi do jineho segmentu, a pro nas pro hrace to tak znamena predrazeny ATI karty a jedna jedina firma urcujici vyvoj... obavam se ze se treba uz ani nedockame rady 6xxx pristi rok, ale mozna taky az v 2012, protoze ATI nic nepotlaci k vyvoji dalsich karet... chjo, zacinam mit z tyhle situace jako naruzivy hrac docela strach...
1.legionar [Zobrazit profil] [Poslat zprávu] 2009-10-01 15:45:52

Zas tak šedě bych to neviděl. NVIDIA se tlačí do jiného segmentu, ale to neznamená že se na herní vysere jelikož tam nebude mít takové prodeje, pač je přece hráčů víc než ti kteří budou kupoivat grafiku na nějaké aplikace atd. Hold jeden segment není atraktivní, když se to tak vezme AMD šlo z procesorů na grafický trh tím, že koupilo ATi. Vše nám ukáže až čas
Trace4x10 [Zobrazit profil] [Poslat zprávu] 2009-10-01 15:50:23
avatar
Konec hraní na NVidia nás určitě nečeká, ale mě se zase nelíbí představa, že bych si za určitý peníze koupil jejich kartu a věděl, že nějakých 40 - 50 % potecniálu vůbec nevyužiju, protoze to bude ta část uřčená na výpočty, který mě nezajímají, mě totiž zajímá herní výkon. Takže např. karta za cca 6000,- od NV mě vyjde dráže než karta za 6000,- od ATI.
J.C.Denton [Zobrazit profil] [Poslat zprávu] 2009-10-01 15:54:53
avatar
kdyz nabidne nv za 6k stejnou porci herniho vykonu jako ati za 6k, tak v tom zadnej problem nevidim. kdyz bude nvidia o polovinu slabsi a za stejnou cenu tak by ji pak koupil jen blbec...
Trace4x10 [Zobrazit profil] [Poslat zprávu] 2009-10-01 20:28:10
avatar
To je koneckonců fakt. Jenže mam furt takovej blbej pocit, že jako čistě herní karta by mohla být levnější. Ale taky je fakt, že s čistě herní kartou by díru do světa neudělali. Na co taky vyvíjet čistě herní kartu s famózním výkonem, když ho momentálně nikdo nepotřebuje. Myslim si, že taková HD 5870 rozhodně nebude mít takovej úspěch jako HD 5850. No, uvidíme, jak budou vypadat nový karty - hlavně výkon a cena.
negru.inger [Zobrazit profil] [Poslat zprávu] 2009-10-01 21:54:51
avatar
podle me je vykon zabrzdenej hlavne proto, ze neni pro co vyvijet hry, jen se podivej, mame tu prvni vlastovku v podobe DX11 karty a hned na ni maj vyjit tri hry behem prvniho pul roku, a verim ze takovy AVP3 da 5870 zabrat i tak... jakmile budou mit vyvojari prostor v HW kam jit, verim ze budou radi vyvijet hry aby ten vykon vyuzili...samozrejme ale nebudou vyvijet hry ktery pujdou plynule jen na grafikach za 10k
Bobulák [Zobrazit profil] [Poslat zprávu] 2009-10-01 23:46:24
avatar
Jenže tady máme konzole a pokud vím, tak ty brzdí vývoj ze všeho nejvíc.
negru.inger [Zobrazit profil] [Poslat zprávu] 2009-10-02 00:50:42
avatar
Mno, to je problem cislo jedna, ale jak nam ukazuje Crytek, tak se da vyvijet up-to-date engine pro PC a pak ho jen osekat pro funkci na konzole... myslim ze tohle by byla spravna cesta pro a spokojeni by byli vsichni...
siddhi [Zobrazit profil] [Poslat zprávu] 2009-10-02 00:57:26
avatar
konzole do toho nepleť. Je to jenom o tom že není ochota a peníze na vytváření kvalitních PC titulů.
Gang [Zobrazit profil] [Poslat zprávu] 2009-10-01 16:27:07

Mno. Doufám, AMD aspoň nezvýší ceny na grafiky pro nejbližší 6-9 měsíců.
1.legionar [Zobrazit profil] [Poslat zprávu] 2009-10-01 16:45:05

Tak AMD zatím drží ceny dobře, nikdy nějak své výrobky nepředražovalo. Asi to bude tím, že zatím nedosáhlo takového postavení aby si mohlo říct o jakoukoliv cenu, což je pro nás jedině dobře. Doufám že fermi bude mít výkon za relativně slušnou cenu, protože konkurence jsou vždy nejlepší, aspon jdou ceny dolů.
Gang [Zobrazit profil] [Poslat zprávu] 2009-10-01 22:30:37

Vypadá ale, že Fermi nebude moc konkurenci, protože bude mít prostě jiné použití. Pokud NV přestane blbnout, tak Fermi na výpočty, Radeon na grafiku a Atom na BIOS a spuštění té krasy.
F3rda [Zobrazit profil] [Poslat zprávu] - :-/ 2009-10-02 01:32:42
avatar
Asi tak nějak... Poslední dobou ani nebylo moc důvodů hnát výkon GK kupředu, protože vývojáři využívali stále DX9 a teď zas bude chybět konkurence :-( Což je docela průser... Nic nepotlačí ceny dolů a výkon nahoru
J.C.Denton [Zobrazit profil] [Poslat zprávu] 2009-10-01 15:39:02
avatar
tak vykon ve hrach bych videl urcite kus nad gtx295. ma vice SP, myslim ze se daji ocekavat i vyssi takty a celkove optimalizace jadra muzou taky jen prospet, stejne jak to, ze fermi bude jen jednocip. emulace teselace pres SP by nemela byt zadnym problemem diky SFu a vylepsenemu sheduleru + gigathread. g200 take nabizi lepsi herni vykon v pomeru k tflops oproti ati, takze o to bych strach take nemel. architektura i kdyz je nova, tak principy zustavaji s predchozi generaci stejne. no kazdopadne bude to velmi zajimave...jeste ze zatim 8800gts 512 v poho staci..u me nejspis o upgradu rozhodne nove avp
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 15:53:38

JJ. Nove AVP je u mna tiez rozhodujuce. 8800GT do toho casu pekne dosluzi. Vzhladom na to co som si uz o Fermi precital si pockam na jej vydanie. Zaujima ma to aj z programatorskeho hladiska a uz teraz sa tesim ako si to vyskusam.

Z pohladu AVP 2 ponuka este okrem DX11 na rozdiel od AMD aj GPU@PhysX na ktory som v tejto hre naozaj zvedavy.
Bennie [Zobrazit profil] [Poslat zprávu] 2009-10-01 19:05:12
avatar
Zdravý selský rozum mi říká, že 512SP u Fermi bude minimálně 2,13x výkonnější než 240SP G200. A to neuvažuji optimalizace, které způsobí, že Fermi bude na takt výkonnější než G200.

Dovolím si na tomto místě vyvěštit z křišťálové koule, že FERMI bude 2,5x výkonnější než G200, a tedy že GTX295 překoná o 30-50%.

To co tady nezaznělo je, že cokoliv co je napsané v C++ půjde překompilovat pro Fermi, takže sice nepůjde spustit už vytvořené X86 exe soubory, ale ze zdrojáků půjde udělat kompilerem FERMI exe soubory, které poběží na GPU...
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:16:09

Otazne je do akej miery bude ten isty kod mozne skompilovat aj pre CPU. Ak to da menej prace si kompilat osetrit cez #define tak to bude super.
TommoT [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:28:28
avatar
Hmm zajímavej výpočet. Zajímavý je ze u ATI Radeona HD 5870 dvojnásobný výkon neni(ikdyž ovladače dělaj svý). A osobně si myslím, že nebude ani u Fermi(to by znamenalo že s každým CUDA procesorem(?) bude škálovat na 100 procent.)
Sina [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:01:44
avatar
ta predikce vykonu od Bennieho je ujetá. GT200 má taky 2x tolik jednotek co G92. A má snad GT200 dvojnásobný výkon co G92? Ani zdaleka
Ziina [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:23:19
avatar
dokonce to nekdy vypada ze dualni grafika ma nekdy vyssi vykon nez single nove generace, a to se rika ze to ma byt vyhoda jednojadra, ze nemusi spolehat na nedokonale sli/crossfire (viz 9800gx2 vs gtx280, hd4870x2 vs hd5870)
J.C.Denton [Zobrazit profil] [Poslat zprávu] 2009-10-01 19:06:23
avatar
9800gx2 ma ale vice SP nez gtx280 a takty maji myslim dost podobne, mozna i gx2 vyssi (nechce se mi ted hledat ). fermi ma mit ale vice SP nez gtx295. jak to je u radeonu tezko rict, ale na vetsine webech vychazi 5870 lehce rychlejsi nez 4870x2. na ovladace bych to moc nesvadel, architektura je stale stejna i kdyz obohacena o par prvku a dx11.
Bennie [Zobrazit profil] [Poslat zprávu] 2009-10-01 19:29:57
avatar
Tos nejspíš hodně špatně koukal ))

V průměru je 4870X2 výkonnější než 4870 asi tak o 30-60% procent...

existují extrémy kde CF nebo SLI škáluje hodně dobře.. ale většinou je to tak do 60

Pokud jsem správně procházel testy, tak GTX285 dává plus minut dvojnásobek 8800GTX, ba dokonce i mojí 8800GTS512..
zeroground [Zobrazit profil] [Poslat zprávu] 2009-10-02 09:56:46

Taky bych predpokladal efektivni emulaci tesselace - to jadro si primo rika o vyuziti timhle a podobnym zpusobem. Predpokladam, ze tesselacni jednotka u ATi bude stale efektivnejsi, nez to resit takhle, ale stavba toho jadra by nabizela moznost efektivni emulace s minimalni ztatou vykonu. Otazka samozrejme lezi v optimalizaci, ale to by pro Nvidii taky nemusel byt zavazny problem.
Matuus [Zobrazit profil] [Poslat zprávu] 2009-10-02 12:56:21

No prave pre hernych vyvojarov by mala byt vacsou vyhodou plne programovatelna tesseleacna jednotka /cize emulovana/, ako klasicka /ktoru ma ATI/.
Lukyn1811 [Zobrazit profil] [Poslat zprávu] 2009-10-02 14:02:41
avatar
To chceš tvrdit, že je lepší/rychlejší, když se něco emuluje, než když to běží nativně? Vývojářům je to jedno, protože emulovaná jednotka se bude navenek tvářit úplně stejně jako ta fyzická. Kdo to ovšem pozná, bude majitel karty a to na sníženým výkonu.
zeroground [Zobrazit profil] [Poslat zprávu] 2009-10-02 14:05:20

Tak tesselacni dedikovana jednotka bude mit samozrejme vyhodu, otazka spis je, na kolik ta emulace u Fermi bude efektivni ci nikoliv. Zase bych tady bral do uvahy stavbu jadra, ktere prave nejake soubezne bezici operace bude podporovat velmi dobre - tzn. zaver je, ta emulace nemusi byt zase az takovy prolem co se tyce herniho vykonu. Ale zatim spekulace.
Lukyn1811 [Zobrazit profil] [Poslat zprávu] 2009-10-02 14:20:08
avatar
Zatím se samozřejmě nedá nic tvrdit jistě, až ukážou opravdovou fungující kartu, tak budeme chytřejší. Jen mě zaujalo to, že by to měla být nějaká výhoda pro vývojáře.
zeroground [Zobrazit profil] [Poslat zprávu] 2009-10-02 15:41:26

Teoreticky to mozne je. I kdyz asi tezko. Nevim, jakym zpusobem tesselacni jednotka pracuje, ale kdyz vezmu v uvahu jadro Fermi jako programovatelny procesor, pak v pripade optimalizace kodu muze byt tesselace u Fermi ucinejsi - tesselace je rovnez soucasti standardu DirectX, teoreticky tedy k jejimu provozu staci jakakoliv architektura splnujici pozadavky DirectCompute pripadne DX11 obecne - dedikovana jednotka podminkou neni - zbytek uz bude o vhodnosti architektury a kvalite kodu, spoluprace s vyvojari, ovladacu atd. tedy SW stranka. Obecne vsak plati, ze emulace sebou nese ztratu vykonu, takze tohle uz je hodne divoke. Zatim cistociste spekulace, pockal bych az jak se Nvidia popasuje s hrami a pak na AvP, kde uvidime i jak se popasovala s tesselaci.
Allie Fox [Zobrazit profil] [Poslat zprávu] 2009-10-01 15:43:22
avatar
Jednoznačně nVidia "zradila" hráče, přestože se na ně v minulosti soustředila nejvíce a oni ji za to měli rádi. No nic, asi ji k tomu něco donutilo- do strategie jí kecat nehodlám - třeba jí to vynese větší zisky a o to jde.
wizard_ov [Zobrazit profil] [Poslat zprávu] 2009-10-02 08:35:33
avatar
Máš recht pejsku, já se taky cítím odkopnutý... Ale na druhou stranu, pokud se herní segment na PC tržně propadá, tak se ani hochům ze Santa Clary nedivím, že sáhnou tam, kde cítí $ . Protože asi se těžko vysvětluje akcionářům, že zisky jdou dolů, ale zase je mají rádi hráči . Ale jak jsem už psal jinde do HD 5870 nejdu (byť je to hodně lákavé) nechávám si svoji NV 285ku, myslím, že ještě nějaký pátek vydrží
Stejně nejvíc hraji BF Heroes a na to stačí notebook
Heris [Zobrazit profil] [Poslat zprávu] 2009-10-01 15:51:28

No vypada to kazdopadne zajimave, akorat jsem nepochopil jednu vec. DD v jednom odstavci pise, ze se doladuje navrh cipu pro vyrobu a v druhem, ze vyteznost je mizerna. Tak jak to teda je?
elesde [Zobrazit profil] [Poslat zprávu] 2009-10-01 15:55:49
avatar
Ide o to ze ta vytaznost je mizerna a doladuje sa architektura aby bola vytaznost vyssia. Tych par kuskov z waferu je len pre nVidiu na nejaké prezentáacie a pod.
ljelinek [Zobrazit profil] [Poslat zprávu] - Hm, 2009-10-01 16:15:48
avatar
me to pripada, ze NV vsadila na budoucnost a nasledujici rok prenechala konkurenci. Pokud totiz prijde Intel s Larrabee, budou na trhu dva hraci s obdobnymi produkty s obrovskym potencialem a bude jen na vyvojarich, jak se k tomu postavit. Kdyz tak me opravte, ale ray-tracing obecne by na takovychto komponentach bezel rychleji nez na stavajici architekture GPUcek, ne? A jelikoz ray-tracing je, myslim, opravdu super podivana, tak v tom pripade by se take mohlo stat, ze studia zacnou vyuzivat produkty modrych a zelenych a AMD bude pracne dohanet nastoleny trend. A to nehledim na profi segment, tam jsou architektury Fermi a Larrabee jako delane a, ruku na srdce, v tomhle segmentu jsou penize. Ale to jsou fakt spekulace, dalsi rok ocekavam dobu temna (vlastne ruda) se zelenym zableskem v podobe inovovaneho jadra G200 s podporou DX11.
mira89 [Zobrazit profil] [Poslat zprávu] 2009-10-01 16:28:04
avatar
to nejsou jen spekulace. Intel ani nVidie přeci jen tak nevrazej mrtě peněz do projektů kdyby nevěděli kam je směrovat - a hlavně když to vypadá že mají stejný cíl
Luizzz [Zobrazit profil] [Poslat zprávu] 2009-10-01 16:17:13

I kdyby byla Fermi herně stejně výkonná jako HD5870, rozhodně nebude za takovou cenu, a to je škoda. Amd teď nebude nic tlačit s cenami dolů (pár měsíců).
poluxtroj [Zobrazit profil] [Poslat zprávu] 2009-10-01 16:20:51
avatar
Se nedivím,že vedení Nvidie prodává akcie. Mi to připadá,že u Nvidie zaspali a nemají čím konkurovat,tak se zbaběle vrhlo na jiny trh,kde není konkurence.Ale myslím,že jim Ati zatopí příšti rok.
mira89 [Zobrazit profil] [Poslat zprávu] 2009-10-01 16:22:43
avatar
Vcelku jsem dost překvapenej do čeho že se to nvidia pustila (ikdyž zas tak uplně taky ne).Ale nejsem zklamanej (taky nejsem ani fanoušek nvidie) Zatím co zde se hodně plácalo o GPGPU v dobách HD3xxx a HD4xxx,jak ATIny mají pro toto skvělou architekturu tak nikde nic se nějak od AMD-ATI neobjevovalo ve větším (co sleduju tak obecně má poslední dobou AMD jako celek problém vyvíjet něco navíc - tak možná zadara někde něco od někoho převzít) a velebil se výkon pro tyto výpočty (musím uznat že je opravdu vysoký) tak se nadruhou stranu na tomto webu dost nevybíravě naváží do CUDA a PhysX - které snad jako jediné fungují víc než dobře. A ted s příchodem Fermi všechno se jeví v jiném světle - najednou ty fráze o GPGPU dostávají smysl. Pokud to s Fermi pujde bez větších problémů tak největší podíl na budoucnosti GPGPU NEBUDE mít ATI ale nVidie. HD 5870 je skvělá (asi nejlepší z posledních let) grafika s vysokým výkonem,jenže když ATI nehodlá pořádně rozjet nějaký to podhoubí pro GPGPU aplikace tak zůstane jenom grafikou. S Fermi to možná bude jiné,chce to sledovat jak se k tomu postaví vývojáři. Je na každým pro co se rozhodne.
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 16:28:36

S HW podporou OpenCL bude viac ako len grafikou aj ked nebude v GPGPU dosahovat zrejme to co NV ale to sa uvidi az to tu bude a bude to realne vyuzite.

Tiez som neni sklamany z tejto karty a kludne si pockam kym vide a kupim ju. Okrem toho ze na nej budem moct hrat vsetko to co aj na AMD kartach dostanem navyse podporu GPU@PhysX a mozem si vyskusat naprogramovat par aplikacii v Nexuse. Uz sa celkom tesim. Len dyfam, ze nebudem musiet prilis dlho cakat. Ideal by bolo keby vysli pred vydanim AVP 2.
Dr.Kusa [Zobrazit profil] [Poslat zprávu] 2009-10-01 16:23:29
avatar
myslim si ze Ati s radou 5xxx nebude mat az taky velky uspech ako sa ocakavalo kedze obrovske percento ludi v dnesnej dobe vlastni grafiky rady geforce GTX a radeon 48xx, ktore zas az tak velmi vykonom nezaostavaju preto si myslim ze nakup nejakej grafiky generacie 5000 nieje taky opodstatneny az do tej doby kym nevijdu nove dx11 hry co este nejake tie mesiace potvra. sam vlastnym nataktovanu gf8800GTX s ktorou pohram takmer vsetky hry na najvyssich detailoch a preto ani neuvazujem nad nakupom novej radeony. upgrade planujem az ked na trhu bude naozaj nieco nove cim nove grafiky fermi urcite budu preto nepochybujem ze si jednu z nich kupim aj ked nebude mozno ovela vykonnejsia ako 58xx ale budem vediet ze s novou technologiou ktora je v nej pouzita si vystacim aspon 2-3 roky a oto predsa pri grafikach ide, nekupujem si ich predsa na 4 mesiace
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 16:31:18

Okrem toho AMD nasadilo ceny dost vysoko. U vas je to myslim 8900 korun a u nas 390 EUR. A to podla mna nie je mainstream ako sa to snazi DD prezentovat. Dvojjadrove verzie budu stat kolko? 500-600E. A to je fakt vela. Za Fermi by som tych 500E mozno aj dal lebo viem ze kupujem high-end ale takto...
Dr.Kusa [Zobrazit profil] [Poslat zprávu] 2009-10-01 16:40:30
avatar
mareknr:suhlasim s tebou nasiel som ceny 360-380€ co mi nepripada ako mainstrem
kartu 4870x2 som nasiel za cenu 360€, ktora je podla testou vykonnesia o par percent ako 5870
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 16:47:33

To je pravda ale technologicky je nova AMD o dost lepsia. Nehrozi prepad vykonu v zavislosti na Crossfire, mensia spotreba v idle + par dalsich veci kvoli ktorym by som par % v prospech HD 5870 obetoval keby som planoval kupit kartu od AMD.
Dr.Kusa [Zobrazit profil] [Poslat zprávu] 2009-10-01 16:52:14
avatar
no to je samozrejme ale aj tak si myslim ze na hromadne nakupy to tentoraz nebude.povedzme si otvorene valstnych napriklad gf gtx275/285 alebo radeon 4850/70, no kupil by si si 5870 len kvoli dx11 a tesselaci?
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 16:58:37

Teraz urcite nie. Kym sa bude dat vyuzit je este cas. Vyzera to ze ked vide Fermi tak tu uz nejake hry budu. Takze vtedy sa bude vyberat. Uvidime ake budu ceny.

BTW kvoli zapojeniu 3 monitorov by som kartu urcite nekupoval. Za prve nebudem si kupovat dalsie 2 26'' monitory aby som mal subezny obraz a okrem toho by som ich nemal ako vedla seba ulozit. Karty su to pekne ale pre mna pride do uvahy upgrade az ked tu bude AVP 2. Ten okrem toho ze bude DX11 tak bude podporovat aj GPU@PhysX a na vsetko toto som viac zvedavy ako na Eye Infinity. Moj osobny nazor...
Dr.Kusa [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:07:11
avatar
suhlasim s tebou. myslim ze sa teda zhodneme ze 5870 najblizsie mesiace kupovat nebudeme osobne mam dva monitory na jednom hravam a na druhom mam stale zapnuty facebook a icq a moja tri roky stara grafika to zvlada bez problemov takze nemam co riesit
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:18:46

Ja to mam napodobne. Akurat na druhom monitore mi bezia AVGA Precision a Core temp aby som si odsledoval stav PC a ako na tom som po vykonovej stranke ked nieco hram. Mam 8800GT a zatial v pohode staci na vsetko tak aby som bol spokojny.
Dr.Kusa [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:37:12
avatar
pozrel som si tvoj hardware a zaujimalo ci a o kolko mas pretaktovany svoj phenom?a ako pozeram mame MB rovnakej z rodiny
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:50:53

Phenom som netaktoval. Mam ho na nativnych 3GHz. Pouzivam BOX chladic takze sa ho v najblizsej dobe taktovat nechystam a myslim ze to ani nie je potreba. Nic ho nedokaze vyuzit ani na 70 % takze rezervu vo vykone mam. Zbytocne by som si zvysil spotrebu a naroky na chladenie.

Co sa tyka MB tak to jo. Asus je Asus. Moja je uz ale trochu starsia. Kedze v svojich casoch patrila vtedy do high-endu je stale obstojne pouzitelna. Len clovek uz musi nad vselicim spekulovat.
Dr.Kusa [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:02:52
avatar
stare dobre casy ja som vtedy ucil dost tazke rozhodnutie ohladom Cpu.kupil som dualcore e2160 1.8Ghz a s pomocou mojho strikera ho pretaktovat, samozrejme som mohol kupit C2D na take 2.8Ghz a bol by som zahojeny ale mne to nedalo a kupil som e2160tku nataktoval na 3.15GHz s pomocou beta biosu bol som rad ze som usetril niekolko tisic sk lenze prednedavnom mi bios crashol a nechal som ho v specializovanom shope prepalit, lenze tipek mi tam hodil najnovsiu verziu na ktorej nehrozi dosiahnut slusne takty, podarilo sa mi maximalne takt 2.7Ghz na ktorom si ficim doteraz ale uz citim rezervy cpu a rozmyslal som nad niecim novym ale absolutne nemam sajnu co by sa mi hodilo ci e7300 alebo uz nejaky quadcore?co by si mi odporucil?samozrejme ze striker nedam ani za nic takze do slotu 775
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:10:43

Intel procesory moc nesledujem. To by ti mali skor poradit ini. Co sa tyka poctu jadier isiel by som iba do QUAD Core. Zalezi ale aj na tom na co budes to CPU vyuzivat. Ja som kupil QUAD kvoli

1. kvoli GPU - chcem urobit upgrade na novu generaciu a s dual core-om to vyzera tak ze by nedokazal naplno vyuzit jej potencial
2. hram - uz sa ich naslo viacero co vie QUAD vyuzit. Pre take dve, tri to uz je aj doporucene(vidiet skutocny prepad vykonu)

Vo vacsine pripadov ti ale postaci vyssie nataktovane dvojjadro zatial bez problemov. V tvojom pripade by to chcelo aspon nejaky C2D na 3.6GHz. Na druhej strane ak konvertujes multimedialne subory tak QUAD ti usetri kopec casu. Sam musis vediet na co PC pouzivas a ci dokazes vykon noveho CPU vyuzit.
Dr.Kusa [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:19:56
avatar
ok dakujem za nazor.mna aktualne zaujima situacia na poli cpu intel pre socket775,ci este pride nejaky novy zaujimavy procesor ale sa intel zameriava uz iba na procesory nehalem alebo sa uz mam zacat obzerat po bazaroch? mozno ak by si ma vedel odporucit na nejaky web alebo blog o cpu bol by som rad
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:23:33

Na forach extrahardware-u sa urcite najdu ludia ktori ti dobre poradia. Neviem ci sem mozem dat aj linku ale asi nie..
Dr.Kusa [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:38:57
avatar
oo super nemal som ani sajnu o tomto webe, nasiel som to co som hladal naozaj velmi pekne dakujem za ochotu a rady uz ta nejdem zatazovat
snowflake [Zobrazit profil] [Poslat zprávu] - E5200 2009-10-02 02:12:01

Pokud chces financne bezbolestnou variantu, tak kup jednoznacne E5200, ktere nataktujes s beznym chladicem na 100 % na vic nez 3,5GHz. S lepsim vzduchovym chladicem chodi spolehlive na frekvencich kolem 3,8GHz. A cena? 1400,-
j.matrix [Zobrazit profil] [Poslat zprávu] 2009-10-01 21:18:13
avatar
zrejme si nepamatas kolko stali high endove karty dakedy, na poslednu radu sa vykasli, predtym boli bezne ceny cez 15tisic korun
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-02 11:13:47

JJ. Nepamatam si. Porovnaval som to za posledne 3 roky. Dovtedy som GPU trh velmi nesledoval.
j.matrix [Zobrazit profil] [Poslat zprávu] 2009-10-02 22:18:11
avatar
3 roky, tak to si pamatas kolko stala 8800 ultra
Nexon [Zobrazit profil] [Poslat zprávu] 2009-10-01 16:38:26

ATI-AMD rendruje v poklidu 63 Mpix obrázky v realtimu (viz ATI Eyefinity s CF), má zmáklou výrobu, připraveny má karty pro celý segment trhu, plnou podporu DX11 včetně hardwarové implementace tesselace - nejrevolučnější novinky v DX11, plnou podporu GPGPU (OpenCL, DirectCompute11), výstup až na šest monitorů z jedné grafiky (spec. verze jinak 3 vystupy), brutální výpočetní výkon, který v SP GF100 nepřekoná a DP jen tak tak, parádní spotřebu ve 2D a velice slušnou ve 3D (na 2.2 mld trans.). ATI ted v poklidu maká na HD 6xxx a Nvidia teprve optimalizuje návrh čipu. Nvidia vyrobila mastodonta, který je zralý tak na 22nm výrobu a navíc její výpočetní jednotky běží na vyšší frekvenci než zbytek čipu, takže to jakékoliv vlivy na defekty během výroby ještě znásobuje. Tenhle čip bude možná ještě větší úlet než G200 (kde ATI měla 2x takovou efektivitu na počet trans.). Nvidia chce mít CPU A GPU a vyrobila prasopsa, který ji možná pošle do pekel. Spotřebu odhaduju na 250W, tj. X2 verze je téměř vyloučena (teplomet kolem 400W nejde rozumně uchladit), ATI vyrukuje s X2 verzí na jednom PCB a zamává Nvidii na cestu. Tohle je vážně od Nvidie úlet, na dveře nám klepou 8 a 12 jádrové procesory, běžný uživatel má GPGPU u zadku (psal jsem v jiném příspěvku proč). Nejvíc mě ale u ATI láká kombinace 3 monitorů, podle ohlasů na Netu, kdo jednou viděl už nechce jinak :-). Měl jsem od Nvidie 3D brýle a CRT 21" monitor, ale po hodině hraní jsem myslel, že už se mě oči nikdy nevrátí zpátky, takže to co Nvidie prezentuje jako novinku (3D hraní) mám už 7 let doma a je to k ničemu. ATI ted možná lituje toho, kolik waferů s GF100 v TMSC hodí do kýblu, když by na nich mohli být R870 čipy, kterých se nedostává.:-)
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 16:52:21

Fermi aspon podla specifikacii ponukne aj dalsie veci navyse oproti AMD. Vykonom by mohla byt kludme AMD vyrovnana. Uvidime az budu testy. Pokial bude herny vykon vyrovnany tak neni o com. Ja som za NV. A nie iba kvoli hram.
xJirikx [Zobrazit profil] [Poslat zprávu] 2009-10-01 16:59:12
avatar
největší sranda je, jak tady pořád všichni řvali, že nVidia je na tom špatně, platformy se uzavíraj, prorokovali hroznou budoucnost. Teď se ukázalo, že nVidia od G80/G92 maká na tomhle a jde opravdu jinou cestou a co se tady děje. Lidi brečej, že nemá co nabídnout a jak je na tom špatně. Přijde mi, že tady by lidi řvali, že je na tom nVidia špatně i kdyby se AMD položilo (samozřejmě by mezitím ještě řvali, že AMD položil nVidia marketing ) Nemluvě o kříku nVidia nic nemá v ruce (copak asi je na těch všech fotkách a co bylo v tom počítači?), najednou je z toho paper launch a pak zase nemá nVidia nic...
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:05:31

No jo. To je to fanusikovstvo. Najlepsie je ako sa tu niektori ludia tvaria ze su objektivni. Keby naozaj boli nemuseli by to neustale obhajovat. Tu je to viac o citoch. Asi bolo ATI dlho v uzadi tak teraz maju fanATIci priestor sa prejavit a zrejme ich to dlho dusilo.

Berte to s humorom.
xJirikx [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:08:11
avatar
já beru s humorem vše, krom některejch článků místního guru pravda, jeho "styl" mě někdy jako technicky založenéh člověka dost točí...
Allie Fox [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:13:34
avatar
Pořád stejně blbý kecy. Objektivita, zaujatost atd. Vy jste samozřejmě objektivní-hahahaha
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:22:43

Ja netvrdim ze som objektivny. Len to neberiem tak euforicky ako vela ludi co tu pise. Ale ratam s tym ze su to vascinou teenegeri tak sa da rozumiet ze sa nechaju niecim uniest.
xJirikx [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:51:36
avatar
kde jsem psal, že jsem objektivní? nikdo není objektivní ;) jedinej kdo je objektivní je někdo kdo o tom nic neví a kouká na to z vnějšku...
já psal, že to beru s humorem a že mě točí některý články tady a to myslím z mých komentářů na tomhle foru je jasně patrný
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:13:45

DD napise aj vela zaujimavych informacii. Len keby to nebolo casto take emotivne. Uplne to evokuje velakrat flame az mam pocit ze je to tak zamerne. Ale neberiem mu jeho nadsenie. Tiez som taky byval ked som mal 18.
DedecekHribecek [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:45:13

Tak to berete jak píšete s humorem nebo Vás to jak píšete točí? Vyberte si prosím. Jinak to vypadá jako začínající schizofrenie.
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:52:49

Bolo to pisane s humorom. Schizofrenia mi zatial nehrozi. Pred chvilou som sa sam presvedcil ze nie.
DedecekHribecek [Zobrazit profil] [Poslat zprávu] 2009-10-02 07:08:27

Fajn tak podle toho pišete a nehodnoťete svoje pocity jedné větě v zcela odlišně než v následující. pak se Vám budou oponenti pošklebovat jak jsme učil i já.
DedecekHribecek [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:39:26

Jak píšete "Vykonom by mohla byt kludme AMD vyrovnana. " to je právné jenomže to nikdo neví tak proč ty spekulace? Srovnáváte doslova kus papíru s reálně fungujícím chipem. To jsou ty pověstné hrušky a jablka.
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:54:15

Su to samozrejme spekulacie. Iba som to odhadoval podla specifikacii karty. Je zbytocne sa teraz hadat ako to bude. Viac nam povedia testy. Snad NV aspon vyda testovatelne verzie kariet do obehu do konca roka. Fakt sa mi na Q1 2010 cakat nechce.
xJirikx [Zobrazit profil] [Poslat zprávu] 2009-10-01 16:48:21
avatar
takže podle tvejch "osvícenejch" tvrzení je nVidia mrtvá? CUDA je mrtvá se tu psalo a teď zase nVidia všechno na CUDA Tak buď je to společnost plná sebevrahů nebo asi ta CUDA zase tak mrtvá nebude Jinak zklamání z toho, že to nebude jen herní grafika asi ani není možný, protože jen herní není už ani ta moje stará 8800GT O tom co ta karta bude nebo nebude umět nemá cenu teď diskutovat, navíc tam předváděli Raytracing, kterej běžel docela solidně. A všichni víme, že narozdíl od AMD nVidia si umí do her prosadit co považuje za nutný Toho opuštění desktop trhu bych se nebál, protože oni k tomu nemaj důvod. Akorát teď vložili kapacity do vývoje Fermi. Pokud jim to klapne tak vydělaj zase nějaký peníze (pokud je mi známo, tak narozdíl od AMD pořád nemaj výrazný dluhy) a s něčím na herní trh přijdou. Už jen z důvody všech peněz utracenejch v rámci programu pro vývoj her, opravdu obrovskýho jména, které sahá daleko mimo hranice fandů a zároveň pro nostalgii k důvěrně známému prostředí

Jinak ten tvůj úvod je docela k popukání. Já, božský DD jsem vše věděl dávno dopředu... Jasně každýmu pisálkovi amatérovi v ČR řekli co a jak to bude, ale všichni si pro tentokrát řekli, hele NDA je fajn, nic ven nepustíme. (tím nemyslím, že bys pouštěl ven NDA ty, ale když by to řekli tobě, už by to vědělo dalších tisíc lidí co se v týhle branži pohybujou)
Nexon [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:12:33

GPGPU je jen doplňková funkce, kterou využije jen velmi málo lidí, počítat interakci hvězd opravdu na svém počítači nehodlám, ani nehodlám hrát folding@home, navíc Nvidia nenabízí nic unikátního, co by neměla konkurence v podobě ATI a v budoucnu i Intelu. Nvidia si je vědoma do jakého průseru se může dostat, proto ještě znásobí snahy o prosazení PhysX a podobných fičur, které ale můžou v pohodě běžet na vícejádrových procesorech (zvláště potom, co už máme 5. generaci SSE instrukcí, které bohužel málokdo využívá). Uchyluje se dokonce k takovým zoufalostem, že po detekci ATI karty vypne akceleraci úplně a navíc její verze pro CPU je záměrně zprzněna. To jsou praktiky, který musí normálně uvažující uživatel okamžitě odsoudit. Takže už z logického hlediska, pokud ATI prosazuje fyziku a ostatní výpočty na otevřeném vývojovém systému (OpenCL, DirectCompute), jsem logicky pro tuto variantu. Dohledné budocnosti ale bude pořád platit, že CPU bude dominantním čipem v PC, prostě proto, že u běžného strojového kódu, jde paraelizovat jen velmi obtížně. Proto je u CPU jedna z nejdůležitějších částí spekulativní logika (instrukce mimo pořadí, podmíněné skoky apd.), která v této formě na GPU chybí.
xJirikx [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:16:52
avatar
jenže daleko víc karet se prodá do superpočítačů a profesionální(vědecký) sféry než kolik se jich prodá na hry... o tom, že se dnešní hardware nevyužívá ideálně vědí všichni, tam nemá smysl se hádat. Co se těch "fičur" týče, tak sice na papíře má ATi-AMD všechny taky, ale že by se zabývala jejich rozvojem, to se mi moc nezdá...
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:32:35

Tie praktiky co spominas nie su urcite koser. Osobne ma tiez prekvapilo to vypnutie PhysX v pripade detekovania AMD karty. Ale to ze nic navyse neponuka nie je pravda. Mozno pre bezneho uzivatela nie, ale ide o to ze s NV si budes moct dopriat taky isty vykon ako s AMD + tu mas PhysX a ak si programator tak sa mozes zabavit aj tym ze si vyskusas paralelne programovanie cez GPU + nehovorim este o aplikaciach zalozenych na CUDe, ktore mozu byt zaujimave aj pre beznych uzivatelov.

PS: A nie je pravda ze si mozes dovolit vypocitat to iste co GPU@PhysX aj na CPU. Je totiz rozdiel pouzivat z velkej casti skripty ako je to napriklad aj u Havku a pocitat s tisickami predmetov ktore dokazu interagovat s prostredim. Na to potrebujes viac ako 4 alebo 12 jadier. A to nehovorim o optimalizacii vypoctovych jednotiek na Fermi.

Osobne sa mi ale napriklad Havok pacil v Red Faction a tiez PhysX v Sacred 2. Kazda z tychto technologii ma nieco do seba. Ale ak chces pocitat fyziku pre nejaku komplexnu scenu tak ti vykon CPU proste nestaci. Aspon momentalne nie a ani v najblzisej buducnosti to tak nevyzera. Stale si myslis ako vekla ludi ze trebars 512 CUDA cores je menej ako trebars 12 buducich CPU jadier(o terajsich ani nema zmysel hovorit)?
Matuus [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:55:21

Jasne, pre ATI je vyrazne lepsie presadzovat fyziku a vypocty na otvorenom OpenCl, ktory vsak rovnako podporuje aj NV. ATI tak nemusi vrazit ani dolar do podpory fyzikalneho engine, nemusi robit nic a radsej bude cusat a cakat kym to za nu spravia vyvojari. NV oproti tomu ponuka uz rozbehnuty PhysX /ktory je na mile vzdialeny akemukolvek pouzivanemu enginu ratanemu cez CPU/, ma fakt rozsirenu CUDU s tisickami vyvojarov a mnozstvom aplikacii, ktore sa vyuzivaju nielen vo vedeckych sferach. NV necusi a riadne sa stara o vyvoj GPGPU nielen na poli CUDA, ale aj na OpenCl. AMD je schopne maximalne tak dat nejaky ten milion na vyvoj hry, co je daleko za pristupom NV ... ale mozno sa AMD/ATI spamata a na buduci rok bude okrem NVISION aj nejaka ATIVISION, kde nam vsetkym vytrie zrak s konecne realnou podporou pre OpenCl a nejaky fungujuci otvoreny fyzikalny engine v ktorom ma prsty
Nexon [Zobrazit profil] [Poslat zprávu] 2009-10-01 19:01:55

S GPGPU přišla pvní ATI, Nvidia to jenom víc presentuje. Jde o to, že si Nvidia chce otevřít nový segment trhu a může začít ztrácet ten důležitější grafický.(CPU nemá, ale mohla mít, nebýt jejího bezprecedentního podrazu na VIA s jejím procesorem NANO, pro ní mohla v pohodě vyrábět čipset, velká škoda pro oba, NANO je výkonější než ATOM a podpořený čipsetem Nvidia, mohla to být super platforma) Takhle vyrábí hybrid, který je zbytečně složitý. Příklad? Pro PC existuje koprocesor CLEARSPEED, který běží na 250MHz (nejde o překlep) a nabízí výkon 96 GFlops v DP při spotřebě 7W!, lehkým přepočtem zjistíte, že tenhle čip je cca 4 efektivnější v poměru GFlops/Watt o přepočtu na GFlops/počet trans. je lepší mlčet. A proč tomu tak je? Protože je to spec. čip, který má na starosti výpočty v DP a nic jiného, nehraje si třeba např. na grafickou kartu.:-) Nvidia je skutečně na tenkém ledě, pokud jí tah s tímhle čipem nevyjde (a jiný nemá), může se dostat lehce do potíží.Nedaří se jí výroba (ani se nedivím, 3.2 mld je mazec) a pokud se to nezlepší, bude muset rychle přijít s nějakou ořezanou verzí čipu (a další zpoždění je na světě). Výhoda AMD-ATI je, že sama vyrábí čipy a tak má více znalostí s přenesením čipu z prkna do výrobního procesu a zároveň má více lidí ve vývoji tj. můžou kombinovat některé techniky při vývoji grafických a CPU čipů. Další krok třeba může být asymetrický takt stream jednotek v R870, které zatím běží na frekvenci čipu, rozšíření pamětové sběrnice nebo klidně ještě větší navýšení počtu stream jednotek (třeba na 2400, pořád má rezervu cca 1mld. trans. na GF100). Nvidia je v současnosti na dorazu, víc jednotek ani větší takty přidat nemůže. Dále má AMD v rukávu Fusion, to může být hodně zajímavý projekt, hlavně do mobilního trhu. No každopádně mít v držení akcie Nvidie asi bych prodával. To byl vtip samo ...
Matuus [Zobrazit profil] [Poslat zprávu] 2009-10-01 19:37:25

NVIDIA hlavne aj nieco robi pre to, aby sa jej GPGPU dostalo sirokeho vyuzitia a tak to, ze ATI bola s GPGPU prva, absolutne nic neznamena. O vsetkom nakoniec rozhodne trh a ci je NV momentalne na hranici svojich moznosti, to skutocne nikto nevie, hlavne ked je Fermi postavena na uplne novej architekture.
aDDmin [Zobrazit profil] [Poslat zprávu] 2009-10-01 19:44:55
avatar
ATI dělá vše, co HW vývojář může, aby se standardy a GPGPU šířilo - navrhlo skvělý čip pro grafiku DirectX10.1 i DX11, i výpočtu GPGPU pod standardy OpenCL a DirectCompute, podporuje všechny skutečné standardy a navíc i otevřené standardy - neomezuje některé technologie narozdíl od jiných .... navíc vše, co naprogramuješ pod standardem OpenCL nebo DirectCompute půjde jak na ATI tak NVIDIA ;)

Více opravdu nemůžete od ATI žádat, je to návrhář HW ne vývojář Software ... ATI staví čipy podle požadavků standardů včas a často i dříve, než jsou vůbec využity ... například standard DirectX11 začíná a ATI už pro něj má podporu v grafikách na trhu atd.
mira89 [Zobrazit profil] [Poslat zprávu] 2009-10-01 20:29:58
avatar
Ale můžeme chtít a taky chceme Chceme aby se více zapojilo do vývoje. Můžu vědět kolik aplikací skutečně funguje a jsou postaveny na otevřených standardech (myšleno bez ironie)
J.C.Denton [Zobrazit profil] [Poslat zprávu] 2009-10-01 20:57:30
avatar
ehm? ati neni vyvojar software?a ovladace pro grafiky jsou jako co??asi kolo od traktoru...a proc by prave ati nemela pomahat vyvojarum?ona zna prave svuj hardware nejvice a vi v cem je nejlepsi a co ji moc nejde, ati klidne muze mit svuj program podpory vyvojaru stejne jako nvidia.
Matuus [Zobrazit profil] [Poslat zprávu] 2009-10-01 21:35:46

Presne, pokial moze NV podporovat vyvojarov vo velkom, tak preco to nemoze robit aj ATI?
AndreasCZ [Zobrazit profil] [Poslat zprávu] 2009-10-02 14:36:19
avatar
ATI ani Nvidia nejsou vyvojari software. Vyvijeji ovladace(to je rozhrani mezi HW a SW-ne program~software). Jediny soft, co delaji jsou technologicka dema. Napsali jeste programovaci jazyk CUDA a STREAM. Jinak o nicem nevim. Pouzivate snad nekdo nejaky program co oni udelali? Ovladace jsou neco jineho...
J.C.Denton [Zobrazit profil] [Poslat zprávu] 2009-10-02 14:52:01
avatar
to by platilo jen za predpokladu pouzivani samotneho driveru. ale co je nvidia nebo ati control center?samozrejme ze program a tedy software.
Odkaz proc tam ma ati napsano drivers & software, kdyz ten sotware podle tebe nedela???
Lukyn1811 [Zobrazit profil] [Poslat zprávu] 2009-10-02 14:56:40
avatar
Ovladače samozřejmě jsou software. Je to software, který umožňuje komunikovat mezi operačním systémem a hardwarem.
xJirikx [Zobrazit profil] [Poslat zprávu] 2009-10-01 23:11:57
avatar
chudinka maličká, hlavně že se tu porád žehrá jak nejsou pořádně odladěný hry na grafiky(což taky většinou nejsou). Ono se to asi samo neudělá a pokud to nVidia zabalí co se desktopu týče, jak naznačuješ, tak to bude teprve utrpení s AMD, který si někde něco ukutí a tím skončí. "Hoši tady to máte a vlezte nám na záda. Možná až tu hru uděláte, doladíme za pár měsíců ovladače, aby tam šlo CF a byly lepší FPS..."
kryten10 [Zobrazit profil] [Poslat zprávu] 2009-10-01 23:46:44
avatar
Niekto vyšsie spomínal, že Intel s larabee a Nvdia s fermi si vytvoria nový trh, na ktorom si budú vzájomne konkurovať a AMD tým bude vyšachované z hry. Ale ja si to nemyslím, ako si aj ty spomenul, AMD bude mať Fusion, takže tretí do party. Tomu sa hovorí konkurencia :-)

Ale nie, teraz vážne- fermi vyzerá na výpočty ozaj zaujímavo, intel si myslím tiež nesklame, ale čo je hlavné? AMD sa tiež určite predvedie. Zoberte si, že Intel na to ide od CPU, Nvdia od GPU a AMD má bohaté skúsenosti s obojím, tak verím, že sa to aj prejaví.
Ale to je ešte ďaleká budúcnosť. Sám som zvedavý.
DedecekHribecek [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:31:04

Máte to trochu popletené. CUDA ,se domnívám, je mrtvá. NVIDIa pro to dělá vše omezováním výkonu na ATI kartách. Já na míste vydatele který naprogrmaoval CUDA hru bych byl velmi rozelen na toto snižováná výkomu. Tím NVIDIA snižuje potencionální kupce. Rozhodně bych po této zkušenosti stavel další tituly an něcem nezávislém.

NVIDIA se chová poněkud idioticky. Dá na trh něco proti INTELU. Místo toho aby na něj zaútočila na neslabším místě (typickou grafickou kartou) zaútočí svým modelem larabee tedy přesune boj do oblasti spíše procesorové kde je INTEL nejsilnějším hráčem.

Máte hodně zkreslené představy o síle NVIDIE. Nejdřív jsem se nabubřelé NVIDII vysmíval. Vyklidila chipsety. Nyní zdá se pouští k vodě kdysi dobré grafické karty aby vyvíjela konkurenci larabee. INTEL je daleko silnější a jak se s larabee potýká po výkonové stránce. To NVIDIA papírové larabee má také problémy ale s výrobou. Milá NVIDIE aby tě po krachu tvého larabee brzo nekoupil INTEL. To už nebudeš schopná nabídnout nic.
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:38:10

Preco je podla vas CUDA mrtva? Podla segmentu na ktory NV utoci nemusi CUDA konkurovat OpenCL(ak toto myslite ako konkurenciu). OpenCL moze byt kludne pre desktop pouzitie a CUDA bude pouzivana v profesionalnej sfere... Naozaj si myslite ze je NV taka blba ze by investovala peniaze do platformy u ktorej by nemala pevne zazemie?
DedecekHribecek [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:48:59

Zo jsem již uváděl. NVIDIA se ukazuje jako vývojář software který straní svému hardweru a poškozuje konkurenci. Jemom hlopupý vývojář by jim podruhé sedl na lep když jsou k dispozici jiné prostředky od nezávislých vývojáčů které dělají totéž.
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:58:22

Otazne je skor ci to tak naozaj je ako to tvrdite. Ak by to bola pravda tak je to zle ale do zakulisia nevidime a mozeme len hadat. Neviem v com inak poskodila NV konkurenciu. Co som cital tak to myslia ludia vacsinou na Batmana ale toho som hral iba na NV karte a aj to iba demo. Neviem posudit ako hra vyzerala na ATI a ci bola ochudobnena iba o PhysX efekty alebo za tym bolo viac... Preberalo sa zapnutie AA ale to vyzera skor problem s ovladacmi aj ked sa to zhadzuje na NV. Skor sa mi zda ze niektorim ludom proste nejde tak ako ocakavali a kedze sa NV ciastocne na vyvoji podielala tak je hned automaticky na vine...
DedecekHribecek [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:10:49

Nemusíme vidět do zákulisí. Stačí vidět do historie. To co udělalo NVIDI NVIDII - podpora DX (sntadardu definovaným sw firmou) nahrazuje svým řešením které dodáva sama jako dodavatel HW.

Podívjte se co NVIDIA dělala. Fantastické chipsety a DX vynikající karty. Chipsety jsou minulost a na DX nadává. vrhá se na jakési akcelerátory.
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:16:18

Ale stale podporuje aj ostatne standardy tak ako doteraz. Akurat ponuka nieco svoje navyse a snazi sa na tom zarobit. Inak neviem o tom ze by na DX nadavala. Z oficialnych vyhlaseni tvrdila ze DX11 nebude jedine lakadlo preco si kupit novu kartu. Sice tu bolo velakrat omielane zevraj tvrdila nieco ine ale staci si to precitat.
DedecekHribecek [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:41:55

Napsal jsem to špatně korektní by bylo napsat bagatelizace DX. Začalo to zpochybňováním 10.1 a nyní i DX 11. Nikde jsem nezaznamenal opěvování DX 11. Hovoří obecně o výkonu. Srovnejte si presentace AMD. V tom je vidět jasný odklon od DX 11 a toho co NVIDII udělalo NVIDII.
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:56:47

S DX10.1 skutocne NV bagatelizovala ale co sa tyka DX11 bola interpretacia niektorych redaktorov znacne prehnana. Original tak vobec nevyznieval... Co sa tyka AMD tak to nie je o com. Vzdy som tuto firmu uznaval a drzal jej palce. Procesor by som si iny ako AMD nekupil. Ale co sa tyka GPU som skor fanusik NV aj ked AMD urobila znacny pokrok co nemam problem uznat. NVIDIA je ale v trosku zlozitej situacii. Vlastne procesory nema a mozno im segment iba cistych hernych GPU nezaraba tolko co si predstavovali tak to skusaju inde. Za to by som ich nijako neodsudzoval. Skor im tiez drzim palce.
DedecekHribecek [Zobrazit profil] [Poslat zprávu] 2009-10-02 07:15:25

Nesvádějte to na redakrory. Je to NVIDIA co má plnou pusu CUDA. To že se občas zmíní o DX 11 je jenom aby doprodala co na DX dělá.

Tady snad není debata o tom jaké procesory gi grafiky používáme nebo jim fnadíme. je to o tom co dělalí a jakou mají budoucnost. osobně se domnívám, že si NVIDIA našlápla neco hodně smradlavého. balvan který dost těžko povali dopředu a navíc proti INTELU.
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-02 07:23:13

Ja som narazal iba na pisanie clankov o tom zevraj NV povedala ze je DX11 zbytocne. Co nie je pravda. Iba povedala ze nebude jedina rozhodujuca vec na zvazovanie kupy GPU.
Co sa tyka Intleu bude mat NV naskok takze uvidime s cim sa Intel vytiahne. Osobne si nemyslim ze prva verzia Larabee(2011) bude schopna konkurovat uz davno vydanej Fermi(2010). Na to som ale naozaj zvedavy. Mat Fermi a Larabee v jednom PC... Zaujimava predstava. Len aby to malo adekvatnu SW podporu.
mira89 [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:48:47
avatar
nepotřebuju vidět do zákulisí - co se týká physX tak se nedivím že chce nVidie aby fungoval jen na jejich kartách - ber to podle sebe > něco tě stálo moře času i peněz a pak to má nějakej darmožrout používat zadarmo a aníž by s něčím pomohl
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 19:00:18

Presne tak. Akurat odstavit ludi co si trebars kupili starsiu NV kartu kvoli PhysX len preto ze ako primarnu GPU pouzivaju AMD nie je koser. A nejde tu iba u ludi. Tymto nastvali aj par vyvojarov.

Proste kopec ludi sa tesilo kvoli Win7 aj preto, lebo mal dovolit pouzit 2 ovladace na GPU aby si vyskusali ako to spolu funguje a aky vykon s PhysX s NV kartou budu mat. Toto im trosku zobralo vietor z plachiet a tiez by som bol na ich mieste nastvany.
mira89 [Zobrazit profil] [Poslat zprávu] 2009-10-01 19:15:02
avatar
netvrdím že co dělá nvidie je supr.Jen říkám že bych taky darmožrouty neživil
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 19:19:03

Ja vobec NV neberiem ze si PhysX postavila ako + k svojej znacke. Je to jeden z dovodov preco opat kupim NV GPU. Niekedy to ale prezenie.
Mapek [Zobrazit profil] [Poslat zprávu] - Ale oni darmožrouty živí 2009-10-10 12:46:17

V případě vypnutí PhysX při detekování GRAFICKÉ karty od ATI jsou těmi hlavními darmožrouty, které bys měl tímto slovem nazvat, někteří jiní. Tímto rozhodnutím dávají jasně najevo, že holt dobrou práci odvádějící oddělení vývoje software podlehlo tlaku těch neschopných darmožroutů z vývoje hardware, přestože to ohrožuje jejich vztahy jak se zákazníky, tak s obchodními partnery a ohrožuje to tak vše, čeho svou kvalitní prací dosáhli. Bohužel bez tohoto omezení, které rozhodně všeobecnému přijmutí jejich dobré práce nepomůže, bohužel ti darmožrouti z kanclu vedle chcípnou hlady :-)
Matuus [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:25:37

Batman a AA - engine UT3 vo svojom jadre nepodporuje AA ... NV AA proste pre batmana doprogramovala ... alebo to mala doprogramovat za svoje prachy aj pre ATI karty?
DedecekHribecek [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:56:58

I Vy šprýmaři. Jak karty VVIDIA tak ATI mají stejný standard. Jesltliže chodí AA pro jednu tak logicky musí chodit možná s malými úpravami i pro konkurenci.

I kdyby se mýlil musela chudák NVIDIA musela doprogramovat. Tak ji nikdo nenutí. Jediné co ale produkuje je poloprodukt který neumí podporovat DX 10 karty. To je dost nelichotivá vizitka všemocné CUDE.
Matuus [Zobrazit profil] [Poslat zprávu] 2009-10-01 19:40:53

Samozrejme, len to by ATI musela pohnut prdelou a zacat sa zaujimat viac o vyvoj aktualnych hier a nie spoliehat sa na to, ze to za nu urobia vyvojari alebo NVIDIA
aDDmin [Zobrazit profil] [Poslat zprávu] 2009-10-01 19:47:35
avatar
ATI není ta, co by musela hýbat prdelou .... ATI má DX11 a vvždy všechny technologie které byly k vývoji her potřeba včas a často s předstihem ... tesselaci například má už od roku 2001, DX10.1 podporovala autoamticky hned jak byl stnadard na světě a stejně tomu je i u DX11 - prdelí by měly pohnout herní vývojáři a hlavně konzole ... ATI je výrobce a halvně vývojář HW ne vývojář aplikací, podporuje vše, co má a jaké jsou a budou technologie - je na vývojářích her toho využít ...
Matuus [Zobrazit profil] [Poslat zprávu] 2009-10-01 22:17:41

No keby sa ATI snazila, tak by jej zakaznici mohli z technologii pritomnych v jej kartach aj nejak profitovat. Takto ma sice teselaciu uz pekne dlho, avsak co je to platne, ked potom nepodporuje vyvojarov aby jej karty vyuzivali na 100%? Vyvojarovi je jedno ci bude mat implementovanu HW tesselaciu alebo Physx .. ak to znamena vela prace, tak sa na to s prepacenim vysere. Tento fakt si NV uvedomuje a preto ma svoj program na podporu vyvoja hier. Ja osobne som bol z tesselacie nadseny, avsak po rokoch nuloveho vyuzitia som k nej velmi skepticky ... pokial ju nezacne presadzovat NV tak na nu mozeme asi rovno zabudnut, lebo ATI na tomto poli spinka ako sipkova ruzenka
Dr.Kusa [Zobrazit profil] [Poslat zprávu] 2009-10-01 22:42:13
avatar
mas vcelku pravdu.preco sa tesselace nepouziva uz od roku 2001? preco sa okolo toho robi taky humbuk az teraz? otazky na ktore asi nevie nikto odpovedat a ak ano nech odpovie
J.C.Denton [Zobrazit profil] [Poslat zprávu] 2009-10-01 22:56:00
avatar
protoze ji doted directx nepodporoval?
Matuus [Zobrazit profil] [Poslat zprávu] 2009-10-01 23:34:56

No implementovat nejaku technologiu do svojej grafiky a cakat niekolko rokov az si na nu spomenie MS je priam trestuhodne ... keby sa NV chovala ako ATI tak tu dodnes nie je ani jedna hra s GPU PhysX
DedecekHribecek [Zobrazit profil] [Poslat zprávu] 2009-10-02 07:23:39

Pravdu nemá.
Tesselance. proč se nepoužívá od 2001? Stačí si odpovědět na jjednoduché otázky Od kdy je součástí DX. Od kdy je odpovídající DX podporován HW a kdy tesselance začali používat vývojáři.
Matuus [Zobrazit profil] [Poslat zprávu] 2009-10-02 08:44:08

Ale vsak vyuzitie tesselacie nie je viazane na DirectX ... a ako som uz pisal, spoliehat sa na to, ze samotni vyvojari sa postaraju o rozsirenie tesseleacie je detinske.
DedecekHribecek [Zobrazit profil] [Poslat zprávu] 2009-10-02 07:20:45

ATI CUDA nedělá a tudíž nemá co zlepšovat.
DedecekHribecek [Zobrazit profil] [Poslat zprávu] 2009-10-02 07:18:19

Kdo prosím Vás vyvíjí CUDA? Čí je to práce CUDA vylepšit. ATI dodržuje standard DX. To je vše co je povinna jako výrobce HW povinna.

Plete si zodpovědnosti. Ujasněte si role a potom mluvte.
Matuus [Zobrazit profil] [Poslat zprávu] 2009-10-02 08:47:34

Pisal snad niekto ze ma ATI vylepsovat CUDA? Bavili sme sa o neschopnosti ATI podporovat hernych vyvojarov.
Bennie [Zobrazit profil] [Poslat zprávu] 2009-10-04 20:52:42
avatar
Je vidět, že o tom prd víte... NV karty AA dělají odlišně od ATI... proto to v unreal enginech nefunguje.. protože se na něm spolupodílela NV a ATI na to prděla..
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-02 09:38:59

Nenapadlo ma doteraz sa na to pozerat takymto sposobom. Ze sa boja ze vlastnici starsich GeForce si kupia novu ATI a staru NV kartu si nechaju na PhysX akceleraciu. Heh. Z tohto uhla pohladu ich chapem.
Nexon [Zobrazit profil] [Poslat zprávu] - To Bennie 2009-10-02 13:28:01

Můžeš začít u sebe a největší facku si vlepit sám. Viz můj koment v diskuzi na extra. Pro jistotu ho jsem vložím: ""Pokud změníš ID karty, tak pokud by to bylo tak, jak tvrdí nvidia, že je to jen upraveno a lazeno v jejich ovladačích, tak by samozřejmě podpora u ATIN zapnout nešla (i přes změněné fake ID ve hře, musí ATI karta běžet přes Catalysty a hle ona najednou podpora AA běží). Takže je Nvidia opět usvědčena ze lži, takže klasické schéma detekuj kartu-jde o ATI-vypni podporu. Proto mluvím o sabotáži. Ze začátku šlo o progresivní firmu, ale to co se stalo z Nvidie ted, je na blití.""
Takže ještě jednou pro tebe, AA na ATI kartách běží naprosto v pohodě, (je opravdu vidět, že tomu prd rozumíš), jen je společností Nvidia uměle blokována. Můžeš se začít fackovat ...
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-02 13:34:20

Ak zmenis ID karty tak aby si hra myslela ze je od NV tak sa AA zapne(ak funkcia, ktorou hra kartu detekuje vrati to zmenene ID). To je predsa obidenie problemu. Zdovodnenie NV vyzera byt logicke. Ak to funguje tak ako si myslim.
Half [Zobrazit profil] [Poslat zprávu] 2009-10-02 13:47:25

urcite si potom cital aj odpoved na tvoj comment, ze?

Citace:
A cos tím chtěl říct? Samozřejmě, že to jede přes ovladače Radeonu. Ale za ty nvidia ručit nemůže, stejně tak za ně nemůže ručit výrobce hry.
Pokud by NVIDIA umožnila AA i pro ATI a zjistilo se, že způsobuje chyby v obraze, tak tu máme aféru stejně a pravděpodobně o dost větší.
Nexon [Zobrazit profil] [Poslat zprávu] 2009-10-02 14:21:02

Vtip je v tom, že vyhlazování (hlavně vyšší režimy) běží na Atinách mnohem lépe (s daleko menším dopadem na výkon), tak co udélám? Lup, vypnu podporu vyhlazování u konkurence. Navíc nejkvalitnější vyhlazování včetně filtrace textur má teďka ATI s HD 58xx, takže u Nvidie maj naděláno v gatích. Příště může třeba začít vypínat fičury ATI na kartách Nvidia. Opravdu skvělá představa, naštěstí tohle ATI nedělá, jde cestou otevřených standartů, které můžou používat všichni a nechová se jako idioti z Nvidie.
zeroground [Zobrazit profil] [Poslat zprávu] 2009-10-02 15:34:16

Co to meles? Tady nejde o vypinani AA, ale naopak o jeho implementaci. AMD to do Batmana neprovedla. Nvidia ano. Neda to kokurenci jen tak. Tady nejde o zadne deaktivovani, AA proste v Unreal enginu neni, je nutne ho dodelat a spolupracovat pritom s vyvojari hry. Vidis carodejnice tam, kde nejsou. Prea catalysty aktivovat vyhlazovani jde, bohuzel tim trpi samozrejme vykon, protoze AA nativne ve re funguje fektivneji. Ale to je problem AMD aby tohle v ovladacich napravila. JAK MUZES VYPNOUT NECO, CO NENI? Vazne, mene emoci, vice rozvahy. Jasne, ze by mohla Nvidia ci Eidos udelat to, ze napr. FSAA ci MSAA povoli pro obe karty, ale optimalizovano to bylo pouze na Nvidii. Pokud se vyskytnou nejake artefakty na Radeonu, kdo bude na vine? Ten problem je staven vazne tak, ze se nic nevypina, naopak prave zapina. AMD brzy jiste vyda hotfix, ktery minimalne zpusobi efektivnejsi praci vynuceneho AA pres catalysty, pripadne ji nikdo nebrani spolupracovat s Eidosem a v pristim patchi implementovat primo nativni AA do hry. Tohle uz tady bylo x-krat. nvidia na AA v unreal enginu pracuje proste vice nez AMD, ale to snad neni jeji vina.
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-02 15:35:10

To je vtip? Neverim tomu ze by NV vypla podporu AA u konkurencie. Pochybujem ze by s tym suhlasil vyvojar hry. Co sa tyka podpory otvorenych standardov tak NV podporuje vsetky tak ako aj AMD. To ze ma nieco vlastne ako + a nechce to dat inym zadara je uplne normalne. Kazdy chce prilakat zakaznika na svoju stranu a zarobit. Co je na tom nepochopitelne?
xJirikx [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:58:41
avatar
a dělají totéž se stejným servisem a prostředím? ono to, že tu DD napíše: PhysX a Havok jsou stejné věci, ještě neznamená, že to platí i pro vývojáře...
DedecekHribecek [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:06:24

Dělají totéž a to akceleraci her. To snad vidíte i Vy. Je jedno jakými prostředky. Nezáleží ani tolik na progresivitě ale na tom co se uchytí. NVIDIa ale dělá vše pro to aby skončila na smetišti. Podkopává důvěru ve své produkty a férovost.
xJirikx [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:28:59
avatar
jenže pro vývojáře rozhodně nemusí stejný výsledek znamenat stejné množství práce ve dvou rozdílných prostředcích. To je to co chtěl básník říct a pokud mi PhysX dokáže vyrobit fyziku za, teď uvedu úmyslně zcestný číslo, dvě hodiny a s Havokem na tom budu dělat týden (nebo naopak s Havokem to bude výrazně rychlejší), tak už se o to co bylo s Batmanem moc starat nebudu.
DedecekHribecek [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:45:40

Výkon se bude měmit v čase stejně jako funkce. Nejdůležitější je serioznost partnera a tedy hlavně perspektiva. Uvědomte si co by to zanmenalo učit lidi něco nového v čem mají programovat.

Jaký systém bude použit neučujete vy a to o co se budete starat ale vývojář.
xJirikx [Zobrazit profil] [Poslat zprávu] 2009-10-01 19:10:09
avatar
no to právě říkám. Vývojáře především zajímá jak se to udělá a ne jestli se to udělá. Co se podpory vývojářů týče, tak tam je nVidia úplně někde jinde, než AMD. I přes tzv. prznění výkonu Batmana o kterém jsem četl jen tady, abych pravdu řekl a pokaždé to bylo trochu něco jiného. Jednou se píše o zakázání pro CPU úplně, jindy o tom, že to bylo záměrně zhoršeno, ale nikde nic "oficiálního".
DedecekHribecek [Zobrazit profil] [Poslat zprávu] 2009-10-02 07:28:30

nerozumíte mi. To říkáte něco zcela jiného. Ona perspektiva je něco jiného. Mám ny mysli užít technologii která se bude dlouho používat, rozvíjet a pokrývající hodně uživatelů.
Matuus [Zobrazit profil] [Poslat zprávu] 2009-10-01 19:00:50

Ked NV zbada perspektivny projekt, tak tam nabehne jej banda programatorov a do hry proste ten PhysX doprogramuje /tak to bolo aj s Batmanom a tak to je aj s mafiou/
eR_Skaarj [Zobrazit profil] [Poslat zprávu] 2009-10-01 16:58:25

Taky vám nynější situace připomíná dobu před deseti lety, kdy padl jiný velikán? Ano, narážím na 3Dfx (samozřejmě až na to tentokrát je v pozici 3Dfx samotná nVidie - ironicky ta společnou která potupně 3Dfx odkoupila...).

4 DD - chlape nezlob se na mě, rád čtu tvé články, často máš pravdu a je dobré že je tu určitá protiváha k fosforovězeleným webům...
Ale proboha nutné stále upozorňovat na to jak jsi to říkal? Jak jsi to předpovídal. Kdyby jednou, ale tohle je pomalu v každém článku.
Nebo co mě žere ještě více - tvé narážky na to jaké máš zdroje a co všechny víš, jen to nemůžeš prozradit...
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:39:26

Ja si na 3DFX moc nepamatam. V com by mala byt ta podoba? Celkom ma to zaujima.

EDIT: Namiesto klikania na nesuhlasny palec by mi mohol niekto napisat ako to s 3DFX bolo. To co som pisal myslim vazne. Naozaj o tom nic neviem. Nebolo to myslene ironicky ani nijak zle.
DedecekHribecek [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:01:57

DFX karty byly urychlovače s vlastními drivery a potřebovali grafickou kartu. Měli praktick monopol na technologii a na trh. Tehdy se všichni vysmívali MS když přišel s DX. Tu přišla na trh NVIDIA a nabídla kartu přímo podorující prastarý DX. DFX dostalo konkurenci a začalo nabízet takové divné nenasytné svářečky které se neujali.
Tak porazil david goliáše a začala přeslavná éra firmy NVIDIA. Nyní sázení na standard definovaný SW firmou (tehdy na microsoftí DX)NVIDIA kálí. Chová se jako DFX které hájilo ten svůj standard a podporuje svoji CUDU kterou omezuje ostatním.
Matuus [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:22:42

Aha, takze ked FERMI podporuje DX11 a OpenCl tak "sere" na standardy? Zaujimava dedukcia ... ako som uz pisal, na GPUTC /ktoru zastresuje NVIDIA/ sa zacinalo prave so sessions, na ktorych sa hovorilo vyhradne o prinose DX11 a OpenCl ... a stalo to fakt za to
DedecekHribecek [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:48:13

Naučte se nejdřív číst mezi řádky. NVIDIA otevřene neřkne nic takového. Ale říká cosi jak je nedůlezié DX 10.1 a jak je důležitá CUDA. To jsou informace které definují postoj k budoucnosti.
Matuus [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:57:25

No urcite sa zhodneme ze s DX10.1 mala pravdu V konecnom dosledku sa z DX10.1 stala len marketingova pomocka pre AMD/ATI a majitelia GeForce kariet prisli len o trochu vykonu v HAWX. AK by bola DX10.1 taka pecka, tak sa presadi aj napriek ignoracii NV ... a ak NV skutocne stala za nevyuzitim DX10.1 v hrach, tak vlastne udava smer vyvoja /joke/
DedecekHribecek [Zobrazit profil] [Poslat zprávu] 2009-10-02 07:33:15

DX 10.1 nebyla žádná marketingová pomůcka. Když ji NVIDIA implematovala tak tím potvrdila perspektivnost technologie.
To že se neujalo je protože ho NVIDIA pohřbila. Vývojáři přece nebudo dělat nějakou práci nvíc když to porkyje jenom polovine segmentu.
Vzpoměňte si jak i ti co vydali tuto podporu ji stahovali na nátlak NVIDIE.
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-02 08:09:39

NV implementovala DX10.1 iba do svojich low-end modelov a mohlo ist o nejaku pripravu na implementaciu DX11. Nemyslim si ze DX10.1 mal nejaku perspektivu. Bol to iba medzikrok k DX11.
Matuus [Zobrazit profil] [Poslat zprávu] 2009-10-02 08:52:51

Ale bola to marketingova pomocka ... viac ako v hrach ju bolo vidno v prezentaciach samotnej AMD/ATI

No vie sa o jednom pripade, pricom aj okolo neho su urcite nejasnosti a stiahnutie patchu niekto dava za vinu naslednej nestabilite ... alebo nebodaj este vies o nejakej inej hre z ktorej sa na zaklade natlaku NV odstanila podpora DX10.1? Ak nie, tak je tvoj prispevok znacne zavadzajuci
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 19:01:33

JJ. Teraz uz niektore vyhlasenia davaju vacsi zmysel ako tomu bolo predtym.
xJirikx [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:04:04
avatar
to máš fuk. tady to nikoho nezajímá, prostě si někdo řek, že ti dá minus, další viděl jedno minus, tak co. Dám ho taky. atd. Na tyhle hodnocení se nedá brát zřetel. V popisu je psáno jak se tím ukazuje "hodnověrnost uživatele podle ostatních uživatelů" a pak se tu adminem nastaví člověku z 72 nebo kolik měl obc na 0.

Co se 3dfx týče, tak u toho jsem taky nebyl, takže nemůžu sloužit. Ale třeba MadMaxII by se tu časem moh ukázat, podle toho jakym stylem píše, bych tipoval, že on to zažil a třeba se podělí o stařeckou moudrost
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:18:31

Tie minusky ma netrapia. Akurat som sa nieco opytal a niekto namiesto odpovede ma vyklikal. A pritom som neurazal nikoho ani ziadnu firmu.
DedecekHribecek [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:49:54

Tento web je bohužel plný magorů kteří neumí říci svůj názor a tak to co se jim nemíbí omínusují. Taková malá demontrace jejich hlouposti a malosti.
Allie Fox [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:55:42
avatar
Tak pesimisticky. Šálek je z půlky plný . Mě se třeba tvoje názory a poznatky ohledně 3dfx,DX, nVidie líbí.
wizard_ov [Zobrazit profil] [Poslat zprávu] 2009-10-02 09:09:30
avatar
S obc mi to připomínalo takovou tu demonstraci o které píše DedecekHribecek (sakra to je dlouhý nick ) kousek níže. Obc psal s přehledem, zasvěceně a vtipně. Bohužel proti jisté osobě, kterou nemohu jmenovat aby to nebylo bráno jako osobní útok. Jistá osoba použila proti Obc prostředky, které se používají mezi dětmi na pískovišti, nebo v politice...
j.matrix [Zobrazit profil] [Poslat zprávu] 2009-10-01 21:25:11
avatar
3dfx bola firma ktora vyrabala grafiky skor ako bola nvidia, potom vsak nezvladli hype pri vydani geforce256. 3dfx vtedy chcelo vyrabat kartu s 2 az neviem kolkymi cipmi. Realne sa vyrobila 4cipovka, mala vykon asi ako geforce2 ale nakoniec to dopadlo tak ze ju odkupila nvidia. Z nedokonceneho projektu rampage sa napokon vela veci implentovalo do nepodareneho geforce fx, viac info najdes na jednej ceskej stranke. skoda voodoo,to boli grafiky
dusan.dj [Zobrazit profil] [Poslat zprávu] - A zase dokola,dokolecka, 2009-10-01 17:13:35

Ahoj,fandim NV,ale jen se me libi jak si nekdo vychvaluje neco,co neexistuje.Az to bude v obchode,muzeme posuzovat a lamat rekordy,,,zatim mavaji jen plastovym obalem,tistakem a novou revizi chladice,,,
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:33:31

Vzhladom na to ze sa nova generacia AMD podarila bolo treba nieco ukazat. Uvidime ako to nakoniec bude.
AndreasCZ [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:01:18
avatar
Je to pro Nvidia riskantni krok a muze se na tom objesit a nebo si udelat vyrazny naskok. Az historie ukaze viteze a porazene...
xJirikx [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:05:29
avatar
ámen
jmmazuch [Zobrazit profil] [Poslat zprávu] - Prilis moc FPS 2009-10-01 18:44:43
avatar
Sem spokenej uzivatel legendarni 4870 1Gb a FPS mam dostatek
Takze snad DX11-Direct Compute a OpenCL,CUDA prinesu na desktop viac stavy tam kde chyba.
zumpar1234 [Zobrazit profil] [Poslat zprávu] 2009-10-01 19:09:21
avatar
nVIDIA spravila fakt next gen jadro. Pochybujem o nejakom primarnom zameraní na profi segment alebo čo sa spomína Grafická karta je určená na hranie hier to je jej primárna funkcia. ostatné veci su bonus a to fakt príjemný najme keď sa objavia aplikacie využivajuce CPU+GPU. Ale najdôležitejší je herný výkon. Ten zatiaľ nepoznáme....ten je najdôležitejší...a je na 100% jasné že v pripade malého nárastu herného vykonu nVIDIA skončí v pekelnej stráte...Ja jej to aj prajem. Poriadna facka aby sa prebrala z toho sna čo sníva by celej nVIDII pomohla.

PS: Samozrejme NV by mala mať cca rovnaký alebo večší herný výkon ako ATI...
aDDmin [Zobrazit profil] [Poslat zprávu] 2009-10-01 19:27:32
avatar
pochybuješ? aha tak to si flastně celou prezentaci NV o zaměření pro výpočty a na TESLA vymyslela
zumpar1234 [Zobrazit profil] [Poslat zprávu] 2009-10-01 19:34:42
avatar
Ne ale PC hráči by jej otrieskali o hlavu GK ktoré majú malý herný výkon...ako vravim prijemný Bonus ale pre hranie?... Uvidime az po herných testoch...
xJirikx [Zobrazit profil] [Poslat zprávu] 2009-10-01 20:39:46
avatar
hlavně se uvidí až co ukážou hospodářské výsledky...
eR_Skaarj [Zobrazit profil] [Poslat zprávu] 2009-10-01 19:09:37

Ad. 3Dfx vs. nVidia - do doby Voodoo 2 (a Banshee) mělo 3Dfx prakticky monopol, vlastně nVidia se tehdy snažila konkurovat TNTčkem (které nebylo špatné výkonově, ale nemělo jméno a provozní vlastnosti taky byli někde trošku jinde).
Pak 3Dfx přišlo s Voodoo 3 (2k, 3k a 3.5k varianty) proti kterým už nVidia nasadila velice schopnou konkurenty, TNT2 a TNT2 Ultra. 3Dfx se stále spoléhalo na Glide (kde se nVidia moc nechytala) ale zaspalo co se týká D3D. Tentokrát nVidia předběhla 3Dfx. Totálně ale 3Dfx rozsekala tuším v roce 2000 se svou GeForce DDR, kdy 3DFx neměla čím odpovědět (aneb dnešní situace - AMD má HD58xx a nVidia nic...). 3Dfx si kuchtila svoje nové Voodoo 4 a 5 na čipech VSA100. Když byli Voodoo 4 (jeden čip) a 5 (dva, čtyři a v plánu byla i 8 čipová varianta) hotové tak nVidia měla na trhu už GF2 (jak slavné MXko tak trhač asfaltu GTS). Voodoo 5 bylo sice technologicky napřed (výkonostně taky - ale ne o moc), problém byl v ceně, provozu, ovladačích atd... navíc 3Dfx nemělo ani prostědky aby dokázalo V4 a V5 více prosadit. V podstatě se V4 a V5 ani nedostali pořádně do prodeje (takže jsou to dost rare karty).
No a pak nVidia koupila 3Dfx, skalní fandové Voodoo od té doby nemůžou přijít nVidii na jméno

Doufám že jsme něco nespletl, o ATI jsem se nezmiňoval neb si nějak nemůžu vybavit že by do souboje na poli akcelerátorů výrazněji promluvila (ano, asi promluvila - ale nikdy neaspirovala na trůn, ATI se začalo víc prosazovat za dob radeonů 7500 a 8500, kde hlavně 8500 rozsekal technologický zázrak GF3, aby byl následně rozsekán GF4Ti, které byli potupně rozsékány radeony 9xxxO, které o půl roku později dali na prdel i GF5... a začínáme se dostávat moc do současnosti a mě už přestává bavit psát).
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 19:22:23

j.matrix [Zobrazit profil] [Poslat zprávu] 2009-10-01 21:30:16
avatar
spravne si to napisal este by som spomenul dvojcipovku rage fury max, vysla vsak v dobe geforce256. takisto bola dobra aj posledna herna grafika od matroxu G4OOmax, konkurencia ku tnt2 ultra. glide bolo vlastne api rozhranie 3dfx. Postupne s nastupom dx odumieralo. Aj ked povodne v dobach Voodoo1 a 2 bolo na nom postavenych vela hier. Co ja viem tak posledna poriadna hra co na nom sla bol Unreal Tournament
eR_Skaarj [Zobrazit profil] [Poslat zprávu] 2009-10-01 21:56:30

Ad. matrox - G400 nebyla moc konkurence k TNT2 (resp. GeForce DDR - aka GeForce 256). Byla určena pro profesionálnější aplikace, výkon byl mírně pod GF, ale cena byla o dost vyšší (podpora více monitorů). Rage Fury Maxx - pokud člověk trefil hru tak ok, ale jakmile ne... hold dvě jádra v jedné kartě. Pamatuju že známej na tu kartu nadával kudy chodil...
j.matrix [Zobrazit profil] [Poslat zprávu] 2009-10-02 22:23:41
avatar
no hlavnym problemom rage fury max bol ze ovladace boli iba na windows 98 g400 mala meskanie oproti tnt2,tesne po nej vysla uz prva geforce, ale suhlasim ze to nebola celkom herna karta,aj ked urcite sa na nej hrat hry dali,mala vybornu kvalitu obrazu, kvalitny ramdac, 256b zbernicu, vystupy na dva monitory. Naa tu dobu to bol prevrat
ja_X [Zobrazit profil] [Poslat zprávu] - Předváděná Fermi je FAKE? 2009-10-01 20:02:17
avatar
Karta NVidia s Fermi prezentovaná na včerejší NVidia konferenci je pravděpodobně nefunkční FAKE viz. fotka karty na http://pc.watch.impress.co.jp/img/pcw/docs/318/660/html/03.jpg.html .Nesedí na ní body pro připájení konektorů přidavného napájení s umístěním 6 a 8 pinového konektoru na karte, vypadá to jako by bylo celé PCB uříznuto z delší karty a nasazen chladič z Fermi.
AndyF1 [Zobrazit profil] [Poslat zprávu] 2009-10-03 09:11:29

Tiez si myslim.Na videu priamo na NV stranke to radsej ukazal len na kratkz moment.Som zvedavy na prvu realnu kartu.
zumpar1234 [Zobrazit profil] [Poslat zprávu] - Herný výkon 2009-10-01 20:24:18
avatar
Ako vravím herný výkon je najdôležitejší. NV zatial nic nevie vsetko len skúsa a ladí. Tak preto nám ukázala nieco co vie ako tak odhadnúť...a to CUDA novinky.... Hry sa nespomínajú len preto že bez funkčnej GK sa nedá nič povedať Očakávam poriadný NÁŘEZ;) ATi sa bude musieť skloniť pred NV
Nexon [Zobrazit profil] [Poslat zprávu] 2009-10-01 20:47:47

To jo, ale jenom proto, aby to zelený lejno uklidila z cesty.
holoway [Zobrazit profil] [Poslat zprávu] 2009-10-01 23:52:15
avatar
Dobře ty, to mě pobavilo. Máš palec nahoru.

A ještě vlastní názor: ač pan zumpar očekává herní nářez, já očekávám, resp. doufám, že na tom hry půjdou Zrovna to, co ale dneska ukázala nVidia na prezentacích skoro ukazuje, že to bude jen na počítání...taky chci pěkně nějakej hezkej marketingovej graf výkonu ve hře, ale zatím to ještě asi fakt není na čem otestovat.
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-02 07:30:25

Podla prezentacii bude GK podporovat DX11, OpenCL, Direct Compute.... Myslim si ze hry na nej pojdu.
Bennie [Zobrazit profil] [Poslat zprávu] 2009-10-02 08:22:15
avatar
není možná Holowayi, že ti do dneška nikdo neřekl, že 3D grafika je jenom samé počítání a počítání a počítání )))
zumpar1234 [Zobrazit profil] [Poslat zprávu] 2009-10-02 10:31:13
avatar
"doufám, že na tom hry půjdou" Máš obavy len kôli tomu že NV nič o hrách na konferencii nehovorila? "chci pěkně nějakej hezkej marketingovej graf výkonu ve hře" Ano to chcem aj ja Problem je že GK nie je hotová a tak nemajú na čom testovať Tak ako vravíš....teda fakt nechápem ako môžeš povedať že sa bojíš že NV nebude zvládať hry a že bude len na počítanie v CUDA? čo podľa teba mali asi o hrách hovoriť keď sami nevedia ako na tom su? Preto tam vraveli len o CUDA veciach ktoré majú ako tak teoreticky zmáknuté
j.matrix [Zobrazit profil] [Poslat zprávu] 2009-10-01 21:32:49
avatar
herny vykon je najdolezitejsi pre hracov mozno pre nvidiu uz nie ak sa na hracov vykasle a pojde radsej zarabat cash do ineho segmentu. uvidime...
qmox [Zobrazit profil] [Poslat zprávu] 2009-10-01 21:27:51

Ked sa sefa nvidie pri ohlaseni poslednych kvartalnych vysledkov na tom konferencnom calle pytali kedy zacne hovorit nvidia o novych grafickych kartach kedze sa uz zacali sirit spekulacie o Ati, Jensen povedal ze nvidia preferuje hovorit o buducej generacii az ked nehrozi riziko ze by si takpovediac zmrazili predaje sucastne generacie v nejakom segmente .
Ked prihliadnem k datumu tejto prezentacie , povedal by som ze toto je dobry barometer ako to s predajmi nvidia kariet v cenach 300+ euro vyzera.

Kazdopadne zaujimava karta, a viem si predstavit ze herne studia by z nej mohli mat radost.
HD_Fugas [Zobrazit profil] [Poslat zprávu] 2009-10-01 23:37:42
avatar
Jo i já sem tenkrát měl 3dfx voodoo banshee 16MB,myslim někdy v roce 1999,byla to tenkrát bomba karta(celej komp pentium 1 na 166MHZ MMX a 16MB ram myslim) ,jo je to pěkná historie a snad jí mam ještě někde na půdě.......asi to pudu oprášit a dát si na něm dungeon keepera nebo nhl 2000
pure8 [Zobrazit profil] [Poslat zprávu] 2009-10-02 00:56:34

Myslím, že Nvidia jde do kopru a jestli ten výkon bude slabý, tak po nvidii nesáhnou ani profesionálové. Přece není možné, aby hi-end měl stejný výkon jako mainstream. A navíc obří čip od Nvidie bude určitě dražší.
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-02 07:34:09

HD 5870 nie je mainstream. Z tu cenu aku sa predava ide o high-end. HD 5870x2 by som nazval uz entusiastic a nie high-end. Moj osobny nazor.
radvot [Zobrazit profil] [Poslat zprávu] 2009-10-02 03:32:09

velmi zajimava diskuse.Asi tu DD mel dat par vytahu z konference.Ze ta karta ukazovana na konferenci je jen maketa si muze overit kazdy.Ale to neni dulezite.Nikde neni ani zminka o vykonu ve hrach.Zadne grafy o kolik fps porazi konkurenci.Jen srovnani o kolik je rychlejsi nez Tesla.Mimochodem,Tesla C 1060 jde sehnat uz za pouhych 35 000kc.samozrejme existuji i vykonejsi a mnohem drazsi typy .Takze pokud predbeznych odhadu ma byt fermi 5x vykonejsi nez Tesla. opravdu si myslite ze date dost penez dohromady aby jste si ji mohli koupit?Myslite ze Nvidia posle k certu tak skvele vynosnou Teslu aby nabizela hracum kteri naprosto nevyuziji pokrokove technologie kartu nekolikanasobne silnejsi za zlomek ceny? Tohle neni karta na hrani.ani nema v umyslu poskytovat vysoky vykon ve hrach.tohle je fantasticka,plne programovatelna masinka s podporou prumyslovych standardu urcena do profesionalni sfery.Tam se penizky vydelavaji a tam za to Nvidia dostane RADNE zaplaceno.Myslite si ze se IBM vzdala x86 z rozmaru?Zavetrila prilezitost,dnes si dela sve procaky i software.A verte mi ze se to s x86 neda srovnat.o jejim uspechu snad nemusime diskutovat.Oak Ridge National Laboratory ma v umyslu postavit na zaklade Fermi super pocitac 10x vykonejsi nez soucasny nejrychlejsi.Ne vse zalezi na hrubych Gflops stejne jako ne vse zalezi na frekvenci cpu.DD,dej tu prosim anketu kolik asi tak bude Fermi stat .To bude sila
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-02 07:36:01

Na to som tiez zvedavy. Prinajhorsom kupime nejaky slabsi derivat. Snad to nebude az take zle.
zeroground [Zobrazit profil] [Poslat zprávu] 2009-10-02 09:37:36

Myslim, ze ve hrach nic neukazala, protoze jeste proste nejsou ovladace. Preci jenom, k vyuziti tohohle jadra asi bude potreba ovladace radne prepracovat. Na ty konferenci se predstavila pouze technologie samotna, tzn. ten sample klidne muze byt nejak zbastlenej - nic to neznamena. Ja bych pockal, az vyjdou nejake gafy s vykonem ve hrach. To jadro potencial ma a nemuzes srovnavat Teslu a herni grafiku cenove. U Tesly kupujes kartu s jinymi parametry nez ma herni GK, byt jsou stavene na stejnem zaklade - Teslo je stavena na stejnem jadre jako GTX280 - G200b a vidis, ze prodavat za konkurenceschopne ceny to v hernim segmentu jde. To jadro se v hernim segmentu bude prodavat za odpovidajici cenu, tzn pokud podle vseho o 10-15% prekona HD5870, bude stat o tech cca stejnych procent vice. Stejne jako dosud. Nvidia se na profesionali segment soustredi uz dlouho, to neni pouze posledni dobou. I proto silna masaz CUDA, ktera je pro hrani a bezneho uzivatele ne moc vyuzitelna, ale prave v profesionalnim segmentu prinasi nesporne vyhody. Myslim, ze hodne predcasne hazite ohledne Nvidie flintu do zita. V hernim segmentu nabidne karty za odpovidajici cenu vykonu a verim, ze vykon ve rach bude minimalne srovnatelny s konkurenci, spise opet o neco lepsi.
Dhatz [Zobrazit profil] [Poslat zprávu] 2009-10-02 08:47:37
avatar
s tím že fermi bude pomalejší než HD5870 se dá říct, že si nVidia kope čím dál větší,daržší a méně výnosný hrob.
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-02 09:41:36

To su len dohady. Uvidime po testoch.
Bohy [Zobrazit profil] [Poslat zprávu] - Profesionální segment 2009-10-02 09:12:25
avatar
Takže kdyby se Fermi uchytila v profesionálním segmentu tak by hry a jiné věci dělaly na Fermi, Nvidia by měla dolary a hrály by jsme na předražených Ati protože by neměly konkurenci ???
Snad to nebude tak zlý
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-02 09:44:22

NV karta bude podporovat vsetky standardy tak ako aj AMD takze by som sa nebal. Skor som zvedavy s akym vykonom.
Grol2 [Zobrazit profil] [Poslat zprávu] - Fermi 2009-10-02 10:46:00

Ja bych Fermi tolik nezatracoval. Vzpomenam si, kdyz jsem ve sve dobe kupoval procesor bez koprocesoru. "K cemu to, stejne to vetsina veci nevyuzije." O rok pozdeji jsem to za dobry napad nepovazoval a o dva roky pozdeji jsem se proklinal. Nenechte se zmylit, tahle vecicka neni jen pro pocitani fyziky. Prinese obrovsky vykon vsude tam, kde je mozne pouzit maticove operace a tim vyuzit masivni paralelizaci. Kdo nekdy prisel s uplatnenim maticovych operaci do styku vi, ze se nechaji uplatnit temer vsude. Zpracovani zvuku, obrazu, archivace, kodovani, umela inteligence nebo pocitani grafiky pro hru... Duvodem, proc pro to zatim neexistuji aplikace je, ze HW mel doted velke limity a hlavne je to neco docela jineho nez psat bezny ceckovsky program. Vyzaduje to dokonce trochu jiny pristup k programovani. Ale ono to prijde. Mozna s Fermi prichazi NV trochu brzo, mozna vcas. To v tuhle chvili nikdo s urcitosti neodhadne. V kazdem pripade tohle je smer, kterym se budou veci dale ubirat. Za par let bude GPCPU to, cim je dnes koprocesor - samozrejmosti.
jardop [Zobrazit profil] [Poslat zprávu] 2009-10-02 12:44:17

konkurecnemu boju neuspech nvidie neprospeje.. tak dufajme, ze sa im podari nejaky zdatny konkurent..
zumpar1234 [Zobrazit profil] [Poslat zprávu] 2009-10-02 14:52:03
avatar
Unreal Engine nemá AA ten do hry pridáva stále NV sama to že ATI proste nič nerobý a nevie spraviť dokonca ani poriadne ovládače je len ich chyba! nikto ATI nebráni aby AA zapracovali a mali aj na svojich kartách. Ak by tu NV nebola tak žiadny AA v Bioshocku ani v Batmanovy nemáme . Niektorý by mali otvoriť oči. Po SW stránke je ATI podpriemer..a na NV nemá ani zdaleka.
radvot [Zobrazit profil] [Poslat zprávu] 2009-10-03 01:57:39

Ocividne tu mluvime kazdy o necem jinem.zatimco Tesla je odvozena od hernich grafik Fermi na to jde uplne z opacne strany.Pokud vam to neprijde jasne uz z oznaceni TESLA-FERMI tak opravdu nevim.Tahle karta je delana prioritne na vypocty,vykon ve hrach je ten malej co se krci vzadu.Tim nechci rict ze vykon ve hrach bude spatny.Ale na hry ta karta neni.Prvni namitka.Plne progromavatelna karta.To jsme tu vsichni spickovi programatori? .Asi jo,vsem nam je programovani a prumyslove standarty dennim chlebem.Druha namitka.Penize.Je tu samozrejme moznost ze se vsichni u Nvidia zblaznili a budou nabizet kartu x nasobne silnejsi nez je Tesla v segmentu kde je Tesla spickou ma obrovske marze a castky + - 10000kc jsou jen drobne.Jen proto aby se zavdecili hracum.klidne kvuli tomu poslou tak vynosny trh k sipku.Namitka treti.ECC.Kompletne vsechny cipy na FERMI pouzivaji ECC korekci chyb.Sice je to drazsi ale na rozdil od her je to pro vedecke vypocty obrovsky prinos.Tohle je jen vlastnost Tesla.Namitka ctvrta.Nexus.predastaven spolu s Fermi.prostredi specialne navrzene pro podporu masivni paralelizace v aplikacich pro Cuda C.OpenCL a direct compute.Urceno pro snadnejsi migraci vyvojaru na Fermi.Namitka pata.Ovladace jsou.Ale na co?Byla predstavena simulace hvezd v galaxii kde tesla podava vykon 3.5 fps a fermi 16-18 fps.po doladeni ovladacu to bude jeste lepsi.podstany je vykon v double precision.Takze shrnuti.Opravdu si myslite ze si tuhle neuveritelne vykonou masinku strcite do pc aby jste na tom mohli parit Stalkera?
J.C.Denton [Zobrazit profil] [Poslat zprávu] 2009-10-03 02:30:46
avatar
jo myslime...nebo spise je to jasne. k tem tvym namitkam.

1) plne programovatelna karta. na co musime byt programatori? vis vubec co to programovani je? na programovani nepotrebujes zadne vykonne komponenty, prakticky ti staci jen poznamkovy blok. my ale budeme vyuzivat programy co na tom pobezi a hry jsou take programy! uz jen z te prvni tve namitky je jasne, ze nevis vubec o co de

2) penize. soucasne tesla karty jsou take x krat drazsi nez jejich herni protejsky se stejnym gpu. s tesla kartou si kupujes totiz hlavne podporu od nvidie a to jak softwarovou, tak i primo od jejich lidi vcetne servisu a prakticky vseho co muze potrebovat.

3) ECC podporuje, ale nevyzaduje! ECC se bude vyuzivat jen v segmentech, kde ho je potreba. v hernich grafikach je to nesmysl.

4) nexus. to souvisi s tim prvnim bodem. diky tomu bude mnohem snadnejsi delat aplikace tak, aby vyuzivali vykonu fermi. uzivatele doma aplikace ve vetsine pripadech delat nebudou, ale muzou je vyuzivat.

5) o ovladace u nvidie opravdu strach nemam...

opravdu si myslis, ze by nvidia zahodila celej herni trh?kdyby jo, tak proc tolik v posledni dobe investuje do physx nebo 3D stereo???
radvot [Zobrazit profil] [Poslat zprávu] 2009-10-04 03:44:44

Zajimava reakce.vezmu to jen ve zkratce protoze nabozensky zalozeneho cloveka nepresvedci zadne realne argumenty.Jsme ve stejne situaci kdy jsi mi vehementne tvrdil ze problem v Batmanovi je chyba ATI protoze nepodporuje Unreal 3.Po oficialnim prohlaseni AMD ze to Nvidia udelala umyslne jaksi Nvidia ani nepipla.Hadej proc? .Jinak tve namitky jsou VELMI smesne.To mi chces opravdu tvrdit ze radovy hrac potrebuje plne programovatelnou kartu?Ocividne Ty nevis o co vubec jde.Ale vemu to poporadku z pohledu hrace a velmi jednoduse abys to pochopil.bod 1.plne programovatelna karta.pro hrace zbytecne a jen to prodrazuje cip.
bod 2.Nvidia si urcite pod sebou podrizne vetev s Teslou jen aby vyhovela hracum.Bod 3.ECC.pro hrace zbytecne,jen to prodrazuje cip.Bod 4.Nexus.Pro hrace zbytecne,jen to prodrazuje cip..Bod 5.ovladace.myslis si ze se Nvidia soustredi na vypocty misto na vykon ve hrach jen tak z rozmaru? Zbozne prani je jedna vec ale realita druha.Sundej prosim zelene bryle a podivej se na fotky z predstaveni Fermi.Mozna potom uvidis co sef Nvidia drzi v rukou a co je na te karte hodne,ale opravdu hodne velkym pismem napsano.TESLA. .Jestli nepochopis ani tohle tak pak uz opravdu nevim.
zeroground [Zobrazit profil] [Poslat zprávu] 2009-10-04 11:16:18

Odkaz

Zde je puvodni zprava, ktera zpusobila celou kazu, dulezite je na pocatku diskuze pod clankem - tedy: "Ian McNaughton is senior manager of advanced marketing at AMD. His postings are his own opinions and may not represent AMD’s positions, strategies or opinions. Links to third party sites are provided for convenience and unless explicitly stated, AMD is not responsible for the contents of such linked sites and no endorsement is implied." Tohle opravdu "oficalni" vyjadreni AMD neni. Prvni dezinformace.

Odkaz Tohle uz naopak oficialni vyjadreni je. Dezinformace cislo dve. Co konecne prestat tvrdit nesmysly a akceptovat fakta, tak jak jsou a nehledat za vsim spiknuti zle Nvidie.

Zbytek jsou jen tve nazory, ktere muzou ale nemusi byt pravda. Kazdopadne bych s predikcemi jak co bude, pockal a nenechaval se unaset...
J.C.Denton [Zobrazit profil] [Poslat zprávu] 2009-10-04 13:12:16
avatar
smesny zacinas byt ty...ze v batmanovi ma problemy ati s aa je jen jeji chyba..sundej ty cervene bryle

1) napred musime byt vsichni programatori, aby sme to vubec vyuzili a tedka uz to je jen zbytecne?opravdu vubec nevis o co de...radsi se uz neztrapnuj dale...

2) proc by si mela rezat pod sebou vetev???tesla a geforce jsou uplne jine produkty do uplne jineho segmentu. do profi segmentu si nebude nikdo kupovat geforce za par korun, protoze k tomu nema odpovidajici podporu a ovladace, ktere potrebuje. hrac si zas nebude kupovat teslu za x desitek tisic, protoze to neni karta na hrani a zadnou podporu, ECC, 6GB pameti na hrani nepotrebuje a specialni ovladace pro tesly nejsou na hrani a nebude mit ani kam do tesly zapojit monitor.

3) vsak ECC se na hernich grafikach ani vyuzivat nebude

4) nexus je program pro programatory. cip ti to nijak neprodrazuje.

5) pro geforce, quadro i tesla se pouzivaji uplne jine ovladace a pracuji na nich uplne jine teamy lidi.

ze se zatim prezentoval jen nejdrazsi produkt na fermi zalozeny, tedy tesla, ma znamenat jako ze herni grafiky vubec neuvidime???prober se trochu...tohle je jen tvoje zbozne prani.
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-05 13:03:34

Uz len poznamky 1 a 4 hovoria o tom, ze radvot netusi o com pise. Ved predsa na co je nam procesor - ved nie sme programatori. Na co je hracom vobec Visual C++? Iba zbytocne predrazuje CPU.....
gabriel.roxer [Zobrazit profil] [Poslat zprávu] - programatori 2009-10-09 22:13:30

Visual C++ vyvinul microsoft aby pre mladych programatov vytoril privetivejsie prostredie ako konkurencia. NVidia zacala nejake rokovania s Microsoft. Pozor Fermi je robustna paralena architektura tak ako bude?? Laraabee. Ked este zacne NVidia rokonaia s Oracle potom bude bomba. SQL servre a Oracle na GPGPU ??? Vsetko paralelne spracovanie dat.


a Teraz palce dole.


O pat rokov uvidime>
Lukyn1811 [Zobrazit profil] [Poslat zprávu] 2009-10-09 23:14:04
avatar
Visual Studio využije i zkušenější programátor, v mnoha ohledech usnadňuje život - dělat větší aplikaci v notepadu, to je pro masochisty(i když třeba stránky dělám zásadně v PsPadu, nad kódem z editorů typu FrontPage aby se člověk poblil). Momentálně by pro mě Nexus byl jediný argument, proč si pořídit Fermi. Herní výkon neznáme, ale možnost využívat GPU přímo z VS je opravdu lákavá... Jinak běžné SQL dotazy se už teď zpracovávají v řádech milisekund, ovšem jestli porostou objemy dat stejně rychle jako doteď, tak by se síla GPU dala využít i tady. No a vizuální prostředí existovalo už v DOSu pro Visual Basic .
Klamath [Zobrazit profil] [Poslat zprávu] 2009-10-03 22:22:57
avatar
Czus. Na uvod musim rict ze se mi DD world libyl hned od zacatku. Ale souhlasim s MadMaxII. I kdyz nejsem Nvidiot (spis se povazuju za fanATIka) tak se mi posledni dobou prestava libit to co tady Jan "DD" Stach pise. Nelibi se mi tvuj pristup DD a už vubec se mi nelibi citaty v clanku, kdy nekolikrat upozornujes jak si nas varoval ohledne NV dva tejdny tamhla a pred mesicem si rikal tohle. Ja te taky prosim. Nebo te brzo prestanu cist. A to sem tu kazdej den. Mozna je tech lidi vic. Hlasoval sem pro tebe v lupe ale ted bych svuj las vzal z5.
SPIRIB [Zobrazit profil] [Poslat zprávu] 2009-10-04 15:10:08
avatar
neviete nahodou niekto ako momentalne pokracuje nvidia vo velkoskladoch ?> myslim predaje a tak, dost ma to zaujima, ze kolko je este takych (informovanych) co by si teraz kupili nejaku nvidiu
Allie Fox [Zobrazit profil] [Poslat zprávu] 2009-10-04 15:40:35
avatar
Asi by sme se divili kolik procent lidí co si jdou koupit PC ví co je DX11, spotřeba karty atd. Vůbec bych se o nVidii nebál.
Pouze registrovaní uživatelé mohou přidat komentář!