Společnost NVIDIA dnes přináší na trh své první 40nm grafiky a poprvé i s podporou DX10.1. Co umí?
První 40nm grafické karty NVIDIA přicházejí. Bohužel první dva představené modely technologicky nijak zvlášť nenadchnou a o nějakém výkonu lze také mluvit jen stěží. Určeny jsou totiž jen do nejnižšího cenového segmentu.
Svou premiéru si odbývá s výrazným zpožděním na NVIDIA grafikách i DirectX 10.1. Ten byl podle NVIDIA zbytečný, ale s nástupem Windows 7 už asi není zbytečný ani pro nejnižší cenový segment. Ale to nejsou jediné zajímavosti – obě novinky podporují HDMI 1.3a a 7.1 kanálový zvu, což je takové poprvé. Není tedy bez zajímavosti, že GT220/210 grafiky jsou technologicky pokročilejší než GTX 260/275/285 apod. Bude to ale stačit na konkurenční ATI Radeon a jejich silnou nabídku?
GT220 má jádro GT216 (aby se to nepletlo), to je taktováno na 625MHz. Karta spoléhá na 128bit sběrnici a 512/1024MB DDR2 paměti. Nese celkem 48 výpočetních SP. TDP je 58W. Cena karty je kolem 75 dolarů (1600 korun včetně DPH).
Slabší G210 má jádro GT218 taktované na 589MHz ale jen s 16SP. Karta má jen 64bit sběrnici a 512MB DDR2 1000MHz paměti. TDP karty je 30,5W. Cena karty je kolem 50 dolarů (1100 korun včetně DPH).
Konkurence je pak jasná – Vlastní modely 9500GT/9600GSO nebo 9600GT, což jsou karty dnes za 1000, 1500, 1800 korun včetně DPH. ATI pak nabízí dnes už karty starší generace HD 4650 a HD 4670 za cenu 1100 a 1500 korun včetně DPH. Mají tedy GT220 a GT216 co nabídnout? Podívejme se …
GT220 a G210 – výkon a hodnocení
Na zahraničních serverech se objevily nějaké ty testy a takhle se to s výkonem grafik má:
Výkon GT220 a G210 je i vzhledem k jejich ceně a konkurenci doslova žalostný. Starší model Radeon HD 4670, který ale pořídíte za cenu srovnatelnou, nebo i levněji jak GT220 je o notný kus výkonnější a z tohoto srovnání je otázka, zda si z nás NVIDIA modelem GT220 1GB netropí legraci. O výkonu u G210 se raději nezmiňujeme vůbec, je totiž menší než zanedbatelný a není o čem mluvit.
Slušná by tedy mohla být alespoň spotřeba u nových 40nm GPU. Omyl. V klidu je nejúspornější opět HD 4670 a v zátěži mu spotřebu o 20W vyšší vzhledem k jeho bezkonkurenčně vyššímu výkonu odpustíme, jako pochopitelnou. Navíc HD 4670 má i 55nm grafické jádro a GT220/G210 mají 40nm!
Pokud jde o funkce, tak nové NVIDIA nepřinášejí vlastně nic, co by dnes už končící série Radeon HD 4000 dávno neměla. S DirectX10.1 má NVIDIA zpoždění 2 roky, akcelerace HD a 7.1 zvuk podporují ATI grafiky již také velmi dlouho. Jedinou funkční zajímavostí je tedy to, že obě novinky podporují CUDA a PhysX, ačkoliv výkon v těchto aplikacích je také nízký, protože v jádrech zkrátka není moc jednotek a celkově vzato většina aplikací GPGPU jede stále dnes přes DirectX9 a tedy i na ATI a budoucnost navíc stejně leží jinde.
Hodnocení
GT220 a GT210 jsou z výkonového hlediska za uvedené ceny doslova výsměch. ATI Radeon HD 4670 je roznese na tranzistorech a to je tu už rok. GT220/G210 nevynikají ani provozními vlastnostmi. Nově přidané technologie také nestojí za pozornost, protože NVIDIA nepřináší nic, co bychom tu na trhu dávno neměly včetně podle NVIDIA dříve zbytečného DX10.1. Za pozornost stojí, že celkově jsou ale obě grafiky technologicky pokročilejší než zbytek GTX 200 grafik. CUDA funkce a PhysX jsou také téměř pasé, protože vše směřuje k DirectX11 a DirectCompute a OpenCL. GT220/G210 jsou maximálně na úrovni náhrady za integrovanou grafiku, ale jejich pořízení se jako samostatných grafik hrubě nevyplatí. Integrované graficky NVIDIA GF9300/9400 nebo AMD ATI HD 3200/4200 udělají tu samou službu, jak výkonově, tak funkčně a s daleko nižší spotřebou, nemluvě o finanční stránce věci.
(ATI Radeon HD 4670 55nm DX10.1)
Pokud chcete skutečně grafickou kartu, jako grafikou kartu, pak na současném trhu je nejlevnější smysluplnou volbou stále poměrem cena-výkon-funkce vynikající Radeon HD 4670 nebo ještě lepší ale dražší 40nm Radeon HD 4770 a to ani nemluvíme o blížícím se modelu HD 5750, který bude za 109 dolarů ale jeho funkce a výkon jsou tak o 10 tříd nad GT220/G210. Bohužel, se GT220/G210 objeví v mnoha OEM PC sestavách jako pastičky na nepozorné nebo neorientující se zákazníky, a tak si dejte při nákupech pozor, abyste je nepořídili - jsou to jednoznačně vyhozené peníze. Buď vám stačí integrovaná grafika na základní desce, nebo se podívejte po něčem, co se názvem grafika může honosit, a to modely NVIDIA GT220/G210 zjevně nejsou …
k tomu se neda dodat nic.jedine co me napadlo je ze se dnes zavadi nejaka forma aprilu.Ale vylozene to preju vsem zakaznikum Tesca co vidi na krabici napsano Nvidia grafika a jsou nadsenim bez sebe.Rad bych se pokochal jejich kyselymi obliceji az si pusti nejakou hru .Zvlaste pokud budou tak hloupi a pokusi se aktivovat AA.To ale bude pekna slide show .Normalne nejsem neprejicny clovek ale tohle me opravdu zvedlo ze zidle.tak sorry.
ja osobně ještě nevyděl ve svém okolí sestavu z Tesca..všem dělám sestavy sám a tak aby jejich potřebám vyhovovala ještě aspoň dva roky...tahle grafika nevyhovovala už před rokem a půl ...
ja jen slyšel od kámoše,že byl u známeho, který něco takového má a hukot jak prase a to ještě přerušovaný jak se otáčky snižuj a zvyšují podle teploty že a tihle lidi doslovaplatí za svoji nevědomost..a mě by musela huba upadnout něco takového prodávat natož doporučit
Ono jim to vydrzi byt srdecne u p...e jen do te doby nez se stavi u nekoho normalniho(cti kdo preferuje aplikacni vykon/cena), ale stejne pak nepriznaji ze naleteli a pouze se zacnou zajimat co srovnatelneho od nV by stalo penez....
Nu coz kazdy sveho stesti strujcem, prejme jim at jim to "herni nadseni" z GT210/220 atpdb. vydrzi co nejdele(i kdyz ja osobne preferuji uprimnost a nejrychlejsi cestu k prozreni)....
No, já bych k tomu dodal, že NVDA právě začala dělat GTX 240(test v EHW). Také 40 nm a dx10.1. A podle výsledku je to na úrovní 4850. Ano, také nic moc, ale přece jen už dost pro normální herní použítí. Takže zajimavější pro nás bylo by mluvit o této kartě.
Ale jasně, že 240 bude horší, než 5700. Ale také jasné, že je lepší, než ty, co jsi uvédl v tomto článku. A já sem z ních úplně popletený - ty mluvíš o 210 a 220 jádrech. A GTX240 má 215 jádro. A je podle testů násobně silnější, než karta s 220 jádrem. Jsem úplně na větvi a potřeboval bych nějaké vysvětlení. A protože chodím sem a jseš tady hlávní a čtu Tě už 3 roky, tak jseš pro mně ve sféře HW ten guru. Tak na koho bych se ještě obrátil pro vysvětlení?
Pozeral som tie testy a porovnaval GT240 s tou HD4850,,ale som si vsimol ze ta GT240 je s GDDR5(OC) na urovni HD4850 a GT240 s SDDR3 je uz malinko slabsia,keby tak hypoteticky mala HD4850 GDDR5 ???,opravte ma ak sa mylim,,vsetko bude zavisiet od ceny GT240 s GDDR5 ,
To sice ne, ale jak HD4850, tak HD4870 meli stejny pocet jednotek 800, jediny rozdil mezi nimi byl prave v pouzitych pametech (GDDR3 vs GDDR5)a pak frekvenci. U toho Gainwardu slo o to, ze jsi to bez problemu na tu HD4870 dotaktoval, taky to byl duvod sporu mezi AMD a Gainward - porusili specifikace karet.
A také důvod, proč Gainward přestal dělat pro AMD - já bych dal za pravdu tomu Gainwardu. Samozřejmě, podle jejich smlouvy, kterou jsem nečetl, to může být jinak. Ale nelíbilo by se mi to. Ale to je lyrika :-)
Tak původní frekvence přece jsou jiné, takže karty jsou jiné.
Ano, 4850 od Gainward se téměř určitě dá přetaktovat tak, že výkonem bude totožná s nepřetaktovanou 4870. Ale to nedělá z nich stejné karty.
Vždyť nikdo neříká, že například E5200 a E5400 jsou stejné procesory, i když se líší jen frekvenci a přetaktovat E5200 na frekvenci E5400 se dá vždy. A to z toho důvodu, že E5400 se také dá přetaktovat. A to ještě dále. Tak i 4870 se dá přetaktovat dále. Porovnavat kvůli totožnosti by se mělo OC proti OC nebo neOC proti neOC. Nikoliv OC proti neOC.
A jak si stoji spotrebou proti 4850, srovnatelne nebo lepe? Jestli srovnatelne tak to ji v nV doprali "pekny" mikro zivot, po par dnech jak budou v prodeji 57x0 zase hodne rychle skoncili...
O cenu?Jak to asi vyrazne zlevni?Odecti si naklady obchodniku na zprostredkovani dodavky az ke kupujicimu.Podvozek taky neni zadarmo.Kolik asi zbyva na GPU?Z 1600kc nemas kam moc ustupovat.mozna sleva tak radove desitky korun,mozna 2 stovky?CPU v tehle CENOVE relaci nema vubec cenu vydavat jako dedikovanou kartu.
Souhlasim ze za 1800 je to nesmysl... aby to melo smysl, tka by se to muselo pohybovat vazne okolo tech 50USD tedy 800Kc. Do kancelarskeho pocitace je to ok(vim ze staci integrovana grafika). Jedine dulezite na teto karte je co nejnizsi cena. Jinak to je k nicemu...
rek bych ze s tou gt220 to bude chyba asi galaxy. dat tam ddr2 pameti je proste pitomost a neuveritelne tu kartu brzdej. gt210 ma tretinovej pocet SP a pritom o tolik pomalejsi neni..gt220 s gddr3 pametma by mohla byt uz vykonove srovnatelna s 4670, nehlede na to ze ty pameti ji udelaj i nizsi spotrebu...
Raigore, jenže to je samé "kdyby" prostě to NV takhle vydala a tak se to prodávat bude... už se to tu řeklo víckrát, za cenu okolo 1000,- bych neřekl ani popel, takhle je to opravdu sméšné.
Tady se situace nedá ani zlehčit obvyklou hláškou, že na vině jsou nedoladěné ovladače, možný nárůst výkonu by byl v konečném součtu stejně žalostný
Asi bych zavedl další kategorii sublow-end. Marže Nvidie asi bude slušná, prodávat tyhle karikatury grafik za takový peníze. Výkon, tak tak, aby zvládala animovaný okna ve win seven. :-)Vyložený chyták na spotřebitele ... naše sestava má dedikovanou geforce grafiku (že s výkonem integrovaný, se už zákazník nedozví :-) )
Ale ono jim to prostě vychází...
Prostě masy lidí v Tescu koupí tyhle karty, které JSOU výkonné, protože prodavač nám to ŘÍKAL, byl takový "náš" a dal nám to na výhodný úvěr!!!
Tihle lidé stejně jak nakupují, tak i volí (nemusíme šetřit, nejmenovaný sexymozek nám to ŘÍKAL, je takový "náš" a výhodně nám na to za naše pučí!!!) a pak to tady vypadá jak to tady vypadá...
Vůbec nechápu čemu se divíte...
Takovej pesimista zas nejsem. Předpokládám, že většinu PC si lidé koupí spíš v mironetu, ts-bohemia apod. Takový firmy většinou tyhle shity v konfigurátorech ani hotových sestavách nenabízejí - pokud to není PC pod 13 tisíc.
edit- RiMr sem tu politiku tahat musí a musí...
Já sem politiku netahám, to jsou prostě počty, že 2-3= -1 a že -1 ve světě peněz znamená -1,2 a pokud někdo tvrdí opak tak je to lump a lidi co to lumpovi žerou jsou trotli, co s největší pravděpodobností koupí výše uvedenou grafiku, aneb "málo muziky za hodně peněz"
EDIT: a pokud se tyto grafiky neprodávají v Tescu (apod.), neprodávají se v sestavách (viz tebou uvedené značky) a i průměrně znalý člověk co nakupuje v Alze/Czechu/Alfě si takový podfuk nekoupí, leda že k tomu dostane nafukovací pannu se třemi otvory zdarma, tak jaktože se těchto nesmyslů tolik prodá?!
RiMre, tvá rovnice platí pro běžného občana, v případě státu, který má pod kontrolou (myšleno tím, že ji ovládá prostřednitvím centrální banky) svou měnu to až tak jednoznačné není. :-) To bys musel začít brát peníze jako komoditu (kterou defacto jsou) a přepočítávat jejich hodnotu na jinou "pevnější" komoditu, třeba zlato či platinu - pak by se s tím dalo bezezbytku souhlasit. To je i to vysvětlení onoho okřídleného "dluhy se platit nemusí" (i když takto obecně řečeno je vážně totální nesmysl, ale jak to chceš vysvětlit osazenstvu IV. cenové skupiny...).
Jinak (a jednoduše) řečeno, peníze v oběhu (včetně bank) dnes jen vyjadřují úhrn něčího dluhu, čím je jich v oběhu více, tím vyšší jsou dluhy.
Trochu odbočí, ale přes víkend jsem zkoušel W7...osobně jsem se vrátilk vistám...rychlost je na mé sestavě stejná a těch pár vychytávek mi za 3000,- nestojí...
Ve W7 je DX11, jenže u karty mi to ukazovalo DX10.1 proč??
Je to v ovladačích ??
proč? Stačí aby konečně přestala přeznačovat a přišla s něčím novým .... uvidíme, jak na to FERMI bude ... ATI si také vybralo své slabé období přechodem pod AMD ...
Já myslím, že takhle obrovská cena za čip, který má 5 a pul tranzistoru je duvod, proč nVidia stále generuje slušný zisk, oni to tam ty OEM vyrobci nastrkaj, v kancelářských počítačích se nikdo zlobit nebude, a nVidie muže být vesele největší výrobce 40nm čipu, když se jich na jeden wafer vejde 5x tolik, co u AMD rv870...
tak ona hlavně dělá to na čem vydělá a přes tu mizérii věřím že Nvidia dokáže na tychto grafikách slušně vydělat. Pořád jde o karty hlavně pro OEM výrobce se kterými má určitě Nvidia předem sjednané dodávky. Spíš bych tipoval že tyto karty jsou vyrobeny přímo na objednávku některých velkých výrobců PC. Přeci jenom na značku Nvidia a Geforce stále lidi slyší a jsou schopní si připlácet za značku a věřit tomu že bez CUDA a PhysX se nelze obejít.
Už vidím kupce počítače v Tescu, jak běží s tou bednou domu a programuje v CUDA jako o závod :-).
Nebo tak: už vidím kupce počítače v Tescu který ví, co to je CUDA. Nebo slyšel to slovo.
Ne, všeobecně tvou logiku chápu a souhlásím.
Ale jedna díra ve vysvětlení pořád pro mně zůstává: nemohu si vymyslet člověka, který tohle VYBERE.
Jedině nahodou. Maminka jde do supermarketu a k Vanocům koupí synkovi počítač. Ňakej levnější... Umi ten počítač Internet, prosím? Ano. Umi word? Ano. Nějaké hry? Ano. Umi tisknout? Ano. A fotky? také ano? Tak ho bereme pro našeho Lojzíka.
A takové "počítače" také někdo musí skládat. Z něčeho. Například, z podobných karet... Sakra, ale jsou v podstatě drahé... Ne, nechápu.
Jak říkál Stanislavský "Nevěřím". Nemohu si představit kupce. Ani výrobce.
Nikdy bych neveril ze se dnes jeste delaji herni testy na dedikovanou grafiku primarne v 1280x1024 v DX9.To je spatne i jako vtip.Takze pokud nekdo vyda takovy hnus proc rovnou nejit do 800x600?tam bude mit Nvidia ztatu jeste nizsi.Vypnem AA,povolime jen 65k barev a hle.mame tu konkurenceschopnou kartu
jasně tohle jsou takové výstřelky samotných výrobců a oni na druhou stranu dobře ví že spousta lidí nakupuje grafiky stále podle velikosti paměti. Není nad to když se někoho zeptáš co má za grafiku a on ti odpoví že má určitě hodně dobrou když to má 512/1024 MB paměti.
mno na přehrávání filmů to bude lepší než karta od ATI. UVD2 čip ATIkaret totiž neakceleruje zdaleka vše.Jinak tohle jsou zbytečně vydané karty podle mne,ale aspon ta GT 240 má trochu co nabídnout - jééé jak tak koukám tady o ní není ani zmínka
P.S.: v low profilu samozřejmě vycházejí
DD, myslím, že to s tím kopáním do nvidie přeháníš. Ano - mají teď velmi špatné produkty, ale nemusíš neustále opakovat, že "konečně mají DX10.1, který považovali za zbytečný" a další perly. Všichni to víme a kdo ne, ten si zaslouží nákup "kvalitní" zelené karty s bumpbugem
no někdy jo, ale já tohle psát, tak to taky napíšu, protože se tím docela bavím, jak to tam začínají rvát, ač je to "zbytečné" vylepšení DX10...a je to pravda, to co je psáno. vzhledem k tomu, jak ty karty působí je přímo v tomto článku ta ironie a nadsázka na místě. Jinde a jindy třeba tak ne, ale pokud někde, tak tady myslím, že jo
vždyt to vylepšení DX10.1 bylo ale skutečně zbytečné.Až ted dostává význam - takže je tak těžký pochopit že nVidii díky svému systému výroby GPU (highend jako první) stačí až DX11 v nový architektuře a do lowendu nasype starší generaci s DX10.1 kde stejně není za 1 - výkon na plné využívání DX11 a hlavně ještě neexistuje nic co by využívalo a za 2 - všechno co bude fungovat na DX11 bude zpětně fungovat i na DX10.1. A co nejhlavnější --- AŽ BUDE TŘEBA DX11 TAK UŽ I NVIDIA BUDE MÍT NOVEJ LOWEND.
No jistě, DX10.1 bylo úplně zbytečný. A DX9, neřku-li DX9c bylo vlastně taky úplně zbytečný. A když to tak jednou přijde, tak ten DX7 byl taky vlastně zbytečný. A DX11.1 bude jednou taky úplně zbytečný. Vlastně celý vývoj je zbytečný.
Víš co, kup si konzolu, nejrači plejstejšna, bo tam je ta super grafika a super procesor, zapadni do gauče a hraj si. Nebo si něco nastuduj o api DX (nebo jiném tématu, ke kterému se chceš vyjádřit), a něco fundovaně napiš a přestaň tu vykřikovat kapitálkami (jak dětinské a nevyzrále) jak je DX10.1 a DX11 zbytečné.
a kdo říká že je DX11 zbytečné? Já snad? Tak uklidni hormony chytráku.A když jseš tak naštudovanej ty tak mi pověz v čem mi pomohl jako normálnímu člověku DX10.1.Už se třesu nedočkavostí jak na mne budeš sypat argumenty
To není kopání do NVIDIA - jednak pro to není důvod a jednak do ležícího se nekope, to je normální zhodnocení nového produktu ve vztahu produkt-zákazník
alebo su urcene pre tych ludi, ktorí moc hry nehravaju (pripadne len obcas) a pouzivaju napr. iny OS ako win ? zrovna dnes som napr. narazil na tento prispevok: Odkaz
Citace:
Jen drobnost – o vikendu sem se snazil rozchodit Ubuntu 9.04 na grafike ATI Radeo 2600 HD – muze mi nekdo rici, proc jsou ty ovladace od ATI nefunkcni a dik tomu sem zahodil hodiny prace ? Zlata nVidia ci provozuschopny Intel … :-(
tieto grafiky maju od hernej karty dost daleko, je to low-end, tak sa treba na to aj tak pozerat. a predovsetkym su to karty urcene pre oem partnerov - cize klasicke "tesco PC".. myslim, ze ten clovek, ktory to mysli s hrami naozaj vazne - si asi nebude kupovat pocitac v tescu a radsej sa poobzera po nejakej lepsej grafike..
Tak ti nevím - sám provozuju Ubuntu 9.04 na HD3200 a žádné zásadní problémy jsem nezaznamenal. Vše chodí (včetně 3D akcelerace) jako hodinky. IMHO to je jen a pouze rukama (mluvíme-li o řadě 2xxx a výše)
ja tiez netvrdim, ze ATI ovladace v linuxe nefunguju vobec.. zhodou okolnosti mam tiez jeden PC s amd doma (780G/HD3200) a rovnako ako tebe tam linux beha v pohode.. mal som vsak obrovske problemy so starsimi radeonmi 9xxx.. ako su na tom novsie verzie - to uz nedokazem posudit, pretoze okrem tohoto jedneho PC s AMD mam doma vsetky PC postavene na intel a nvidia..
chcel som len poukazat na to, ze sa castejsie stretavam s problemami ovladacov ATI.. malokedy totiz natrafim na prispevok, ze by sa niekto stazoval na nvidia ovladace v linuxe.. intel v linuxe tiez chodi v pohode.. aj ked nedavno malo prave Ubuntu 9.04 maly problem a musel som v netbooku nainstalovat starsie ovladace.. ( Odkaz )
a ano, urcite je to aj o schopnostiach cloveka poradit si s nejakym problemom v linuxe - pokial sa objavi.. a vacsinou je kazdy problem riesitelny.. ale niekoho to okamzite odradi a pokial sa budu nadalej objavovat na forach problemy s ATI drivermi a bude ich statisticky viac ako pri konkurencii - myslim si, ze ten clovek radsej siahne po "istote" ako by mal riskovat nejake problemy s ovladacmi.. to je cele...
Neotestoval to niekto v hre Batman na vypocet fyziky k nejakemu Radeonu? Viem, ze oficialne to nVidia nepodporuje, ale uz sa objavil nejaky neoficialny "patch". Sice za tu cenu, no neviem ci sa oplati.
Proboha, to je tak těžké napsat co Vám vadí? Takže znova:
Pane DD, proč jste 2x smazal můj příspěvek? A proč pořád kopete do NVIDIE která kdysi dávno prohlásila že DX10.1 je zbytečný? Nemyslíte, že příchodem Windows7 se situace kolem DX10.1 změnila o 180 stupňů?
Jednak je to nesmyslné použití DX10.1 v Aeru a pak hlavně u vzdáleného přístupu. A to právě u těch Vašich kritizovaných lowend kartách.
Viz třeba článek "Víte, k čemu je DirectX 10.1?" na konkurenčním webu.
EDIT by DD: Smazan odkaz
Kde jen začít ... nejvíce asi to napadání v každém druhém, či spíše prvním příspěvku
Jinak to, že DX10.1 není zbytečný a to právě kvůli W7 jsem hlásil mnoho měsíců nazpět, byl jsem pokárán, ať nekecám .... takže pro toho, kdo dával pozor se nic nezměnilo, pro vá možná ano ....
Jinak DX10.1 měla mít NV dávno, čipů a času na to měla dost ... když to mohla mít ATI a VIA/S3 mohla to mít i NV, že to neměla není rozhodně standardní a ještě horší je, že to mnohým nevadilo ...
Aero využívá DX10.1, ale samozřejmě jede i bez toho. Otazka je, jestli v tom bude nějaký rozdíl.
A pak to má být implementací DX10.1 pro vzdálený přístup. Viz třeba článek "Víte, k čemu je DirectX 10.1?" na konkurenčním webu. Zde je taky otázka jaký bude rozdíl s a bez, ale vzdálený přístup se používá v komerční sféře více a více. Tím si vysvětluji právě implementaci tohoto DX i na lowend karty určené právě pro tento segment trhu.
No vzhledem k tomu, že je tady tak maximálně 500 aktivních lidí (a to jsem optimista jak Brno) tak firemních kancl strojů bude mnohonásobně více. Takže pokud to nezajímá zdejší čtenáře (což je v 99% pravda) tak to neznamená nic z pohledu trhu.
Zkus si přečíst článek na který jsem odkazoval. Bohužel odkaz mě admin tvrdošíjně maže, tak to najdi podle nadpisu článku. Každopádně vzdálený přístup se v podnikové sféře používá velmi často v dnešní době a bude čím dál více. A přesně do tohoto segmentu zapadají ty lowend karty. Každopádně jaký efekt bude mít DX10.1 netuším. Jen jsem napsal 2 věci které se MS rozhodl pro implementaci DX10.1 (Aero a vzdálený přístup).
Napadání v každém prvním příspěvku? Na to máte určitě plno důkazů z každé diskuze, že? Pokud ne, tak si nevymýšlejte, pěkně prosím.
"Svou premiéru si odbývá s výrazným zpožděním na NVIDIA grafikách i DirectX 10.1. Ten byl podle NVIDIA zbytečný, ale s nástupem Windows 7 už asi není zbytečný ani pro nejnižší cenový segment." - UŽ ASI NENÍ ZBYTEČNÝ - to je jako ono, že jste hlásil mnoho měsíců nazpět? Podle mě je to normální kopnutí.
Proč by to musela NVIDIA mít už dávno? Důvod? Škodovka taky musí mít karbonové kotouče když to má Ferrari nebo musí mít Ferrari auto na CNG když už to má i VW? Divná logika.
Ja jsem alespoň uvedl odkaz, který vysvětluje jeden aspekt implementace DX10.1 i na lowend karty NVIDIE!
S tím DX 10.1 se nedá než souhlasit - pro většinu uživatelů nebyl důležitý - ve hrách se nijak moc neobjevil - takže nebyl důvod spěchat s ním na g.karty. A tvrdit že bylo důležitý aby GK měli DX10.1 zavání solidní zaslepeností.
Jenže proč se neprojevil, když byl všeobecně brán jako vylepšení pro vývojáře i výkon? Bohužel se tak z určité části (u které nevíme a ani už asi nezjistíme, jak byla velká) stalo z důvodu toho, že nVidia vývojářům, které podporovala ve vývoji her, nedovolila větší možnosti DX10.1 uplatnit. To je již prodiskutovaný fakt, na který se zapomíná.
Ve Windows 7 by samozřejmě nebylo potřeba DX10.1. Jenže na Microsoft nVidia nemá. A tak je teď otázka, proč to tak je. O tom by byla diskuze, ale určitě ne o tom, že DX10.1 nikde moc nebylo, tak to nVidia karty nepotřebovaly. Ony by to potřebovaly, ale nVidia zajistila, aby tomu bylo tak v co nejmenší míře.
Ne, to právě nevidí jen ti, co to vidět nechtějí. Neb ohledně tohoto tématu se jednu dobu hodně diskutovalo a vzniklo poměrně hodně článků a fakt.
Nebudu to tu hledat (ty články, kde se to probíralo, už je to déle), ale jednalo se o vyjádření několika vývojářů, kteří potvrdili, že nVidia je přesvědčila, že DX 10.1 použít ve svých hrách nemají. Bylo to v době patche na Assassin`s Creed, který odstraňoval DX10.1 kvůli "horší kompatibilitě" (i mě to občas blblo s obrazem na GTX260, takže uvozovky pochopte dobře) s nVidia kartami.
Neříkám, že to bylo od Nvidie špatně. Protože nikdo by nechtěl, aby vycházely hry, na které můj výrobek nemá plnou podporu. Jde o to, že si teď neuvědomujete, Vy - diskutující, že tomu tak bylo. Přisuzujete fakt, že nebylo moc her s DX10.1 tomu, že to nebylo potřebné/užitečné, ale neuvědomujete si, že nVidia to prostě neměla, a proto se mimo jiné snažila, aby ty hry nebyly. A že má nVidia dobré přesvědčovací prostředky si nemusíme říkat.
jenže já to beru z pohledu uživatele kterýho nezajímá zákulisí- mne zajímá jestli mě to něco přineslo a to bohužel ne. Jinak aby bylo jasno nefandím nvidii - moje první GK byla ATI 9800 a od té doby jsem měl jen ATI (někdy dobrá koupě,někdy né moc dobrá)
Jenze treba zrovna Assasin Creed neni dobry pripad. Nikdo nebranil Ubisoftu aby tu podporu pro DX 10.1 implementovala v dalsim patchi lepe a mohlo to dopadnout jako Stalker - jednoznacna pro ATi hra, pricemz bez efektu DX10.1 hratelna i na Nvidii - vyvojari se o cast trhu neochudili, pouze dodali duvod proc treba koupit ATi. Ale takhle to proste u AMD chodi, podporu davaji minimalni a cekaji, ze to nekdo rozlouskne za ne. Vinit Nvidii z toho, ze se snazila aby DX10.1 tolik nevinkl samozrejme lze, TWIMTBP urcite nejaky DX10.1 netlacil.. Na druhou stranu ale lze stejne vinit AMD, protoze DX10.1 nepodporovala sama. DX neni zadny standard, ktery by byl vsespasitelny, jako u vseho je to o rozsirenosti a predevsim az druhe vrstve - tedy aplikacich a hrach, tam se lame chleba a ukazuje se zda to je prinosne ci nikoliv a zivotaschopne. Pokud nekdo chce v primarni vrstve (HW) tezit z toho, ze ma navrch, musi se to snazit prodat a presvedcit ostatni, ze to za to stoji to pouzivat. V tomhle DX10.1 zklamal, potazmo zklamalo AMD, Nvidia pouze vyuzila toho, ze AMD se nijak nesnazi svou konkurencni vyhodu zuzitkovat. At uz je to o optimalizacich ci vseobecne podpore, ten kdo uvazuje takhle a pracuje takhle, tu vyhodu ma. AMD pracuje obracene - vse opravuje pres ovladace dodatecne - z toho povestne narusty vykonu x procent, ve skutecnosti pouze profil, ktery umozni HW konecne vyuzivat optimalne. Coz by v pripade spoluprace s vyvojari mohlo byt jeste vice, vzhledem k tomu, jakym v soucasne dobe disponuje vykonem. Tvrdit - Nvidia blokovala DX10.1 je spis nez pravda polopravda ci pravda necela. AMD ho predevsim nebylo schopno prodat, jedine poradne vyuziti pro nej nasla ve slidech, tot tak vse. Coz je primarni duvod neuspechu DX10.1 - schopny HW byl k dispozici. Nvidia neni v pozici, kdy by mohla ovlivnovat vsechno a hlavne, kde je tlak je treba vyvinou protitlak nebo se smirit s tim, ze prohraju.
A k clanku - GT210 a GT220 sice nejsou nijak extra povedene karty, predevsim od Galaxy s DDR2 (to je slusnej ulet), ale v urcite oblasti nabidnou i vice nez HD4670 - nikoliv ve hrach, ale v prehravani videa. Plna HW akcelerace VC-1 (ATi az od rady HD5xxx), HDMI 1.3b (minimalni rozdil oproti 1.3a u ATi, ale je to preci jen novejsi standard). Do HTPC minimalne plnohodnotna alternativa pro HD4670 (co se tyce HW akcelerace VC-1 a max RF spis lepsi), HD5770 bude uz asi jiny kafe, ale to zas pravdepodobne bude cenove o nejakou tu stokorunu jinde.
No vždyt to samé, co tu píšeš, píšu v tom posledním odstavci, na ketrý reaguješ S prosazením od AMD je to jasné, skoro nebylo. Jen jsem udal důvod, proč to mimojiné bylo tak, jak to bylo, protože diskutující zmiňují jen, že bylo málo her a tudíž asi DX10.1 nebylo nic převratného, zajímavého apod. Přitom to tak není, akorát se to nVidia rozhodnla nepodporovat, tak ty hry prostě nebyly.
No nepises... Ty vidis Nvidii jako hlavniho vinika. Ja ovsem vidim spis vinu na strane AMD. To ze uznavam rovnez vinu Nvidie mame spolecne, ale rozdilne vidime zrejme hlavni duvod. Kdybych mel dodat procentuelni vyjadreni pomeru u me, pak bych to videl 80% AMD 20% Nvidia. DX10.1 si proste pohrbila sama a nebo to skutecne nebylo nic tak prevratneho, aby si to zaslouzilo vetsi rozsirenost. Ad vyjadreni vyvojaru - kdo branil v te dobe AMD, aby naopak vyvojare presvedcila o tom, aby prave DX10.1 pouzivali? Takze abych se vyjadril uplne jasne - chyba neni tam kde se neco dela, byt se ti to nelibi (Nvidia a snaha o to aby se DX10.1 nepouzival). Chyba je tam, kde se nic nedela s tim, ze se ti to nelibi - pasivni pristup (AMD a to, ze nijak DX10.1 mezi vyvojari nepropagovala). Jiste, spouste lidi je proste sympatictejsi pristup AMD, ale bohuzel tenhle pristup proste neni efektivni.
No nepíšu Já jsem to totiž koukám psal do jiného příspěvku tady. Aktuálně jsem rozebíral, že nVidia tomu také dopomohla, ještě aby ne. A pak jsem někde tady víc nahoře psal, že bohužel teď už nezjistíme, jak moc k tomu přispěla samotná nVidia a jak moc zbytek, tedy neaktivita AMD. a ostatní. Takže sry, nepřečetl jsem si to po sobě a v příspěvku, na který si reagoval, to opravdu není.
No tak to je super. Stejne tak jako NVIDIA udajně podle vás blokovala DX10.1, tak mohlo AMD podpořit své favority mezi vývojáři her. To se evidentně nestalo. Pokud by byla 1/2 her s podporou DX10.1 a ten by skutečně něco přinesl, tak by z toho měli pěknou výhodu. Proč se tak nestalo je otázkou. Ale je snadné to kydnout na hlavu NVIDIE.
Že se vůbec snažíš té bandě dětí tady něco vysvětlit. Umlátí tě lízátky. Nekaž jim ten dobrý pocit, že si mohli zase kopnout do nVidie. Vždyť o tom tento web je, proto sem většina z nich chodí.
dieseltech to myslel správně.
Je škodovka a Ferrari, co je kvalitnější ?
No přeci ATI a její dříve pokročilé dx 10.1
edit: holoway ale de. Humorem nic nezkazíš. Stejně tě dotyčný nebude brát vážně. A pokud je to neúnosné, potom tedy odpověd alá ban, což v tomto případě asi není potřeba.
Ne, takhle to fakt nemyslel. Humor je u tebe, booku, pořád dobrý, a možná dobře, že to tak optimisticky bereš, ale na některé to bohužel nejde, když už je to moc
Dejme tomu, že bych něco takového chtěl osadit do HTPC, které bude určeno hlavně na multimedia + nějaký ten office, hry určitě ne...
A teď mi někdo vysvětlete, proč tam většina výrobců osazuje ty otřesné pseudochladiče, které budou uřvané jako čert?! Takováhle karta s aktivním chlazením má šanci snad jenom u OEM partnerů, jinak nevím...