Téma: NVIDIA FERMI – nová generace grafik jde pryč od grafiky Tisk E-mail
Napsal Jan "DD" Stach   
Thursday, 01 October 2009
Přejít na obsah
Téma: NVIDIA FERMI – nová generace grafik jde pryč od grafiky
NVIDIA Fermi - zrozen pro GPGPU
NVIDIA Fermi - Jádro
NVIDIA Fermi - Novinky a Inovace
Kam ta NVIDIA jde aneb hodnocení Fermi

 

  • Kam ta NVIDIA jde aneb hodnocení FERMI?

Některým už může jít trochu hlava kolem ze všech těch ALU jednotek, cache,CUDA jader, paralelního programování a podobně, a to jsem to opravdu zjednodušil, jak jen to šlo. Pokud chcete plnou dávku toho, jak to vlastně celé funguje, pak doporučuji tento dokument.

Nás běžné uživatele ale samotná architektura příliš nepálí. Nás zajímá, kdy si nové grafické karty budeme moci koupit a jaký to bude mít výkon zejména ve vztahu ke konkurenci. Už na začátku jsem řekl, že pokud jste mě ignorovali v posledních měsících a týdnech ohledně varování, že NVIDIA se vydává jiným směrem, budete zklamaní. Stejně tak jsem vás varoval, že výroba nového jádra nejde hladce a skutečná konkurence grafikám ATI HD 5000 je dál, než si myslíte. Opět ti, kteří neposlouchali, budou dost zklamaní. Realita je tedy přesně takováto:

Jádro FERMI je sice v podstatě vlastně hotovo a na samotné architektuře se nedá moc měnit. FERMI je ale ve fázi, kdy se teprve připravuje a dolaďuje pro samotnou výrobu! Neexistují ještě finální specifikace karet a jakékoliv bližní údaje o výkonu. Samotné grafické karty jsou jen ve formě předvýrobních sample pro předvýrobní sample, na kterých testuje samotná NVIDIA základní funkce a připravuje finální specifikaci jádra pro výrobu.

(Jedna z první Fermi TESLA grafik)

V současné fázi by NVIDIA vůbec jádro FERMI nevytahovala a na veřejnosti neukazovala, kdyby nemusela! Problém je, že NVIDIA má doslova prázdné ruce, co se týká současného grafického trhu a nabídky grafických karet proti HD 5000, které jsou výkonnější a dostupnější více a dříve než se čekalo. Všichni vědí, že současná generace grafik GT260/275/285/295 je vydáním HD 5000 prostě mrtvá. Všichni tak tlačili na to, aby NVIDIA něco ukázala a tak ukázala to, co v současnosti má a to je FERMI, které vlastně ani nemá.

NVIDIA dala nový význam obratu papírového vydání, kdy je běžné, že se představuje grafika, jejíž reálná dostupnost je nevalná. NVIDIA včera a dnes představila produkt, který ještě není ani ve formě grafických karet a v podstatě je teprve na začátku instalace na samotné grafiky a to bude ještě minimálně 2 měsíce trvat! Tedy za předpokladu, že všechno půjde dobře, což ale rozhodně nejde, protože výtěžnost 40nm FERMI je vážně mizerná. Každopádně podle poměrně přesných informací, které jsou k dispozici, se testovací sample neobjeví dříve, než na konci listopadu, nebo na začátku prosince. Od toho je ale pořád daleko uvedení reálných grafik do obchodů, natož uvedení nějaké konkurence k HD 5800/5700 modelům. NVIDIA vůbec nechce o nějakém konkrétním datu uvedení mluvit a na rovinu se tak mluví o tom, že až leden nebo spíše únor 2010 je opravdu reálné datum. Ale i to jsem vám na základě svých informací říkal už před týdny a měsíci, že to tak dopadne, opět někteří nevěřili a tak mohou být kvůli svým přehnaným očekáváním, zklamáni.

  • NVIDIA vs ATI

Hlavní otázka je, jak výkonné případně grafiky NVIDIA budou, za kolik budou a jak si budou stát proti ATI HD 5000. V první řadě je jasné, že na trhu dojde k něčemu, co jsme tady už dlouho neměli. Vzdáleně to může připomínat situace s vydáním G80 (8800GTX), kdy ATI ještě dlouho nic podobného neměla, jenže to je jen slabý odvar. Nyní se situace obrátila, a pro NVIIDA je daleko vážnější. ATI totiž nezačíná s High endem, kam mířila 8800GTX, ATI začala v mainstreamu a bude pokračovat oběma směry. Do konce roku obsadí novými grafikami segmenty 100 – 200 dolarů, ale také 200-400 dolarů (ten už má) i segment nad 400 dolarů. A chystají se i mobilní verze. NVIDIA nemá doslova nic, co by mohla nabídnout. Rozhodování, kterou grafiku koupit v následujících týdnech a měsících je tedy poměrně jednoduché.

Ale ani vydání FERMI grafik nemusí pro herní grafický trh nic moc znamenat. FERMI a NVIDIA totiž jasně kráčí cestou od GPU k CPU, a hlavně NVIDIA jasně cílí na profesionální segment a proti Intel Larabbe, či spíše proti procesorům Intel i AMD. Proč?

1, Profesionální segment skýtá pro využití GPGPU obrovský potenciál a velkou příležitost vydělat (marže jsou tam daleko větší než u desktopových grafik). Navíc vývoj je jasný grafiky a procesory se nám přibližují. NVIDIA na to jde od GPU, protože nemá CPU, Intel na to jde od CPU (Larrabee), protože zase nemá výkonné GPU. AMD je jediné, které má jak výkonné GPU, tak výkonné CPU a na jeho směřování je to vidět, pomalu ale jistě obojí přibližuje a markantní to bude u FUSION i nové architektury procesorů Bulldozer, která nahradí letitou K10, což je vlastně K8, která tu s námi je už pěkných pár let. Budoucnost využití grafik pro výpočty je jasná, ale ještě jasnější je cesta, kdy počítače a aplikace pro ně budou využívat souběžně možností CPU i GPU a FERMi je toho jasným důkazem, totéž je ale i platforma AMD-ATI dohromady, kdy AMD už před nedávnem představilo podporu STREAM a OPENCL pro své Procesory i Grafiky.

2,NVIDIA zdá se pouští herní klasický segment grafik lehce k vodě. A to proto, že se na něm nedá uživit. Ještě před pár lety byly příjmy za kvartál nějakých 5 miliard dolarů z celého grafického desktopového businessu, dnes, ačkoliv počet prodaných karet vlastně neklesá, příjem klesl na 2 miliardy! Z toho se opravdu financovat vývoj GPU čistě pro grafiku nedá.

Jak výkonné budou vlastně NVIDIA Fermi grafiky (až tedy někdy vyjdou) proti ATI HD 5000? Pokud vám někdo tvrdí, že to ví, tak kecá. Čísla jako 50-100% proti GT200 jsou v současnosti cucána z prstu a všichni jen odhadují. Odhadovat to lze z výpočetního výkonu, a to co vychází, se nám moc nelíbí. Osobně si myslím, že když budete mít jednojádrová FERMI grafika výkon na úrovni GTX 295, možná lehce nad, bude to reálné, jenže na HD 5800 to nestačí, to nabízí stejný herní výkon už dnes a za cenu, které se NVIDIA vyrovnat nebude moci. Otázka jsou navíc DirectX11 hry, kdy NVIDIA o věcech jako Tesselace a podobně raději vůbec nemluví, protože FERMI nemá tesselátory, a další věci. Podporu DX11 má, ale některé věci bude dělat emulací přes své složité jednotky a to proti specializovanému RV870 od ATI stačit dost dobře prostě nemusí. Neznáme ani to jak FERMI přistupuje k AA/AF atd.

Raději v tomto směru moc neočekávejte, o to menší zklamání, nebo naopak případně větší může být vaše překvapení. Každopádně FERMI moc herně nevypadá a NVIDIA o tom také jako o herním čipu vůbec neumí. Hry to bude umět, ale není to hlavní. Z výkonového hlediska v určitých GPGPU aplikacích by ale FERMI nemuselo stačit ani výkonově. RV870 je skvěle připraveno na podporu OpenCL a DirectCompute a jeho výkon 2,73TFLOPS vypadá zatím nedostižně. FERMI cílí na určitou skupinu programátorů do určité oblasti z hlediska svého přístupu k programování, kde má evidentně náskok před ATI, a kde může mít velký úspěch, ale také nemusí. To vše ukáže až čas, představení FERMI je opravdu hodně předčasné a ačkoliv řada věcí vypadá z hlediska programátora GPGPU jako bomba, ještě nikdo si to v reálu vlastně nevyzkoušel, a na papíře vypadá dobře kde co.

Každopádně FERMI je možná velkým přelomem ať už z hlediska konstrukce GPU, vývoje GPGPU a nebo z hlediska poměrů a vývoje grafické trhu na několik dalších let. V podstatě ale v současnosti nevíme téměř nic o grafikách jako takových a než se jich na trhu dočkáme, uplynou ještě měsíce. Pro v současnosti již na trhu dostupné ATI Radeon HD 5000 grafiky, není ale NVIDIA FERMI nic, čím by se měly nějak znepokojovat – minimálně do prodejů v roce 2009 nemají šanci zasáhnout. Až to bude dostupné v roce 2010, ATI už bude pomalu připravovat lehce upravené verze RV870 (RV890?), a až se objeví nějaký mainstream založený na FERMI (čekám až někdy v květnu-červnu-červenci 2010), to už dokonce můžeme mluvit o připravované zbrusu nové architektuře a grafické generaci ATI karet, která bude nahrazovat tu v současnosti novou RV870 …

 

 

AUTOR: Jan "DD" Stach
Radši dělám věci pomaleji a pořádně, než rychle a špatně.

Starší články


Komentáře
Přidat Nový
negru.inger [Zobrazit profil] [Poslat zprávu] 2009-10-01 15:31:42
avatar
co k tomu rict, na grafickym trhu zavladne monopol zvany ATI, protoze pokud je tohle vsechno pravda a nVidii to opravdu vyjde, tak nebude mit smysl pro ni se na herni trh vubec vracet... proste nam nVidia prechazi do jineho segmentu, a pro nas pro hrace to tak znamena predrazeny ATI karty a jedna jedina firma urcujici vyvoj... obavam se ze se treba uz ani nedockame rady 6xxx pristi rok, ale mozna taky az v 2012, protoze ATI nic nepotlaci k vyvoji dalsich karet... chjo, zacinam mit z tyhle situace jako naruzivy hrac docela strach...
1.legionar [Zobrazit profil] [Poslat zprávu] 2009-10-01 15:45:52

Zas tak šedě bych to neviděl. NVIDIA se tlačí do jiného segmentu, ale to neznamená že se na herní vysere jelikož tam nebude mít takové prodeje, pač je přece hráčů víc než ti kteří budou kupoivat grafiku na nějaké aplikace atd. Hold jeden segment není atraktivní, když se to tak vezme AMD šlo z procesorů na grafický trh tím, že koupilo ATi. Vše nám ukáže až čas
Trace4x10 [Zobrazit profil] [Poslat zprávu] 2009-10-01 15:50:23
avatar
Konec hraní na NVidia nás určitě nečeká, ale mě se zase nelíbí představa, že bych si za určitý peníze koupil jejich kartu a věděl, že nějakých 40 - 50 % potecniálu vůbec nevyužiju, protoze to bude ta část uřčená na výpočty, který mě nezajímají, mě totiž zajímá herní výkon. Takže např. karta za cca 6000,- od NV mě vyjde dráže než karta za 6000,- od ATI.
J.C.Denton [Zobrazit profil] [Poslat zprávu] 2009-10-01 15:54:53
avatar
kdyz nabidne nv za 6k stejnou porci herniho vykonu jako ati za 6k, tak v tom zadnej problem nevidim. kdyz bude nvidia o polovinu slabsi a za stejnou cenu tak by ji pak koupil jen blbec...
Trace4x10 [Zobrazit profil] [Poslat zprávu] 2009-10-01 20:28:10
avatar
To je koneckonců fakt. Jenže mam furt takovej blbej pocit, že jako čistě herní karta by mohla být levnější. Ale taky je fakt, že s čistě herní kartou by díru do světa neudělali. Na co taky vyvíjet čistě herní kartu s famózním výkonem, když ho momentálně nikdo nepotřebuje. Myslim si, že taková HD 5870 rozhodně nebude mít takovej úspěch jako HD 5850. No, uvidíme, jak budou vypadat nový karty - hlavně výkon a cena.
negru.inger [Zobrazit profil] [Poslat zprávu] 2009-10-01 21:54:51
avatar
podle me je vykon zabrzdenej hlavne proto, ze neni pro co vyvijet hry, jen se podivej, mame tu prvni vlastovku v podobe DX11 karty a hned na ni maj vyjit tri hry behem prvniho pul roku, a verim ze takovy AVP3 da 5870 zabrat i tak... jakmile budou mit vyvojari prostor v HW kam jit, verim ze budou radi vyvijet hry aby ten vykon vyuzili...samozrejme ale nebudou vyvijet hry ktery pujdou plynule jen na grafikach za 10k
Bobulák [Zobrazit profil] [Poslat zprávu] 2009-10-01 23:46:24
avatar
Jenže tady máme konzole a pokud vím, tak ty brzdí vývoj ze všeho nejvíc.
negru.inger [Zobrazit profil] [Poslat zprávu] 2009-10-02 00:50:42
avatar
Mno, to je problem cislo jedna, ale jak nam ukazuje Crytek, tak se da vyvijet up-to-date engine pro PC a pak ho jen osekat pro funkci na konzole... myslim ze tohle by byla spravna cesta pro a spokojeni by byli vsichni...
siddhi [Zobrazit profil] [Poslat zprávu] 2009-10-02 00:57:26
avatar
konzole do toho nepleť. Je to jenom o tom že není ochota a peníze na vytváření kvalitních PC titulů.
Gang [Zobrazit profil] [Poslat zprávu] 2009-10-01 16:27:07

Mno. Doufám, AMD aspoň nezvýší ceny na grafiky pro nejbližší 6-9 měsíců.
1.legionar [Zobrazit profil] [Poslat zprávu] 2009-10-01 16:45:05

Tak AMD zatím drží ceny dobře, nikdy nějak své výrobky nepředražovalo. Asi to bude tím, že zatím nedosáhlo takového postavení aby si mohlo říct o jakoukoliv cenu, což je pro nás jedině dobře. Doufám že fermi bude mít výkon za relativně slušnou cenu, protože konkurence jsou vždy nejlepší, aspon jdou ceny dolů.
Gang [Zobrazit profil] [Poslat zprávu] 2009-10-01 22:30:37

Vypadá ale, že Fermi nebude moc konkurenci, protože bude mít prostě jiné použití. Pokud NV přestane blbnout, tak Fermi na výpočty, Radeon na grafiku a Atom na BIOS a spuštění té krasy.
F3rda [Zobrazit profil] [Poslat zprávu] - :-/ 2009-10-02 01:32:42
avatar
Asi tak nějak... Poslední dobou ani nebylo moc důvodů hnát výkon GK kupředu, protože vývojáři využívali stále DX9 a teď zas bude chybět konkurence :-( Což je docela průser... Nic nepotlačí ceny dolů a výkon nahoru
J.C.Denton [Zobrazit profil] [Poslat zprávu] 2009-10-01 15:39:02
avatar
tak vykon ve hrach bych videl urcite kus nad gtx295. ma vice SP, myslim ze se daji ocekavat i vyssi takty a celkove optimalizace jadra muzou taky jen prospet, stejne jak to, ze fermi bude jen jednocip. emulace teselace pres SP by nemela byt zadnym problemem diky SFu a vylepsenemu sheduleru + gigathread. g200 take nabizi lepsi herni vykon v pomeru k tflops oproti ati, takze o to bych strach take nemel. architektura i kdyz je nova, tak principy zustavaji s predchozi generaci stejne. no kazdopadne bude to velmi zajimave...jeste ze zatim 8800gts 512 v poho staci..u me nejspis o upgradu rozhodne nove avp
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 15:53:38

JJ. Nove AVP je u mna tiez rozhodujuce. 8800GT do toho casu pekne dosluzi. Vzhladom na to co som si uz o Fermi precital si pockam na jej vydanie. Zaujima ma to aj z programatorskeho hladiska a uz teraz sa tesim ako si to vyskusam.

Z pohladu AVP 2 ponuka este okrem DX11 na rozdiel od AMD aj GPU@PhysX na ktory som v tejto hre naozaj zvedavy.
Bennie [Zobrazit profil] [Poslat zprávu] 2009-10-01 19:05:12
avatar
Zdravý selský rozum mi říká, že 512SP u Fermi bude minimálně 2,13x výkonnější než 240SP G200. A to neuvažuji optimalizace, které způsobí, že Fermi bude na takt výkonnější než G200.

Dovolím si na tomto místě vyvěštit z křišťálové koule, že FERMI bude 2,5x výkonnější než G200, a tedy že GTX295 překoná o 30-50%.

To co tady nezaznělo je, že cokoliv co je napsané v C++ půjde překompilovat pro Fermi, takže sice nepůjde spustit už vytvořené X86 exe soubory, ale ze zdrojáků půjde udělat kompilerem FERMI exe soubory, které poběží na GPU...
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:16:09

Otazne je do akej miery bude ten isty kod mozne skompilovat aj pre CPU. Ak to da menej prace si kompilat osetrit cez #define tak to bude super.
TommoT [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:28:28
avatar
Hmm zajímavej výpočet. Zajímavý je ze u ATI Radeona HD 5870 dvojnásobný výkon neni(ikdyž ovladače dělaj svý). A osobně si myslím, že nebude ani u Fermi(to by znamenalo že s každým CUDA procesorem(?) bude škálovat na 100 procent.)
Sina [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:01:44
avatar
ta predikce vykonu od Bennieho je ujetá. GT200 má taky 2x tolik jednotek co G92. A má snad GT200 dvojnásobný výkon co G92? Ani zdaleka
Ziina [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:23:19
avatar
dokonce to nekdy vypada ze dualni grafika ma nekdy vyssi vykon nez single nove generace, a to se rika ze to ma byt vyhoda jednojadra, ze nemusi spolehat na nedokonale sli/crossfire (viz 9800gx2 vs gtx280, hd4870x2 vs hd5870)
J.C.Denton [Zobrazit profil] [Poslat zprávu] 2009-10-01 19:06:23
avatar
9800gx2 ma ale vice SP nez gtx280 a takty maji myslim dost podobne, mozna i gx2 vyssi (nechce se mi ted hledat ). fermi ma mit ale vice SP nez gtx295. jak to je u radeonu tezko rict, ale na vetsine webech vychazi 5870 lehce rychlejsi nez 4870x2. na ovladace bych to moc nesvadel, architektura je stale stejna i kdyz obohacena o par prvku a dx11.
Bennie [Zobrazit profil] [Poslat zprávu] 2009-10-01 19:29:57
avatar
Tos nejspíš hodně špatně koukal ))

V průměru je 4870X2 výkonnější než 4870 asi tak o 30-60% procent...

existují extrémy kde CF nebo SLI škáluje hodně dobře.. ale většinou je to tak do 60

Pokud jsem správně procházel testy, tak GTX285 dává plus minut dvojnásobek 8800GTX, ba dokonce i mojí 8800GTS512..
zeroground [Zobrazit profil] [Poslat zprávu] 2009-10-02 09:56:46

Taky bych predpokladal efektivni emulaci tesselace - to jadro si primo rika o vyuziti timhle a podobnym zpusobem. Predpokladam, ze tesselacni jednotka u ATi bude stale efektivnejsi, nez to resit takhle, ale stavba toho jadra by nabizela moznost efektivni emulace s minimalni ztatou vykonu. Otazka samozrejme lezi v optimalizaci, ale to by pro Nvidii taky nemusel byt zavazny problem.
Matuus [Zobrazit profil] [Poslat zprávu] 2009-10-02 12:56:21

No prave pre hernych vyvojarov by mala byt vacsou vyhodou plne programovatelna tesseleacna jednotka /cize emulovana/, ako klasicka /ktoru ma ATI/.
Lukyn1811 [Zobrazit profil] [Poslat zprávu] 2009-10-02 14:02:41
avatar
To chceš tvrdit, že je lepší/rychlejší, když se něco emuluje, než když to běží nativně? Vývojářům je to jedno, protože emulovaná jednotka se bude navenek tvářit úplně stejně jako ta fyzická. Kdo to ovšem pozná, bude majitel karty a to na sníženým výkonu.
zeroground [Zobrazit profil] [Poslat zprávu] 2009-10-02 14:05:20

Tak tesselacni dedikovana jednotka bude mit samozrejme vyhodu, otazka spis je, na kolik ta emulace u Fermi bude efektivni ci nikoliv. Zase bych tady bral do uvahy stavbu jadra, ktere prave nejake soubezne bezici operace bude podporovat velmi dobre - tzn. zaver je, ta emulace nemusi byt zase az takovy prolem co se tyce herniho vykonu. Ale zatim spekulace.
Lukyn1811 [Zobrazit profil] [Poslat zprávu] 2009-10-02 14:20:08
avatar
Zatím se samozřejmě nedá nic tvrdit jistě, až ukážou opravdovou fungující kartu, tak budeme chytřejší. Jen mě zaujalo to, že by to měla být nějaká výhoda pro vývojáře.
zeroground [Zobrazit profil] [Poslat zprávu] 2009-10-02 15:41:26

Teoreticky to mozne je. I kdyz asi tezko. Nevim, jakym zpusobem tesselacni jednotka pracuje, ale kdyz vezmu v uvahu jadro Fermi jako programovatelny procesor, pak v pripade optimalizace kodu muze byt tesselace u Fermi ucinejsi - tesselace je rovnez soucasti standardu DirectX, teoreticky tedy k jejimu provozu staci jakakoliv architektura splnujici pozadavky DirectCompute pripadne DX11 obecne - dedikovana jednotka podminkou neni - zbytek uz bude o vhodnosti architektury a kvalite kodu, spoluprace s vyvojari, ovladacu atd. tedy SW stranka. Obecne vsak plati, ze emulace sebou nese ztratu vykonu, takze tohle uz je hodne divoke. Zatim cistociste spekulace, pockal bych az jak se Nvidia popasuje s hrami a pak na AvP, kde uvidime i jak se popasovala s tesselaci.
Allie Fox [Zobrazit profil] [Poslat zprávu] 2009-10-01 15:43:22
avatar
Jednoznačně nVidia "zradila" hráče, přestože se na ně v minulosti soustředila nejvíce a oni ji za to měli rádi. No nic, asi ji k tomu něco donutilo- do strategie jí kecat nehodlám - třeba jí to vynese větší zisky a o to jde.
wizard_ov [Zobrazit profil] [Poslat zprávu] 2009-10-02 08:35:33
avatar
Máš recht pejsku, já se taky cítím odkopnutý... Ale na druhou stranu, pokud se herní segment na PC tržně propadá, tak se ani hochům ze Santa Clary nedivím, že sáhnou tam, kde cítí $ . Protože asi se těžko vysvětluje akcionářům, že zisky jdou dolů, ale zase je mají rádi hráči . Ale jak jsem už psal jinde do HD 5870 nejdu (byť je to hodně lákavé) nechávám si svoji NV 285ku, myslím, že ještě nějaký pátek vydrží
Stejně nejvíc hraji BF Heroes a na to stačí notebook
Heris [Zobrazit profil] [Poslat zprávu] 2009-10-01 15:51:28

No vypada to kazdopadne zajimave, akorat jsem nepochopil jednu vec. DD v jednom odstavci pise, ze se doladuje navrh cipu pro vyrobu a v druhem, ze vyteznost je mizerna. Tak jak to teda je?
elesde [Zobrazit profil] [Poslat zprávu] 2009-10-01 15:55:49
avatar
Ide o to ze ta vytaznost je mizerna a doladuje sa architektura aby bola vytaznost vyssia. Tych par kuskov z waferu je len pre nVidiu na nejaké prezentáacie a pod.
ljelinek [Zobrazit profil] [Poslat zprávu] - Hm, 2009-10-01 16:15:48
avatar
me to pripada, ze NV vsadila na budoucnost a nasledujici rok prenechala konkurenci. Pokud totiz prijde Intel s Larrabee, budou na trhu dva hraci s obdobnymi produkty s obrovskym potencialem a bude jen na vyvojarich, jak se k tomu postavit. Kdyz tak me opravte, ale ray-tracing obecne by na takovychto komponentach bezel rychleji nez na stavajici architekture GPUcek, ne? A jelikoz ray-tracing je, myslim, opravdu super podivana, tak v tom pripade by se take mohlo stat, ze studia zacnou vyuzivat produkty modrych a zelenych a AMD bude pracne dohanet nastoleny trend. A to nehledim na profi segment, tam jsou architektury Fermi a Larrabee jako delane a, ruku na srdce, v tomhle segmentu jsou penize. Ale to jsou fakt spekulace, dalsi rok ocekavam dobu temna (vlastne ruda) se zelenym zableskem v podobe inovovaneho jadra G200 s podporou DX11.
mira89 [Zobrazit profil] [Poslat zprávu] 2009-10-01 16:28:04
avatar
to nejsou jen spekulace. Intel ani nVidie přeci jen tak nevrazej mrtě peněz do projektů kdyby nevěděli kam je směrovat - a hlavně když to vypadá že mají stejný cíl
Luizzz [Zobrazit profil] [Poslat zprávu] 2009-10-01 16:17:13

I kdyby byla Fermi herně stejně výkonná jako HD5870, rozhodně nebude za takovou cenu, a to je škoda. Amd teď nebude nic tlačit s cenami dolů (pár měsíců).
poluxtroj [Zobrazit profil] [Poslat zprávu] 2009-10-01 16:20:51
avatar
Se nedivím,že vedení Nvidie prodává akcie. Mi to připadá,že u Nvidie zaspali a nemají čím konkurovat,tak se zbaběle vrhlo na jiny trh,kde není konkurence.Ale myslím,že jim Ati zatopí příšti rok.
mira89 [Zobrazit profil] [Poslat zprávu] 2009-10-01 16:22:43
avatar
Vcelku jsem dost překvapenej do čeho že se to nvidia pustila (ikdyž zas tak uplně taky ne).Ale nejsem zklamanej (taky nejsem ani fanoušek nvidie) Zatím co zde se hodně plácalo o GPGPU v dobách HD3xxx a HD4xxx,jak ATIny mají pro toto skvělou architekturu tak nikde nic se nějak od AMD-ATI neobjevovalo ve větším (co sleduju tak obecně má poslední dobou AMD jako celek problém vyvíjet něco navíc - tak možná zadara někde něco od někoho převzít) a velebil se výkon pro tyto výpočty (musím uznat že je opravdu vysoký) tak se nadruhou stranu na tomto webu dost nevybíravě naváží do CUDA a PhysX - které snad jako jediné fungují víc než dobře. A ted s příchodem Fermi všechno se jeví v jiném světle - najednou ty fráze o GPGPU dostávají smysl. Pokud to s Fermi pujde bez větších problémů tak největší podíl na budoucnosti GPGPU NEBUDE mít ATI ale nVidie. HD 5870 je skvělá (asi nejlepší z posledních let) grafika s vysokým výkonem,jenže když ATI nehodlá pořádně rozjet nějaký to podhoubí pro GPGPU aplikace tak zůstane jenom grafikou. S Fermi to možná bude jiné,chce to sledovat jak se k tomu postaví vývojáři. Je na každým pro co se rozhodne.
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 16:28:36

S HW podporou OpenCL bude viac ako len grafikou aj ked nebude v GPGPU dosahovat zrejme to co NV ale to sa uvidi az to tu bude a bude to realne vyuzite.

Tiez som neni sklamany z tejto karty a kludne si pockam kym vide a kupim ju. Okrem toho ze na nej budem moct hrat vsetko to co aj na AMD kartach dostanem navyse podporu GPU@PhysX a mozem si vyskusat naprogramovat par aplikacii v Nexuse. Uz sa celkom tesim. Len dyfam, ze nebudem musiet prilis dlho cakat. Ideal by bolo keby vysli pred vydanim AVP 2.
Dr.Kusa [Zobrazit profil] [Poslat zprávu] 2009-10-01 16:23:29
avatar
myslim si ze Ati s radou 5xxx nebude mat az taky velky uspech ako sa ocakavalo kedze obrovske percento ludi v dnesnej dobe vlastni grafiky rady geforce GTX a radeon 48xx, ktore zas az tak velmi vykonom nezaostavaju preto si myslim ze nakup nejakej grafiky generacie 5000 nieje taky opodstatneny az do tej doby kym nevijdu nove dx11 hry co este nejake tie mesiace potvra. sam vlastnym nataktovanu gf8800GTX s ktorou pohram takmer vsetky hry na najvyssich detailoch a preto ani neuvazujem nad nakupom novej radeony. upgrade planujem az ked na trhu bude naozaj nieco nove cim nove grafiky fermi urcite budu preto nepochybujem ze si jednu z nich kupim aj ked nebude mozno ovela vykonnejsia ako 58xx ale budem vediet ze s novou technologiou ktora je v nej pouzita si vystacim aspon 2-3 roky a oto predsa pri grafikach ide, nekupujem si ich predsa na 4 mesiace
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 16:31:18

Okrem toho AMD nasadilo ceny dost vysoko. U vas je to myslim 8900 korun a u nas 390 EUR. A to podla mna nie je mainstream ako sa to snazi DD prezentovat. Dvojjadrove verzie budu stat kolko? 500-600E. A to je fakt vela. Za Fermi by som tych 500E mozno aj dal lebo viem ze kupujem high-end ale takto...
Dr.Kusa [Zobrazit profil] [Poslat zprávu] 2009-10-01 16:40:30
avatar
mareknr:suhlasim s tebou nasiel som ceny 360-380€ co mi nepripada ako mainstrem
kartu 4870x2 som nasiel za cenu 360€, ktora je podla testou vykonnesia o par percent ako 5870
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 16:47:33

To je pravda ale technologicky je nova AMD o dost lepsia. Nehrozi prepad vykonu v zavislosti na Crossfire, mensia spotreba v idle + par dalsich veci kvoli ktorym by som par % v prospech HD 5870 obetoval keby som planoval kupit kartu od AMD.
Dr.Kusa [Zobrazit profil] [Poslat zprávu] 2009-10-01 16:52:14
avatar
no to je samozrejme ale aj tak si myslim ze na hromadne nakupy to tentoraz nebude.povedzme si otvorene valstnych napriklad gf gtx275/285 alebo radeon 4850/70, no kupil by si si 5870 len kvoli dx11 a tesselaci?
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 16:58:37

Teraz urcite nie. Kym sa bude dat vyuzit je este cas. Vyzera to ze ked vide Fermi tak tu uz nejake hry budu. Takze vtedy sa bude vyberat. Uvidime ake budu ceny.

BTW kvoli zapojeniu 3 monitorov by som kartu urcite nekupoval. Za prve nebudem si kupovat dalsie 2 26'' monitory aby som mal subezny obraz a okrem toho by som ich nemal ako vedla seba ulozit. Karty su to pekne ale pre mna pride do uvahy upgrade az ked tu bude AVP 2. Ten okrem toho ze bude DX11 tak bude podporovat aj GPU@PhysX a na vsetko toto som viac zvedavy ako na Eye Infinity. Moj osobny nazor...
Dr.Kusa [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:07:11
avatar
suhlasim s tebou. myslim ze sa teda zhodneme ze 5870 najblizsie mesiace kupovat nebudeme osobne mam dva monitory na jednom hravam a na druhom mam stale zapnuty facebook a icq a moja tri roky stara grafika to zvlada bez problemov takze nemam co riesit
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:18:46

Ja to mam napodobne. Akurat na druhom monitore mi bezia AVGA Precision a Core temp aby som si odsledoval stav PC a ako na tom som po vykonovej stranke ked nieco hram. Mam 8800GT a zatial v pohode staci na vsetko tak aby som bol spokojny.
Dr.Kusa [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:37:12
avatar
pozrel som si tvoj hardware a zaujimalo ci a o kolko mas pretaktovany svoj phenom?a ako pozeram mame MB rovnakej z rodiny
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:50:53

Phenom som netaktoval. Mam ho na nativnych 3GHz. Pouzivam BOX chladic takze sa ho v najblizsej dobe taktovat nechystam a myslim ze to ani nie je potreba. Nic ho nedokaze vyuzit ani na 70 % takze rezervu vo vykone mam. Zbytocne by som si zvysil spotrebu a naroky na chladenie.

Co sa tyka MB tak to jo. Asus je Asus. Moja je uz ale trochu starsia. Kedze v svojich casoch patrila vtedy do high-endu je stale obstojne pouzitelna. Len clovek uz musi nad vselicim spekulovat.
Dr.Kusa [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:02:52
avatar
stare dobre casy ja som vtedy ucil dost tazke rozhodnutie ohladom Cpu.kupil som dualcore e2160 1.8Ghz a s pomocou mojho strikera ho pretaktovat, samozrejme som mohol kupit C2D na take 2.8Ghz a bol by som zahojeny ale mne to nedalo a kupil som e2160tku nataktoval na 3.15GHz s pomocou beta biosu bol som rad ze som usetril niekolko tisic sk lenze prednedavnom mi bios crashol a nechal som ho v specializovanom shope prepalit, lenze tipek mi tam hodil najnovsiu verziu na ktorej nehrozi dosiahnut slusne takty, podarilo sa mi maximalne takt 2.7Ghz na ktorom si ficim doteraz ale uz citim rezervy cpu a rozmyslal som nad niecim novym ale absolutne nemam sajnu co by sa mi hodilo ci e7300 alebo uz nejaky quadcore?co by si mi odporucil?samozrejme ze striker nedam ani za nic takze do slotu 775
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:10:43

Intel procesory moc nesledujem. To by ti mali skor poradit ini. Co sa tyka poctu jadier isiel by som iba do QUAD Core. Zalezi ale aj na tom na co budes to CPU vyuzivat. Ja som kupil QUAD kvoli

1. kvoli GPU - chcem urobit upgrade na novu generaciu a s dual core-om to vyzera tak ze by nedokazal naplno vyuzit jej potencial
2. hram - uz sa ich naslo viacero co vie QUAD vyuzit. Pre take dve, tri to uz je aj doporucene(vidiet skutocny prepad vykonu)

Vo vacsine pripadov ti ale postaci vyssie nataktovane dvojjadro zatial bez problemov. V tvojom pripade by to chcelo aspon nejaky C2D na 3.6GHz. Na druhej strane ak konvertujes multimedialne subory tak QUAD ti usetri kopec casu. Sam musis vediet na co PC pouzivas a ci dokazes vykon noveho CPU vyuzit.
Dr.Kusa [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:19:56
avatar
ok dakujem za nazor.mna aktualne zaujima situacia na poli cpu intel pre socket775,ci este pride nejaky novy zaujimavy procesor ale sa intel zameriava uz iba na procesory nehalem alebo sa uz mam zacat obzerat po bazaroch? mozno ak by si ma vedel odporucit na nejaky web alebo blog o cpu bol by som rad
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:23:33

Na forach extrahardware-u sa urcite najdu ludia ktori ti dobre poradia. Neviem ci sem mozem dat aj linku ale asi nie..
Dr.Kusa [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:38:57
avatar
oo super nemal som ani sajnu o tomto webe, nasiel som to co som hladal naozaj velmi pekne dakujem za ochotu a rady uz ta nejdem zatazovat
snowflake [Zobrazit profil] [Poslat zprávu] - E5200 2009-10-02 02:12:01

Pokud chces financne bezbolestnou variantu, tak kup jednoznacne E5200, ktere nataktujes s beznym chladicem na 100 % na vic nez 3,5GHz. S lepsim vzduchovym chladicem chodi spolehlive na frekvencich kolem 3,8GHz. A cena? 1400,-
j.matrix [Zobrazit profil] [Poslat zprávu] 2009-10-01 21:18:13
avatar
zrejme si nepamatas kolko stali high endove karty dakedy, na poslednu radu sa vykasli, predtym boli bezne ceny cez 15tisic korun
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-02 11:13:47

JJ. Nepamatam si. Porovnaval som to za posledne 3 roky. Dovtedy som GPU trh velmi nesledoval.
j.matrix [Zobrazit profil] [Poslat zprávu] 2009-10-02 22:18:11
avatar
3 roky, tak to si pamatas kolko stala 8800 ultra
Nexon [Zobrazit profil] [Poslat zprávu] 2009-10-01 16:38:26

ATI-AMD rendruje v poklidu 63 Mpix obrázky v realtimu (viz ATI Eyefinity s CF), má zmáklou výrobu, připraveny má karty pro celý segment trhu, plnou podporu DX11 včetně hardwarové implementace tesselace - nejrevolučnější novinky v DX11, plnou podporu GPGPU (OpenCL, DirectCompute11), výstup až na šest monitorů z jedné grafiky (spec. verze jinak 3 vystupy), brutální výpočetní výkon, který v SP GF100 nepřekoná a DP jen tak tak, parádní spotřebu ve 2D a velice slušnou ve 3D (na 2.2 mld trans.). ATI ted v poklidu maká na HD 6xxx a Nvidia teprve optimalizuje návrh čipu. Nvidia vyrobila mastodonta, který je zralý tak na 22nm výrobu a navíc její výpočetní jednotky běží na vyšší frekvenci než zbytek čipu, takže to jakékoliv vlivy na defekty během výroby ještě znásobuje. Tenhle čip bude možná ještě větší úlet než G200 (kde ATI měla 2x takovou efektivitu na počet trans.). Nvidia chce mít CPU A GPU a vyrobila prasopsa, který ji možná pošle do pekel. Spotřebu odhaduju na 250W, tj. X2 verze je téměř vyloučena (teplomet kolem 400W nejde rozumně uchladit), ATI vyrukuje s X2 verzí na jednom PCB a zamává Nvidii na cestu. Tohle je vážně od Nvidie úlet, na dveře nám klepou 8 a 12 jádrové procesory, běžný uživatel má GPGPU u zadku (psal jsem v jiném příspěvku proč). Nejvíc mě ale u ATI láká kombinace 3 monitorů, podle ohlasů na Netu, kdo jednou viděl už nechce jinak :-). Měl jsem od Nvidie 3D brýle a CRT 21" monitor, ale po hodině hraní jsem myslel, že už se mě oči nikdy nevrátí zpátky, takže to co Nvidie prezentuje jako novinku (3D hraní) mám už 7 let doma a je to k ničemu. ATI ted možná lituje toho, kolik waferů s GF100 v TMSC hodí do kýblu, když by na nich mohli být R870 čipy, kterých se nedostává.:-)
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 16:52:21

Fermi aspon podla specifikacii ponukne aj dalsie veci navyse oproti AMD. Vykonom by mohla byt kludme AMD vyrovnana. Uvidime az budu testy. Pokial bude herny vykon vyrovnany tak neni o com. Ja som za NV. A nie iba kvoli hram.
xJirikx [Zobrazit profil] [Poslat zprávu] 2009-10-01 16:59:12
avatar
největší sranda je, jak tady pořád všichni řvali, že nVidia je na tom špatně, platformy se uzavíraj, prorokovali hroznou budoucnost. Teď se ukázalo, že nVidia od G80/G92 maká na tomhle a jde opravdu jinou cestou a co se tady děje. Lidi brečej, že nemá co nabídnout a jak je na tom špatně. Přijde mi, že tady by lidi řvali, že je na tom nVidia špatně i kdyby se AMD položilo (samozřejmě by mezitím ještě řvali, že AMD položil nVidia marketing ) Nemluvě o kříku nVidia nic nemá v ruce (copak asi je na těch všech fotkách a co bylo v tom počítači?), najednou je z toho paper launch a pak zase nemá nVidia nic...
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:05:31

No jo. To je to fanusikovstvo. Najlepsie je ako sa tu niektori ludia tvaria ze su objektivni. Keby naozaj boli nemuseli by to neustale obhajovat. Tu je to viac o citoch. Asi bolo ATI dlho v uzadi tak teraz maju fanATIci priestor sa prejavit a zrejme ich to dlho dusilo.

Berte to s humorom.
xJirikx [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:08:11
avatar
já beru s humorem vše, krom některejch článků místního guru pravda, jeho "styl" mě někdy jako technicky založenéh člověka dost točí...
Allie Fox [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:13:34
avatar
Pořád stejně blbý kecy. Objektivita, zaujatost atd. Vy jste samozřejmě objektivní-hahahaha
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:22:43

Ja netvrdim ze som objektivny. Len to neberiem tak euforicky ako vela ludi co tu pise. Ale ratam s tym ze su to vascinou teenegeri tak sa da rozumiet ze sa nechaju niecim uniest.
xJirikx [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:51:36
avatar
kde jsem psal, že jsem objektivní? nikdo není objektivní ;) jedinej kdo je objektivní je někdo kdo o tom nic neví a kouká na to z vnějšku...
já psal, že to beru s humorem a že mě točí některý články tady a to myslím z mých komentářů na tomhle foru je jasně patrný
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:13:45

DD napise aj vela zaujimavych informacii. Len keby to nebolo casto take emotivne. Uplne to evokuje velakrat flame az mam pocit ze je to tak zamerne. Ale neberiem mu jeho nadsenie. Tiez som taky byval ked som mal 18.
DedecekHribecek [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:45:13

Tak to berete jak píšete s humorem nebo Vás to jak píšete točí? Vyberte si prosím. Jinak to vypadá jako začínající schizofrenie.
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:52:49

Bolo to pisane s humorom. Schizofrenia mi zatial nehrozi. Pred chvilou som sa sam presvedcil ze nie.
DedecekHribecek [Zobrazit profil] [Poslat zprávu] 2009-10-02 07:08:27

Fajn tak podle toho pišete a nehodnoťete svoje pocity jedné větě v zcela odlišně než v následující. pak se Vám budou oponenti pošklebovat jak jsme učil i já.
DedecekHribecek [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:39:26

Jak píšete "Vykonom by mohla byt kludme AMD vyrovnana. " to je právné jenomže to nikdo neví tak proč ty spekulace? Srovnáváte doslova kus papíru s reálně fungujícím chipem. To jsou ty pověstné hrušky a jablka.
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:54:15

Su to samozrejme spekulacie. Iba som to odhadoval podla specifikacii karty. Je zbytocne sa teraz hadat ako to bude. Viac nam povedia testy. Snad NV aspon vyda testovatelne verzie kariet do obehu do konca roka. Fakt sa mi na Q1 2010 cakat nechce.
xJirikx [Zobrazit profil] [Poslat zprávu] 2009-10-01 16:48:21
avatar
takže podle tvejch "osvícenejch" tvrzení je nVidia mrtvá? CUDA je mrtvá se tu psalo a teď zase nVidia všechno na CUDA Tak buď je to společnost plná sebevrahů nebo asi ta CUDA zase tak mrtvá nebude Jinak zklamání z toho, že to nebude jen herní grafika asi ani není možný, protože jen herní není už ani ta moje stará 8800GT O tom co ta karta bude nebo nebude umět nemá cenu teď diskutovat, navíc tam předváděli Raytracing, kterej běžel docela solidně. A všichni víme, že narozdíl od AMD nVidia si umí do her prosadit co považuje za nutný Toho opuštění desktop trhu bych se nebál, protože oni k tomu nemaj důvod. Akorát teď vložili kapacity do vývoje Fermi. Pokud jim to klapne tak vydělaj zase nějaký peníze (pokud je mi známo, tak narozdíl od AMD pořád nemaj výrazný dluhy) a s něčím na herní trh přijdou. Už jen z důvody všech peněz utracenejch v rámci programu pro vývoj her, opravdu obrovskýho jména, které sahá daleko mimo hranice fandů a zároveň pro nostalgii k důvěrně známému prostředí

Jinak ten tvůj úvod je docela k popukání. Já, božský DD jsem vše věděl dávno dopředu... Jasně každýmu pisálkovi amatérovi v ČR řekli co a jak to bude, ale všichni si pro tentokrát řekli, hele NDA je fajn, nic ven nepustíme. (tím nemyslím, že bys pouštěl ven NDA ty, ale když by to řekli tobě, už by to vědělo dalších tisíc lidí co se v týhle branži pohybujou)
Nexon [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:12:33

GPGPU je jen doplňková funkce, kterou využije jen velmi málo lidí, počítat interakci hvězd opravdu na svém počítači nehodlám, ani nehodlám hrát folding@home, navíc Nvidia nenabízí nic unikátního, co by neměla konkurence v podobě ATI a v budoucnu i Intelu. Nvidia si je vědoma do jakého průseru se může dostat, proto ještě znásobí snahy o prosazení PhysX a podobných fičur, které ale můžou v pohodě běžet na vícejádrových procesorech (zvláště potom, co už máme 5. generaci SSE instrukcí, které bohužel málokdo využívá). Uchyluje se dokonce k takovým zoufalostem, že po detekci ATI karty vypne akceleraci úplně a navíc její verze pro CPU je záměrně zprzněna. To jsou praktiky, který musí normálně uvažující uživatel okamžitě odsoudit. Takže už z logického hlediska, pokud ATI prosazuje fyziku a ostatní výpočty na otevřeném vývojovém systému (OpenCL, DirectCompute), jsem logicky pro tuto variantu. Dohledné budocnosti ale bude pořád platit, že CPU bude dominantním čipem v PC, prostě proto, že u běžného strojového kódu, jde paraelizovat jen velmi obtížně. Proto je u CPU jedna z nejdůležitějších částí spekulativní logika (instrukce mimo pořadí, podmíněné skoky apd.), která v této formě na GPU chybí.
xJirikx [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:16:52
avatar
jenže daleko víc karet se prodá do superpočítačů a profesionální(vědecký) sféry než kolik se jich prodá na hry... o tom, že se dnešní hardware nevyužívá ideálně vědí všichni, tam nemá smysl se hádat. Co se těch "fičur" týče, tak sice na papíře má ATi-AMD všechny taky, ale že by se zabývala jejich rozvojem, to se mi moc nezdá...
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:32:35

Tie praktiky co spominas nie su urcite koser. Osobne ma tiez prekvapilo to vypnutie PhysX v pripade detekovania AMD karty. Ale to ze nic navyse neponuka nie je pravda. Mozno pre bezneho uzivatela nie, ale ide o to ze s NV si budes moct dopriat taky isty vykon ako s AMD + tu mas PhysX a ak si programator tak sa mozes zabavit aj tym ze si vyskusas paralelne programovanie cez GPU + nehovorim este o aplikaciach zalozenych na CUDe, ktore mozu byt zaujimave aj pre beznych uzivatelov.

PS: A nie je pravda ze si mozes dovolit vypocitat to iste co GPU@PhysX aj na CPU. Je totiz rozdiel pouzivat z velkej casti skripty ako je to napriklad aj u Havku a pocitat s tisickami predmetov ktore dokazu interagovat s prostredim. Na to potrebujes viac ako 4 alebo 12 jadier. A to nehovorim o optimalizacii vypoctovych jednotiek na Fermi.

Osobne sa mi ale napriklad Havok pacil v Red Faction a tiez PhysX v Sacred 2. Kazda z tychto technologii ma nieco do seba. Ale ak chces pocitat fyziku pre nejaku komplexnu scenu tak ti vykon CPU proste nestaci. Aspon momentalne nie a ani v najblzisej buducnosti to tak nevyzera. Stale si myslis ako vekla ludi ze trebars 512 CUDA cores je menej ako trebars 12 buducich CPU jadier(o terajsich ani nema zmysel hovorit)?
Matuus [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:55:21

Jasne, pre ATI je vyrazne lepsie presadzovat fyziku a vypocty na otvorenom OpenCl, ktory vsak rovnako podporuje aj NV. ATI tak nemusi vrazit ani dolar do podpory fyzikalneho engine, nemusi robit nic a radsej bude cusat a cakat kym to za nu spravia vyvojari. NV oproti tomu ponuka uz rozbehnuty PhysX /ktory je na mile vzdialeny akemukolvek pouzivanemu enginu ratanemu cez CPU/, ma fakt rozsirenu CUDU s tisickami vyvojarov a mnozstvom aplikacii, ktore sa vyuzivaju nielen vo vedeckych sferach. NV necusi a riadne sa stara o vyvoj GPGPU nielen na poli CUDA, ale aj na OpenCl. AMD je schopne maximalne tak dat nejaky ten milion na vyvoj hry, co je daleko za pristupom NV ... ale mozno sa AMD/ATI spamata a na buduci rok bude okrem NVISION aj nejaka ATIVISION, kde nam vsetkym vytrie zrak s konecne realnou podporou pre OpenCl a nejaky fungujuci otvoreny fyzikalny engine v ktorom ma prsty
Nexon [Zobrazit profil] [Poslat zprávu] 2009-10-01 19:01:55

S GPGPU přišla pvní ATI, Nvidia to jenom víc presentuje. Jde o to, že si Nvidia chce otevřít nový segment trhu a může začít ztrácet ten důležitější grafický.(CPU nemá, ale mohla mít, nebýt jejího bezprecedentního podrazu na VIA s jejím procesorem NANO, pro ní mohla v pohodě vyrábět čipset, velká škoda pro oba, NANO je výkonější než ATOM a podpořený čipsetem Nvidia, mohla to být super platforma) Takhle vyrábí hybrid, který je zbytečně složitý. Příklad? Pro PC existuje koprocesor CLEARSPEED, který běží na 250MHz (nejde o překlep) a nabízí výkon 96 GFlops v DP při spotřebě 7W!, lehkým přepočtem zjistíte, že tenhle čip je cca 4 efektivnější v poměru GFlops/Watt o přepočtu na GFlops/počet trans. je lepší mlčet. A proč tomu tak je? Protože je to spec. čip, který má na starosti výpočty v DP a nic jiného, nehraje si třeba např. na grafickou kartu.:-) Nvidia je skutečně na tenkém ledě, pokud jí tah s tímhle čipem nevyjde (a jiný nemá), může se dostat lehce do potíží.Nedaří se jí výroba (ani se nedivím, 3.2 mld je mazec) a pokud se to nezlepší, bude muset rychle přijít s nějakou ořezanou verzí čipu (a další zpoždění je na světě). Výhoda AMD-ATI je, že sama vyrábí čipy a tak má více znalostí s přenesením čipu z prkna do výrobního procesu a zároveň má více lidí ve vývoji tj. můžou kombinovat některé techniky při vývoji grafických a CPU čipů. Další krok třeba může být asymetrický takt stream jednotek v R870, které zatím běží na frekvenci čipu, rozšíření pamětové sběrnice nebo klidně ještě větší navýšení počtu stream jednotek (třeba na 2400, pořád má rezervu cca 1mld. trans. na GF100). Nvidia je v současnosti na dorazu, víc jednotek ani větší takty přidat nemůže. Dále má AMD v rukávu Fusion, to může být hodně zajímavý projekt, hlavně do mobilního trhu. No každopádně mít v držení akcie Nvidie asi bych prodával. To byl vtip samo ...
Matuus [Zobrazit profil] [Poslat zprávu] 2009-10-01 19:37:25

NVIDIA hlavne aj nieco robi pre to, aby sa jej GPGPU dostalo sirokeho vyuzitia a tak to, ze ATI bola s GPGPU prva, absolutne nic neznamena. O vsetkom nakoniec rozhodne trh a ci je NV momentalne na hranici svojich moznosti, to skutocne nikto nevie, hlavne ked je Fermi postavena na uplne novej architekture.
aDDmin [Zobrazit profil] [Poslat zprávu] 2009-10-01 19:44:55
avatar
ATI dělá vše, co HW vývojář může, aby se standardy a GPGPU šířilo - navrhlo skvělý čip pro grafiku DirectX10.1 i DX11, i výpočtu GPGPU pod standardy OpenCL a DirectCompute, podporuje všechny skutečné standardy a navíc i otevřené standardy - neomezuje některé technologie narozdíl od jiných .... navíc vše, co naprogramuješ pod standardem OpenCL nebo DirectCompute půjde jak na ATI tak NVIDIA ;)

Více opravdu nemůžete od ATI žádat, je to návrhář HW ne vývojář Software ... ATI staví čipy podle požadavků standardů včas a často i dříve, než jsou vůbec využity ... například standard DirectX11 začíná a ATI už pro něj má podporu v grafikách na trhu atd.
mira89 [Zobrazit profil] [Poslat zprávu] 2009-10-01 20:29:58
avatar
Ale můžeme chtít a taky chceme Chceme aby se více zapojilo do vývoje. Můžu vědět kolik aplikací skutečně funguje a jsou postaveny na otevřených standardech (myšleno bez ironie)
J.C.Denton [Zobrazit profil] [Poslat zprávu] 2009-10-01 20:57:30
avatar
ehm? ati neni vyvojar software?a ovladace pro grafiky jsou jako co??asi kolo od traktoru...a proc by prave ati nemela pomahat vyvojarum?ona zna prave svuj hardware nejvice a vi v cem je nejlepsi a co ji moc nejde, ati klidne muze mit svuj program podpory vyvojaru stejne jako nvidia.
Matuus [Zobrazit profil] [Poslat zprávu] 2009-10-01 21:35:46

Presne, pokial moze NV podporovat vyvojarov vo velkom, tak preco to nemoze robit aj ATI?
AndreasCZ [Zobrazit profil] [Poslat zprávu] 2009-10-02 14:36:19
avatar
ATI ani Nvidia nejsou vyvojari software. Vyvijeji ovladace(to je rozhrani mezi HW a SW-ne program~software). Jediny soft, co delaji jsou technologicka dema. Napsali jeste programovaci jazyk CUDA a STREAM. Jinak o nicem nevim. Pouzivate snad nekdo nejaky program co oni udelali? Ovladace jsou neco jineho...
J.C.Denton [Zobrazit profil] [Poslat zprávu] 2009-10-02 14:52:01
avatar
to by platilo jen za predpokladu pouzivani samotneho driveru. ale co je nvidia nebo ati control center?samozrejme ze program a tedy software.
Odkaz proc tam ma ati napsano drivers & software, kdyz ten sotware podle tebe nedela???
Lukyn1811 [Zobrazit profil] [Poslat zprávu] 2009-10-02 14:56:40
avatar
Ovladače samozřejmě jsou software. Je to software, který umožňuje komunikovat mezi operačním systémem a hardwarem.
xJirikx [Zobrazit profil] [Poslat zprávu] 2009-10-01 23:11:57
avatar
chudinka maličká, hlavně že se tu porád žehrá jak nejsou pořádně odladěný hry na grafiky(což taky většinou nejsou). Ono se to asi samo neudělá a pokud to nVidia zabalí co se desktopu týče, jak naznačuješ, tak to bude teprve utrpení s AMD, který si někde něco ukutí a tím skončí. "Hoši tady to máte a vlezte nám na záda. Možná až tu hru uděláte, doladíme za pár měsíců ovladače, aby tam šlo CF a byly lepší FPS..."
kryten10 [Zobrazit profil] [Poslat zprávu] 2009-10-01 23:46:44
avatar
Niekto vyšsie spomínal, že Intel s larabee a Nvdia s fermi si vytvoria nový trh, na ktorom si budú vzájomne konkurovať a AMD tým bude vyšachované z hry. Ale ja si to nemyslím, ako si aj ty spomenul, AMD bude mať Fusion, takže tretí do party. Tomu sa hovorí konkurencia :-)

Ale nie, teraz vážne- fermi vyzerá na výpočty ozaj zaujímavo, intel si myslím tiež nesklame, ale čo je hlavné? AMD sa tiež určite predvedie. Zoberte si, že Intel na to ide od CPU, Nvdia od GPU a AMD má bohaté skúsenosti s obojím, tak verím, že sa to aj prejaví.
Ale to je ešte ďaleká budúcnosť. Sám som zvedavý.
DedecekHribecek [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:31:04

Máte to trochu popletené. CUDA ,se domnívám, je mrtvá. NVIDIa pro to dělá vše omezováním výkonu na ATI kartách. Já na míste vydatele který naprogrmaoval CUDA hru bych byl velmi rozelen na toto snižováná výkomu. Tím NVIDIA snižuje potencionální kupce. Rozhodně bych po této zkušenosti stavel další tituly an něcem nezávislém.

NVIDIA se chová poněkud idioticky. Dá na trh něco proti INTELU. Místo toho aby na něj zaútočila na neslabším místě (typickou grafickou kartou) zaútočí svým modelem larabee tedy přesune boj do oblasti spíše procesorové kde je INTEL nejsilnějším hráčem.

Máte hodně zkreslené představy o síle NVIDIE. Nejdřív jsem se nabubřelé NVIDII vysmíval. Vyklidila chipsety. Nyní zdá se pouští k vodě kdysi dobré grafické karty aby vyvíjela konkurenci larabee. INTEL je daleko silnější a jak se s larabee potýká po výkonové stránce. To NVIDIA papírové larabee má také problémy ale s výrobou. Milá NVIDIE aby tě po krachu tvého larabee brzo nekoupil INTEL. To už nebudeš schopná nabídnout nic.
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:38:10

Preco je podla vas CUDA mrtva? Podla segmentu na ktory NV utoci nemusi CUDA konkurovat OpenCL(ak toto myslite ako konkurenciu). OpenCL moze byt kludne pre desktop pouzitie a CUDA bude pouzivana v profesionalnej sfere... Naozaj si myslite ze je NV taka blba ze by investovala peniaze do platformy u ktorej by nemala pevne zazemie?
DedecekHribecek [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:48:59

Zo jsem již uváděl. NVIDIA se ukazuje jako vývojář software který straní svému hardweru a poškozuje konkurenci. Jemom hlopupý vývojář by jim podruhé sedl na lep když jsou k dispozici jiné prostředky od nezávislých vývojáčů které dělají totéž.
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:58:22

Otazne je skor ci to tak naozaj je ako to tvrdite. Ak by to bola pravda tak je to zle ale do zakulisia nevidime a mozeme len hadat. Neviem v com inak poskodila NV konkurenciu. Co som cital tak to myslia ludia vacsinou na Batmana ale toho som hral iba na NV karte a aj to iba demo. Neviem posudit ako hra vyzerala na ATI a ci bola ochudobnena iba o PhysX efekty alebo za tym bolo viac... Preberalo sa zapnutie AA ale to vyzera skor problem s ovladacmi aj ked sa to zhadzuje na NV. Skor sa mi zda ze niektorim ludom proste nejde tak ako ocakavali a kedze sa NV ciastocne na vyvoji podielala tak je hned automaticky na vine...
DedecekHribecek [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:10:49

Nemusíme vidět do zákulisí. Stačí vidět do historie. To co udělalo NVIDI NVIDII - podpora DX (sntadardu definovaným sw firmou) nahrazuje svým řešením které dodáva sama jako dodavatel HW.

Podívjte se co NVIDIA dělala. Fantastické chipsety a DX vynikající karty. Chipsety jsou minulost a na DX nadává. vrhá se na jakési akcelerátory.
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:16:18

Ale stale podporuje aj ostatne standardy tak ako doteraz. Akurat ponuka nieco svoje navyse a snazi sa na tom zarobit. Inak neviem o tom ze by na DX nadavala. Z oficialnych vyhlaseni tvrdila ze DX11 nebude jedine lakadlo preco si kupit novu kartu. Sice tu bolo velakrat omielane zevraj tvrdila nieco ine ale staci si to precitat.
DedecekHribecek [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:41:55

Napsal jsem to špatně korektní by bylo napsat bagatelizace DX. Začalo to zpochybňováním 10.1 a nyní i DX 11. Nikde jsem nezaznamenal opěvování DX 11. Hovoří obecně o výkonu. Srovnejte si presentace AMD. V tom je vidět jasný odklon od DX 11 a toho co NVIDII udělalo NVIDII.
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:56:47

S DX10.1 skutocne NV bagatelizovala ale co sa tyka DX11 bola interpretacia niektorych redaktorov znacne prehnana. Original tak vobec nevyznieval... Co sa tyka AMD tak to nie je o com. Vzdy som tuto firmu uznaval a drzal jej palce. Procesor by som si iny ako AMD nekupil. Ale co sa tyka GPU som skor fanusik NV aj ked AMD urobila znacny pokrok co nemam problem uznat. NVIDIA je ale v trosku zlozitej situacii. Vlastne procesory nema a mozno im segment iba cistych hernych GPU nezaraba tolko co si predstavovali tak to skusaju inde. Za to by som ich nijako neodsudzoval. Skor im tiez drzim palce.
DedecekHribecek [Zobrazit profil] [Poslat zprávu] 2009-10-02 07:15:25

Nesvádějte to na redakrory. Je to NVIDIA co má plnou pusu CUDA. To že se občas zmíní o DX 11 je jenom aby doprodala co na DX dělá.

Tady snad není debata o tom jaké procesory gi grafiky používáme nebo jim fnadíme. je to o tom co dělalí a jakou mají budoucnost. osobně se domnívám, že si NVIDIA našlápla neco hodně smradlavého. balvan který dost těžko povali dopředu a navíc proti INTELU.
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-02 07:23:13

Ja som narazal iba na pisanie clankov o tom zevraj NV povedala ze je DX11 zbytocne. Co nie je pravda. Iba povedala ze nebude jedina rozhodujuca vec na zvazovanie kupy GPU.
Co sa tyka Intleu bude mat NV naskok takze uvidime s cim sa Intel vytiahne. Osobne si nemyslim ze prva verzia Larabee(2011) bude schopna konkurovat uz davno vydanej Fermi(2010). Na to som ale naozaj zvedavy. Mat Fermi a Larabee v jednom PC... Zaujimava predstava. Len aby to malo adekvatnu SW podporu.
mira89 [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:48:47
avatar
nepotřebuju vidět do zákulisí - co se týká physX tak se nedivím že chce nVidie aby fungoval jen na jejich kartách - ber to podle sebe > něco tě stálo moře času i peněz a pak to má nějakej darmožrout používat zadarmo a aníž by s něčím pomohl
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 19:00:18

Presne tak. Akurat odstavit ludi co si trebars kupili starsiu NV kartu kvoli PhysX len preto ze ako primarnu GPU pouzivaju AMD nie je koser. A nejde tu iba u ludi. Tymto nastvali aj par vyvojarov.

Proste kopec ludi sa tesilo kvoli Win7 aj preto, lebo mal dovolit pouzit 2 ovladace na GPU aby si vyskusali ako to spolu funguje a aky vykon s PhysX s NV kartou budu mat. Toto im trosku zobralo vietor z plachiet a tiez by som bol na ich mieste nastvany.
mira89 [Zobrazit profil] [Poslat zprávu] 2009-10-01 19:15:02
avatar
netvrdím že co dělá nvidie je supr.Jen říkám že bych taky darmožrouty neživil
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 19:19:03

Ja vobec NV neberiem ze si PhysX postavila ako + k svojej znacke. Je to jeden z dovodov preco opat kupim NV GPU. Niekedy to ale prezenie.
Mapek [Zobrazit profil] [Poslat zprávu] - Ale oni darmožrouty živí 2009-10-10 12:46:17

V případě vypnutí PhysX při detekování GRAFICKÉ karty od ATI jsou těmi hlavními darmožrouty, které bys měl tímto slovem nazvat, někteří jiní. Tímto rozhodnutím dávají jasně najevo, že holt dobrou práci odvádějící oddělení vývoje software podlehlo tlaku těch neschopných darmožroutů z vývoje hardware, přestože to ohrožuje jejich vztahy jak se zákazníky, tak s obchodními partnery a ohrožuje to tak vše, čeho svou kvalitní prací dosáhli. Bohužel bez tohoto omezení, které rozhodně všeobecnému přijmutí jejich dobré práce nepomůže, bohužel ti darmožrouti z kanclu vedle chcípnou hlady :-)
Matuus [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:25:37

Batman a AA - engine UT3 vo svojom jadre nepodporuje AA ... NV AA proste pre batmana doprogramovala ... alebo to mala doprogramovat za svoje prachy aj pre ATI karty?
DedecekHribecek [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:56:58

I Vy šprýmaři. Jak karty VVIDIA tak ATI mají stejný standard. Jesltliže chodí AA pro jednu tak logicky musí chodit možná s malými úpravami i pro konkurenci.

I kdyby se mýlil musela chudák NVIDIA musela doprogramovat. Tak ji nikdo nenutí. Jediné co ale produkuje je poloprodukt který neumí podporovat DX 10 karty. To je dost nelichotivá vizitka všemocné CUDE.
Matuus [Zobrazit profil] [Poslat zprávu] 2009-10-01 19:40:53

Samozrejme, len to by ATI musela pohnut prdelou a zacat sa zaujimat viac o vyvoj aktualnych hier a nie spoliehat sa na to, ze to za nu urobia vyvojari alebo NVIDIA
aDDmin [Zobrazit profil] [Poslat zprávu] 2009-10-01 19:47:35
avatar
ATI není ta, co by musela hýbat prdelou .... ATI má DX11 a vvždy všechny technologie které byly k vývoji her potřeba včas a často s předstihem ... tesselaci například má už od roku 2001, DX10.1 podporovala autoamticky hned jak byl stnadard na světě a stejně tomu je i u DX11 - prdelí by měly pohnout herní vývojáři a hlavně konzole ... ATI je výrobce a halvně vývojář HW ne vývojář aplikací, podporuje vše, co má a jaké jsou a budou technologie - je na vývojářích her toho využít ...
Matuus [Zobrazit profil] [Poslat zprávu] 2009-10-01 22:17:41

No keby sa ATI snazila, tak by jej zakaznici mohli z technologii pritomnych v jej kartach aj nejak profitovat. Takto ma sice teselaciu uz pekne dlho, avsak co je to platne, ked potom nepodporuje vyvojarov aby jej karty vyuzivali na 100%? Vyvojarovi je jedno ci bude mat implementovanu HW tesselaciu alebo Physx .. ak to znamena vela prace, tak sa na to s prepacenim vysere. Tento fakt si NV uvedomuje a preto ma svoj program na podporu vyvoja hier. Ja osobne som bol z tesselacie nadseny, avsak po rokoch nuloveho vyuzitia som k nej velmi skepticky ... pokial ju nezacne presadzovat NV tak na nu mozeme asi rovno zabudnut, lebo ATI na tomto poli spinka ako sipkova ruzenka
Dr.Kusa [Zobrazit profil] [Poslat zprávu] 2009-10-01 22:42:13
avatar
mas vcelku pravdu.preco sa tesselace nepouziva uz od roku 2001? preco sa okolo toho robi taky humbuk az teraz? otazky na ktore asi nevie nikto odpovedat a ak ano nech odpovie
J.C.Denton [Zobrazit profil] [Poslat zprávu] 2009-10-01 22:56:00
avatar
protoze ji doted directx nepodporoval?
Matuus [Zobrazit profil] [Poslat zprávu] 2009-10-01 23:34:56

No implementovat nejaku technologiu do svojej grafiky a cakat niekolko rokov az si na nu spomenie MS je priam trestuhodne ... keby sa NV chovala ako ATI tak tu dodnes nie je ani jedna hra s GPU PhysX
DedecekHribecek [Zobrazit profil] [Poslat zprávu] 2009-10-02 07:23:39

Pravdu nemá.
Tesselance. proč se nepoužívá od 2001? Stačí si odpovědět na jjednoduché otázky Od kdy je součástí DX. Od kdy je odpovídající DX podporován HW a kdy tesselance začali používat vývojáři.
Matuus [Zobrazit profil] [Poslat zprávu] 2009-10-02 08:44:08

Ale vsak vyuzitie tesselacie nie je viazane na DirectX ... a ako som uz pisal, spoliehat sa na to, ze samotni vyvojari sa postaraju o rozsirenie tesseleacie je detinske.
DedecekHribecek [Zobrazit profil] [Poslat zprávu] 2009-10-02 07:20:45

ATI CUDA nedělá a tudíž nemá co zlepšovat.
DedecekHribecek [Zobrazit profil] [Poslat zprávu] 2009-10-02 07:18:19

Kdo prosím Vás vyvíjí CUDA? Čí je to práce CUDA vylepšit. ATI dodržuje standard DX. To je vše co je povinna jako výrobce HW povinna.

Plete si zodpovědnosti. Ujasněte si role a potom mluvte.
Matuus [Zobrazit profil] [Poslat zprávu] 2009-10-02 08:47:34

Pisal snad niekto ze ma ATI vylepsovat CUDA? Bavili sme sa o neschopnosti ATI podporovat hernych vyvojarov.
Bennie [Zobrazit profil] [Poslat zprávu] 2009-10-04 20:52:42
avatar
Je vidět, že o tom prd víte... NV karty AA dělají odlišně od ATI... proto to v unreal enginech nefunguje.. protože se na něm spolupodílela NV a ATI na to prděla..
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-02 09:38:59

Nenapadlo ma doteraz sa na to pozerat takymto sposobom. Ze sa boja ze vlastnici starsich GeForce si kupia novu ATI a staru NV kartu si nechaju na PhysX akceleraciu. Heh. Z tohto uhla pohladu ich chapem.
Nexon [Zobrazit profil] [Poslat zprávu] - To Bennie 2009-10-02 13:28:01

Můžeš začít u sebe a největší facku si vlepit sám. Viz můj koment v diskuzi na extra. Pro jistotu ho jsem vložím: ""Pokud změníš ID karty, tak pokud by to bylo tak, jak tvrdí nvidia, že je to jen upraveno a lazeno v jejich ovladačích, tak by samozřejmě podpora u ATIN zapnout nešla (i přes změněné fake ID ve hře, musí ATI karta běžet přes Catalysty a hle ona najednou podpora AA běží). Takže je Nvidia opět usvědčena ze lži, takže klasické schéma detekuj kartu-jde o ATI-vypni podporu. Proto mluvím o sabotáži. Ze začátku šlo o progresivní firmu, ale to co se stalo z Nvidie ted, je na blití.""
Takže ještě jednou pro tebe, AA na ATI kartách běží naprosto v pohodě, (je opravdu vidět, že tomu prd rozumíš), jen je společností Nvidia uměle blokována. Můžeš se začít fackovat ...
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-02 13:34:20

Ak zmenis ID karty tak aby si hra myslela ze je od NV tak sa AA zapne(ak funkcia, ktorou hra kartu detekuje vrati to zmenene ID). To je predsa obidenie problemu. Zdovodnenie NV vyzera byt logicke. Ak to funguje tak ako si myslim.
Half [Zobrazit profil] [Poslat zprávu] 2009-10-02 13:47:25

urcite si potom cital aj odpoved na tvoj comment, ze?

Citace:
A cos tím chtěl říct? Samozřejmě, že to jede přes ovladače Radeonu. Ale za ty nvidia ručit nemůže, stejně tak za ně nemůže ručit výrobce hry.
Pokud by NVIDIA umožnila AA i pro ATI a zjistilo se, že způsobuje chyby v obraze, tak tu máme aféru stejně a pravděpodobně o dost větší.
Nexon [Zobrazit profil] [Poslat zprávu] 2009-10-02 14:21:02

Vtip je v tom, že vyhlazování (hlavně vyšší režimy) běží na Atinách mnohem lépe (s daleko menším dopadem na výkon), tak co udélám? Lup, vypnu podporu vyhlazování u konkurence. Navíc nejkvalitnější vyhlazování včetně filtrace textur má teďka ATI s HD 58xx, takže u Nvidie maj naděláno v gatích. Příště může třeba začít vypínat fičury ATI na kartách Nvidia. Opravdu skvělá představa, naštěstí tohle ATI nedělá, jde cestou otevřených standartů, které můžou používat všichni a nechová se jako idioti z Nvidie.
zeroground [Zobrazit profil] [Poslat zprávu] 2009-10-02 15:34:16

Co to meles? Tady nejde o vypinani AA, ale naopak o jeho implementaci. AMD to do Batmana neprovedla. Nvidia ano. Neda to kokurenci jen tak. Tady nejde o zadne deaktivovani, AA proste v Unreal enginu neni, je nutne ho dodelat a spolupracovat pritom s vyvojari hry. Vidis carodejnice tam, kde nejsou. Prea catalysty aktivovat vyhlazovani jde, bohuzel tim trpi samozrejme vykon, protoze AA nativne ve re funguje fektivneji. Ale to je problem AMD aby tohle v ovladacich napravila. JAK MUZES VYPNOUT NECO, CO NENI? Vazne, mene emoci, vice rozvahy. Jasne, ze by mohla Nvidia ci Eidos udelat to, ze napr. FSAA ci MSAA povoli pro obe karty, ale optimalizovano to bylo pouze na Nvidii. Pokud se vyskytnou nejake artefakty na Radeonu, kdo bude na vine? Ten problem je staven vazne tak, ze se nic nevypina, naopak prave zapina. AMD brzy jiste vyda hotfix, ktery minimalne zpusobi efektivnejsi praci vynuceneho AA pres catalysty, pripadne ji nikdo nebrani spolupracovat s Eidosem a v pristim patchi implementovat primo nativni AA do hry. Tohle uz tady bylo x-krat. nvidia na AA v unreal enginu pracuje proste vice nez AMD, ale to snad neni jeji vina.
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-02 15:35:10

To je vtip? Neverim tomu ze by NV vypla podporu AA u konkurencie. Pochybujem ze by s tym suhlasil vyvojar hry. Co sa tyka podpory otvorenych standardov tak NV podporuje vsetky tak ako aj AMD. To ze ma nieco vlastne ako + a nechce to dat inym zadara je uplne normalne. Kazdy chce prilakat zakaznika na svoju stranu a zarobit. Co je na tom nepochopitelne?
xJirikx [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:58:41
avatar
a dělají totéž se stejným servisem a prostředím? ono to, že tu DD napíše: PhysX a Havok jsou stejné věci, ještě neznamená, že to platí i pro vývojáře...
DedecekHribecek [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:06:24

Dělají totéž a to akceleraci her. To snad vidíte i Vy. Je jedno jakými prostředky. Nezáleží ani tolik na progresivitě ale na tom co se uchytí. NVIDIa ale dělá vše pro to aby skončila na smetišti. Podkopává důvěru ve své produkty a férovost.
xJirikx [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:28:59
avatar
jenže pro vývojáře rozhodně nemusí stejný výsledek znamenat stejné množství práce ve dvou rozdílných prostředcích. To je to co chtěl básník říct a pokud mi PhysX dokáže vyrobit fyziku za, teď uvedu úmyslně zcestný číslo, dvě hodiny a s Havokem na tom budu dělat týden (nebo naopak s Havokem to bude výrazně rychlejší), tak už se o to co bylo s Batmanem moc starat nebudu.
DedecekHribecek [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:45:40

Výkon se bude měmit v čase stejně jako funkce. Nejdůležitější je serioznost partnera a tedy hlavně perspektiva. Uvědomte si co by to zanmenalo učit lidi něco nového v čem mají programovat.

Jaký systém bude použit neučujete vy a to o co se budete starat ale vývojář.
xJirikx [Zobrazit profil] [Poslat zprávu] 2009-10-01 19:10:09
avatar
no to právě říkám. Vývojáře především zajímá jak se to udělá a ne jestli se to udělá. Co se podpory vývojářů týče, tak tam je nVidia úplně někde jinde, než AMD. I přes tzv. prznění výkonu Batmana o kterém jsem četl jen tady, abych pravdu řekl a pokaždé to bylo trochu něco jiného. Jednou se píše o zakázání pro CPU úplně, jindy o tom, že to bylo záměrně zhoršeno, ale nikde nic "oficiálního".
DedecekHribecek [Zobrazit profil] [Poslat zprávu] 2009-10-02 07:28:30

nerozumíte mi. To říkáte něco zcela jiného. Ona perspektiva je něco jiného. Mám ny mysli užít technologii která se bude dlouho používat, rozvíjet a pokrývající hodně uživatelů.
Matuus [Zobrazit profil] [Poslat zprávu] 2009-10-01 19:00:50

Ked NV zbada perspektivny projekt, tak tam nabehne jej banda programatorov a do hry proste ten PhysX doprogramuje /tak to bolo aj s Batmanom a tak to je aj s mafiou/
eR_Skaarj [Zobrazit profil] [Poslat zprávu] 2009-10-01 16:58:25

Taky vám nynější situace připomíná dobu před deseti lety, kdy padl jiný velikán? Ano, narážím na 3Dfx (samozřejmě až na to tentokrát je v pozici 3Dfx samotná nVidie - ironicky ta společnou která potupně 3Dfx odkoupila...).

4 DD - chlape nezlob se na mě, rád čtu tvé články, často máš pravdu a je dobré že je tu určitá protiváha k fosforovězeleným webům...
Ale proboha nutné stále upozorňovat na to jak jsi to říkal? Jak jsi to předpovídal. Kdyby jednou, ale tohle je pomalu v každém článku.
Nebo co mě žere ještě více - tvé narážky na to jaké máš zdroje a co všechny víš, jen to nemůžeš prozradit...
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:39:26

Ja si na 3DFX moc nepamatam. V com by mala byt ta podoba? Celkom ma to zaujima.

EDIT: Namiesto klikania na nesuhlasny palec by mi mohol niekto napisat ako to s 3DFX bolo. To co som pisal myslim vazne. Naozaj o tom nic neviem. Nebolo to myslene ironicky ani nijak zle.
DedecekHribecek [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:01:57

DFX karty byly urychlovače s vlastními drivery a potřebovali grafickou kartu. Měli praktick monopol na technologii a na trh. Tehdy se všichni vysmívali MS když přišel s DX. Tu přišla na trh NVIDIA a nabídla kartu přímo podorující prastarý DX. DFX dostalo konkurenci a začalo nabízet takové divné nenasytné svářečky které se neujali.
Tak porazil david goliáše a začala přeslavná éra firmy NVIDIA. Nyní sázení na standard definovaný SW firmou (tehdy na microsoftí DX)NVIDIA kálí. Chová se jako DFX které hájilo ten svůj standard a podporuje svoji CUDU kterou omezuje ostatním.
Matuus [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:22:42

Aha, takze ked FERMI podporuje DX11 a OpenCl tak "sere" na standardy? Zaujimava dedukcia ... ako som uz pisal, na GPUTC /ktoru zastresuje NVIDIA/ sa zacinalo prave so sessions, na ktorych sa hovorilo vyhradne o prinose DX11 a OpenCl ... a stalo to fakt za to
DedecekHribecek [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:48:13

Naučte se nejdřív číst mezi řádky. NVIDIA otevřene neřkne nic takového. Ale říká cosi jak je nedůlezié DX 10.1 a jak je důležitá CUDA. To jsou informace které definují postoj k budoucnosti.
Matuus [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:57:25

No urcite sa zhodneme ze s DX10.1 mala pravdu V konecnom dosledku sa z DX10.1 stala len marketingova pomocka pre AMD/ATI a majitelia GeForce kariet prisli len o trochu vykonu v HAWX. AK by bola DX10.1 taka pecka, tak sa presadi aj napriek ignoracii NV ... a ak NV skutocne stala za nevyuzitim DX10.1 v hrach, tak vlastne udava smer vyvoja /joke/
DedecekHribecek [Zobrazit profil] [Poslat zprávu] 2009-10-02 07:33:15

DX 10.1 nebyla žádná marketingová pomůcka. Když ji NVIDIA implematovala tak tím potvrdila perspektivnost technologie.
To že se neujalo je protože ho NVIDIA pohřbila. Vývojáři přece nebudo dělat nějakou práci nvíc když to porkyje jenom polovine segmentu.
Vzpoměňte si jak i ti co vydali tuto podporu ji stahovali na nátlak NVIDIE.
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-02 08:09:39

NV implementovala DX10.1 iba do svojich low-end modelov a mohlo ist o nejaku pripravu na implementaciu DX11. Nemyslim si ze DX10.1 mal nejaku perspektivu. Bol to iba medzikrok k DX11.
Matuus [Zobrazit profil] [Poslat zprávu] 2009-10-02 08:52:51

Ale bola to marketingova pomocka ... viac ako v hrach ju bolo vidno v prezentaciach samotnej AMD/ATI

No vie sa o jednom pripade, pricom aj okolo neho su urcite nejasnosti a stiahnutie patchu niekto dava za vinu naslednej nestabilite ... alebo nebodaj este vies o nejakej inej hre z ktorej sa na zaklade natlaku NV odstanila podpora DX10.1? Ak nie, tak je tvoj prispevok znacne zavadzajuci
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 19:01:33

JJ. Teraz uz niektore vyhlasenia davaju vacsi zmysel ako tomu bolo predtym.
xJirikx [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:04:04
avatar
to máš fuk. tady to nikoho nezajímá, prostě si někdo řek, že ti dá minus, další viděl jedno minus, tak co. Dám ho taky. atd. Na tyhle hodnocení se nedá brát zřetel. V popisu je psáno jak se tím ukazuje "hodnověrnost uživatele podle ostatních uživatelů" a pak se tu adminem nastaví člověku z 72 nebo kolik měl obc na 0.

Co se 3dfx týče, tak u toho jsem taky nebyl, takže nemůžu sloužit. Ale třeba MadMaxII by se tu časem moh ukázat, podle toho jakym stylem píše, bych tipoval, že on to zažil a třeba se podělí o stařeckou moudrost
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:18:31

Tie minusky ma netrapia. Akurat som sa nieco opytal a niekto namiesto odpovede ma vyklikal. A pritom som neurazal nikoho ani ziadnu firmu.
DedecekHribecek [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:49:54

Tento web je bohužel plný magorů kteří neumí říci svůj názor a tak to co se jim nemíbí omínusují. Taková malá demontrace jejich hlouposti a malosti.
Allie Fox [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:55:42
avatar
Tak pesimisticky. Šálek je z půlky plný . Mě se třeba tvoje názory a poznatky ohledně 3dfx,DX, nVidie líbí.
wizard_ov [Zobrazit profil] [Poslat zprávu] 2009-10-02 09:09:30
avatar
S obc mi to připomínalo takovou tu demonstraci o které píše DedecekHribecek (sakra to je dlouhý nick ) kousek níže. Obc psal s přehledem, zasvěceně a vtipně. Bohužel proti jisté osobě, kterou nemohu jmenovat aby to nebylo bráno jako osobní útok. Jistá osoba použila proti Obc prostředky, které se používají mezi dětmi na pískovišti, nebo v politice...
j.matrix [Zobrazit profil] [Poslat zprávu] 2009-10-01 21:25:11
avatar
3dfx bola firma ktora vyrabala grafiky skor ako bola nvidia, potom vsak nezvladli hype pri vydani geforce256. 3dfx vtedy chcelo vyrabat kartu s 2 az neviem kolkymi cipmi. Realne sa vyrobila 4cipovka, mala vykon asi ako geforce2 ale nakoniec to dopadlo tak ze ju odkupila nvidia. Z nedokonceneho projektu rampage sa napokon vela veci implentovalo do nepodareneho geforce fx, viac info najdes na jednej ceskej stranke. skoda voodoo,to boli grafiky
dusan.dj [Zobrazit profil] [Poslat zprávu] - A zase dokola,dokolecka, 2009-10-01 17:13:35

Ahoj,fandim NV,ale jen se me libi jak si nekdo vychvaluje neco,co neexistuje.Az to bude v obchode,muzeme posuzovat a lamat rekordy,,,zatim mavaji jen plastovym obalem,tistakem a novou revizi chladice,,,
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 17:33:31

Vzhladom na to ze sa nova generacia AMD podarila bolo treba nieco ukazat. Uvidime ako to nakoniec bude.
AndreasCZ [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:01:18
avatar
Je to pro Nvidia riskantni krok a muze se na tom objesit a nebo si udelat vyrazny naskok. Az historie ukaze viteze a porazene...
xJirikx [Zobrazit profil] [Poslat zprávu] 2009-10-01 18:05:29
avatar
ámen
jmmazuch [Zobrazit profil] [Poslat zprávu] - Prilis moc FPS 2009-10-01 18:44:43
avatar
Sem spokenej uzivatel legendarni 4870 1Gb a FPS mam dostatek
Takze snad DX11-Direct Compute a OpenCL,CUDA prinesu na desktop viac stavy tam kde chyba.
zumpar1234 [Zobrazit profil] [Poslat zprávu] 2009-10-01 19:09:21
avatar
nVIDIA spravila fakt next gen jadro. Pochybujem o nejakom primarnom zameraní na profi segment alebo čo sa spomína Grafická karta je určená na hranie hier to je jej primárna funkcia. ostatné veci su bonus a to fakt príjemný najme keď sa objavia aplikacie využivajuce CPU+GPU. Ale najdôležitejší je herný výkon. Ten zatiaľ nepoznáme....ten je najdôležitejší...a je na 100% jasné že v pripade malého nárastu herného vykonu nVIDIA skončí v pekelnej stráte...Ja jej to aj prajem. Poriadna facka aby sa prebrala z toho sna čo sníva by celej nVIDII pomohla.

PS: Samozrejme NV by mala mať cca rovnaký alebo večší herný výkon ako ATI...
aDDmin [Zobrazit profil] [Poslat zprávu] 2009-10-01 19:27:32
avatar
pochybuješ? aha tak to si flastně celou prezentaci NV o zaměření pro výpočty a na TESLA vymyslela
zumpar1234 [Zobrazit profil] [Poslat zprávu] 2009-10-01 19:34:42
avatar
Ne ale PC hráči by jej otrieskali o hlavu GK ktoré majú malý herný výkon...ako vravim prijemný Bonus ale pre hranie?... Uvidime az po herných testoch...
xJirikx [Zobrazit profil] [Poslat zprávu] 2009-10-01 20:39:46
avatar
hlavně se uvidí až co ukážou hospodářské výsledky...
eR_Skaarj [Zobrazit profil] [Poslat zprávu] 2009-10-01 19:09:37

Ad. 3Dfx vs. nVidia - do doby Voodoo 2 (a Banshee) mělo 3Dfx prakticky monopol, vlastně nVidia se tehdy snažila konkurovat TNTčkem (které nebylo špatné výkonově, ale nemělo jméno a provozní vlastnosti taky byli někde trošku jinde).
Pak 3Dfx přišlo s Voodoo 3 (2k, 3k a 3.5k varianty) proti kterým už nVidia nasadila velice schopnou konkurenty, TNT2 a TNT2 Ultra. 3Dfx se stále spoléhalo na Glide (kde se nVidia moc nechytala) ale zaspalo co se týká D3D. Tentokrát nVidia předběhla 3Dfx. Totálně ale 3Dfx rozsekala tuším v roce 2000 se svou GeForce DDR, kdy 3DFx neměla čím odpovědět (aneb dnešní situace - AMD má HD58xx a nVidia nic...). 3Dfx si kuchtila svoje nové Voodoo 4 a 5 na čipech VSA100. Když byli Voodoo 4 (jeden čip) a 5 (dva, čtyři a v plánu byla i 8 čipová varianta) hotové tak nVidia měla na trhu už GF2 (jak slavné MXko tak trhač asfaltu GTS). Voodoo 5 bylo sice technologicky napřed (výkonostně taky - ale ne o moc), problém byl v ceně, provozu, ovladačích atd... navíc 3Dfx nemělo ani prostědky aby dokázalo V4 a V5 více prosadit. V podstatě se V4 a V5 ani nedostali pořádně do prodeje (takže jsou to dost rare karty).
No a pak nVidia koupila 3Dfx, skalní fandové Voodoo od té doby nemůžou přijít nVidii na jméno

Doufám že jsme něco nespletl, o ATI jsem se nezmiňoval neb si nějak nemůžu vybavit že by do souboje na poli akcelerátorů výrazněji promluvila (ano, asi promluvila - ale nikdy neaspirovala na trůn, ATI se začalo víc prosazovat za dob radeonů 7500 a 8500, kde hlavně 8500 rozsekal technologický zázrak GF3, aby byl následně rozsekán GF4Ti, které byli potupně rozsékány radeony 9xxxO, které o půl roku později dali na prdel i GF5... a začínáme se dostávat moc do současnosti a mě už přestává bavit psát).
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-01 19:22:23

j.matrix [Zobrazit profil] [Poslat zprávu] 2009-10-01 21:30:16
avatar
spravne si to napisal este by som spomenul dvojcipovku rage fury max, vysla vsak v dobe geforce256. takisto bola dobra aj posledna herna grafika od matroxu G4OOmax, konkurencia ku tnt2 ultra. glide bolo vlastne api rozhranie 3dfx. Postupne s nastupom dx odumieralo. Aj ked povodne v dobach Voodoo1 a 2 bolo na nom postavenych vela hier. Co ja viem tak posledna poriadna hra co na nom sla bol Unreal Tournament
eR_Skaarj [Zobrazit profil] [Poslat zprávu] 2009-10-01 21:56:30

Ad. matrox - G400 nebyla moc konkurence k TNT2 (resp. GeForce DDR - aka GeForce 256). Byla určena pro profesionálnější aplikace, výkon byl mírně pod GF, ale cena byla o dost vyšší (podpora více monitorů). Rage Fury Maxx - pokud člověk trefil hru tak ok, ale jakmile ne... hold dvě jádra v jedné kartě. Pamatuju že známej na tu kartu nadával kudy chodil...
j.matrix [Zobrazit profil] [Poslat zprávu] 2009-10-02 22:23:41
avatar
no hlavnym problemom rage fury max bol ze ovladace boli iba na windows 98 g400 mala meskanie oproti tnt2,tesne po nej vysla uz prva geforce, ale suhlasim ze to nebola celkom herna karta,aj ked urcite sa na nej hrat hry dali,mala vybornu kvalitu obrazu, kvalitny ramdac, 256b zbernicu, vystupy na dva monitory. Naa tu dobu to bol prevrat
ja_X [Zobrazit profil] [Poslat zprávu] - Předváděná Fermi je FAKE? 2009-10-01 20:02:17
avatar
Karta NVidia s Fermi prezentovaná na včerejší NVidia konferenci je pravděpodobně nefunkční FAKE viz. fotka karty na http://pc.watch.impress.co.jp/img/pcw/docs/318/660/html/03.jpg.html .Nesedí na ní body pro připájení konektorů přidavného napájení s umístěním 6 a 8 pinového konektoru na karte, vypadá to jako by bylo celé PCB uříznuto z delší karty a nasazen chladič z Fermi.
AndyF1 [Zobrazit profil] [Poslat zprávu] 2009-10-03 09:11:29

Tiez si myslim.Na videu priamo na NV stranke to radsej ukazal len na kratkz moment.Som zvedavy na prvu realnu kartu.
zumpar1234 [Zobrazit profil] [Poslat zprávu] - Herný výkon 2009-10-01 20:24:18
avatar
Ako vravím herný výkon je najdôležitejší. NV zatial nic nevie vsetko len skúsa a ladí. Tak preto nám ukázala nieco co vie ako tak odhadnúť...a to CUDA novinky.... Hry sa nespomínajú len preto že bez funkčnej GK sa nedá nič povedať Očakávam poriadný NÁŘEZ;) ATi sa bude musieť skloniť pred NV
Nexon [Zobrazit profil] [Poslat zprávu] 2009-10-01 20:47:47

To jo, ale jenom proto, aby to zelený lejno uklidila z cesty.
holoway [Zobrazit profil] [Poslat zprávu] 2009-10-01 23:52:15
avatar
Dobře ty, to mě pobavilo. Máš palec nahoru.

A ještě vlastní názor: ač pan zumpar očekává herní nářez, já očekávám, resp. doufám, že na tom hry půjdou Zrovna to, co ale dneska ukázala nVidia na prezentacích skoro ukazuje, že to bude jen na počítání...taky chci pěkně nějakej hezkej marketingovej graf výkonu ve hře, ale zatím to ještě asi fakt není na čem otestovat.
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-02 07:30:25

Podla prezentacii bude GK podporovat DX11, OpenCL, Direct Compute.... Myslim si ze hry na nej pojdu.
Bennie [Zobrazit profil] [Poslat zprávu] 2009-10-02 08:22:15
avatar
není možná Holowayi, že ti do dneška nikdo neřekl, že 3D grafika je jenom samé počítání a počítání a počítání )))
zumpar1234 [Zobrazit profil] [Poslat zprávu] 2009-10-02 10:31:13
avatar
"doufám, že na tom hry půjdou" Máš obavy len kôli tomu že NV nič o hrách na konferencii nehovorila? "chci pěkně nějakej hezkej marketingovej graf výkonu ve hře" Ano to chcem aj ja Problem je že GK nie je hotová a tak nemajú na čom testovať Tak ako vravíš....teda fakt nechápem ako môžeš povedať že sa bojíš že NV nebude zvládať hry a že bude len na počítanie v CUDA? čo podľa teba mali asi o hrách hovoriť keď sami nevedia ako na tom su? Preto tam vraveli len o CUDA veciach ktoré majú ako tak teoreticky zmáknuté
j.matrix [Zobrazit profil] [Poslat zprávu] 2009-10-01 21:32:49
avatar
herny vykon je najdolezitejsi pre hracov mozno pre nvidiu uz nie ak sa na hracov vykasle a pojde radsej zarabat cash do ineho segmentu. uvidime...
qmox [Zobrazit profil] [Poslat zprávu] 2009-10-01 21:27:51

Ked sa sefa nvidie pri ohlaseni poslednych kvartalnych vysledkov na tom konferencnom calle pytali kedy zacne hovorit nvidia o novych grafickych kartach kedze sa uz zacali sirit spekulacie o Ati, Jensen povedal ze nvidia preferuje hovorit o buducej generacii az ked nehrozi riziko ze by si takpovediac zmrazili predaje sucastne generacie v nejakom segmente .
Ked prihliadnem k datumu tejto prezentacie , povedal by som ze toto je dobry barometer ako to s predajmi nvidia kariet v cenach 300+ euro vyzera.

Kazdopadne zaujimava karta, a viem si predstavit ze herne studia by z nej mohli mat radost.
HD_Fugas [Zobrazit profil] [Poslat zprávu] 2009-10-01 23:37:42
avatar
Jo i já sem tenkrát měl 3dfx voodoo banshee 16MB,myslim někdy v roce 1999,byla to tenkrát bomba karta(celej komp pentium 1 na 166MHZ MMX a 16MB ram myslim) ,jo je to pěkná historie a snad jí mam ještě někde na půdě.......asi to pudu oprášit a dát si na něm dungeon keepera nebo nhl 2000
pure8 [Zobrazit profil] [Poslat zprávu] 2009-10-02 00:56:34

Myslím, že Nvidia jde do kopru a jestli ten výkon bude slabý, tak po nvidii nesáhnou ani profesionálové. Přece není možné, aby hi-end měl stejný výkon jako mainstream. A navíc obří čip od Nvidie bude určitě dražší.
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-02 07:34:09

HD 5870 nie je mainstream. Z tu cenu aku sa predava ide o high-end. HD 5870x2 by som nazval uz entusiastic a nie high-end. Moj osobny nazor.
radvot [Zobrazit profil] [Poslat zprávu] 2009-10-02 03:32:09

velmi zajimava diskuse.Asi tu DD mel dat par vytahu z konference.Ze ta karta ukazovana na konferenci je jen maketa si muze overit kazdy.Ale to neni dulezite.Nikde neni ani zminka o vykonu ve hrach.Zadne grafy o kolik fps porazi konkurenci.Jen srovnani o kolik je rychlejsi nez Tesla.Mimochodem,Tesla C 1060 jde sehnat uz za pouhych 35 000kc.samozrejme existuji i vykonejsi a mnohem drazsi typy .Takze pokud predbeznych odhadu ma byt fermi 5x vykonejsi nez Tesla. opravdu si myslite ze date dost penez dohromady aby jste si ji mohli koupit?Myslite ze Nvidia posle k certu tak skvele vynosnou Teslu aby nabizela hracum kteri naprosto nevyuziji pokrokove technologie kartu nekolikanasobne silnejsi za zlomek ceny? Tohle neni karta na hrani.ani nema v umyslu poskytovat vysoky vykon ve hrach.tohle je fantasticka,plne programovatelna masinka s podporou prumyslovych standardu urcena do profesionalni sfery.Tam se penizky vydelavaji a tam za to Nvidia dostane RADNE zaplaceno.Myslite si ze se IBM vzdala x86 z rozmaru?Zavetrila prilezitost,dnes si dela sve procaky i software.A verte mi ze se to s x86 neda srovnat.o jejim uspechu snad nemusime diskutovat.Oak Ridge National Laboratory ma v umyslu postavit na zaklade Fermi super pocitac 10x vykonejsi nez soucasny nejrychlejsi.Ne vse zalezi na hrubych Gflops stejne jako ne vse zalezi na frekvenci cpu.DD,dej tu prosim anketu kolik asi tak bude Fermi stat .To bude sila
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-02 07:36:01

Na to som tiez zvedavy. Prinajhorsom kupime nejaky slabsi derivat. Snad to nebude az take zle.
zeroground [Zobrazit profil] [Poslat zprávu] 2009-10-02 09:37:36

Myslim, ze ve hrach nic neukazala, protoze jeste proste nejsou ovladace. Preci jenom, k vyuziti tohohle jadra asi bude potreba ovladace radne prepracovat. Na ty konferenci se predstavila pouze technologie samotna, tzn. ten sample klidne muze byt nejak zbastlenej - nic to neznamena. Ja bych pockal, az vyjdou nejake gafy s vykonem ve hrach. To jadro potencial ma a nemuzes srovnavat Teslu a herni grafiku cenove. U Tesly kupujes kartu s jinymi parametry nez ma herni GK, byt jsou stavene na stejnem zaklade - Teslo je stavena na stejnem jadre jako GTX280 - G200b a vidis, ze prodavat za konkurenceschopne ceny to v hernim segmentu jde. To jadro se v hernim segmentu bude prodavat za odpovidajici cenu, tzn pokud podle vseho o 10-15% prekona HD5870, bude stat o tech cca stejnych procent vice. Stejne jako dosud. Nvidia se na profesionali segment soustredi uz dlouho, to neni pouze posledni dobou. I proto silna masaz CUDA, ktera je pro hrani a bezneho uzivatele ne moc vyuzitelna, ale prave v profesionalnim segmentu prinasi nesporne vyhody. Myslim, ze hodne predcasne hazite ohledne Nvidie flintu do zita. V hernim segmentu nabidne karty za odpovidajici cenu vykonu a verim, ze vykon ve rach bude minimalne srovnatelny s konkurenci, spise opet o neco lepsi.
Dhatz [Zobrazit profil] [Poslat zprávu] 2009-10-02 08:47:37
avatar
s tím že fermi bude pomalejší než HD5870 se dá říct, že si nVidia kope čím dál větší,daržší a méně výnosný hrob.
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-02 09:41:36

To su len dohady. Uvidime po testoch.
Bohy [Zobrazit profil] [Poslat zprávu] - Profesionální segment 2009-10-02 09:12:25
avatar
Takže kdyby se Fermi uchytila v profesionálním segmentu tak by hry a jiné věci dělaly na Fermi, Nvidia by měla dolary a hrály by jsme na předražených Ati protože by neměly konkurenci ???
Snad to nebude tak zlý
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-02 09:44:22

NV karta bude podporovat vsetky standardy tak ako aj AMD takze by som sa nebal. Skor som zvedavy s akym vykonom.
Grol2 [Zobrazit profil] [Poslat zprávu] - Fermi 2009-10-02 10:46:00

Ja bych Fermi tolik nezatracoval. Vzpomenam si, kdyz jsem ve sve dobe kupoval procesor bez koprocesoru. "K cemu to, stejne to vetsina veci nevyuzije." O rok pozdeji jsem to za dobry napad nepovazoval a o dva roky pozdeji jsem se proklinal. Nenechte se zmylit, tahle vecicka neni jen pro pocitani fyziky. Prinese obrovsky vykon vsude tam, kde je mozne pouzit maticove operace a tim vyuzit masivni paralelizaci. Kdo nekdy prisel s uplatnenim maticovych operaci do styku vi, ze se nechaji uplatnit temer vsude. Zpracovani zvuku, obrazu, archivace, kodovani, umela inteligence nebo pocitani grafiky pro hru... Duvodem, proc pro to zatim neexistuji aplikace je, ze HW mel doted velke limity a hlavne je to neco docela jineho nez psat bezny ceckovsky program. Vyzaduje to dokonce trochu jiny pristup k programovani. Ale ono to prijde. Mozna s Fermi prichazi NV trochu brzo, mozna vcas. To v tuhle chvili nikdo s urcitosti neodhadne. V kazdem pripade tohle je smer, kterym se budou veci dale ubirat. Za par let bude GPCPU to, cim je dnes koprocesor - samozrejmosti.
jardop [Zobrazit profil] [Poslat zprávu] 2009-10-02 12:44:17

konkurecnemu boju neuspech nvidie neprospeje.. tak dufajme, ze sa im podari nejaky zdatny konkurent..
zumpar1234 [Zobrazit profil] [Poslat zprávu] 2009-10-02 14:52:03
avatar
Unreal Engine nemá AA ten do hry pridáva stále NV sama to že ATI proste nič nerobý a nevie spraviť dokonca ani poriadne ovládače je len ich chyba! nikto ATI nebráni aby AA zapracovali a mali aj na svojich kartách. Ak by tu NV nebola tak žiadny AA v Bioshocku ani v Batmanovy nemáme . Niektorý by mali otvoriť oči. Po SW stránke je ATI podpriemer..a na NV nemá ani zdaleka.
radvot [Zobrazit profil] [Poslat zprávu] 2009-10-03 01:57:39

Ocividne tu mluvime kazdy o necem jinem.zatimco Tesla je odvozena od hernich grafik Fermi na to jde uplne z opacne strany.Pokud vam to neprijde jasne uz z oznaceni TESLA-FERMI tak opravdu nevim.Tahle karta je delana prioritne na vypocty,vykon ve hrach je ten malej co se krci vzadu.Tim nechci rict ze vykon ve hrach bude spatny.Ale na hry ta karta neni.Prvni namitka.Plne progromavatelna karta.To jsme tu vsichni spickovi programatori? .Asi jo,vsem nam je programovani a prumyslove standarty dennim chlebem.Druha namitka.Penize.Je tu samozrejme moznost ze se vsichni u Nvidia zblaznili a budou nabizet kartu x nasobne silnejsi nez je Tesla v segmentu kde je Tesla spickou ma obrovske marze a castky + - 10000kc jsou jen drobne.Jen proto aby se zavdecili hracum.klidne kvuli tomu poslou tak vynosny trh k sipku.Namitka treti.ECC.Kompletne vsechny cipy na FERMI pouzivaji ECC korekci chyb.Sice je to drazsi ale na rozdil od her je to pro vedecke vypocty obrovsky prinos.Tohle je jen vlastnost Tesla.Namitka ctvrta.Nexus.predastaven spolu s Fermi.prostredi specialne navrzene pro podporu masivni paralelizace v aplikacich pro Cuda C.OpenCL a direct compute.Urceno pro snadnejsi migraci vyvojaru na Fermi.Namitka pata.Ovladace jsou.Ale na co?Byla predstavena simulace hvezd v galaxii kde tesla podava vykon 3.5 fps a fermi 16-18 fps.po doladeni ovladacu to bude jeste lepsi.podstany je vykon v double precision.Takze shrnuti.Opravdu si myslite ze si tuhle neuveritelne vykonou masinku strcite do pc aby jste na tom mohli parit Stalkera?
J.C.Denton [Zobrazit profil] [Poslat zprávu] 2009-10-03 02:30:46
avatar
jo myslime...nebo spise je to jasne. k tem tvym namitkam.

1) plne programovatelna karta. na co musime byt programatori? vis vubec co to programovani je? na programovani nepotrebujes zadne vykonne komponenty, prakticky ti staci jen poznamkovy blok. my ale budeme vyuzivat programy co na tom pobezi a hry jsou take programy! uz jen z te prvni tve namitky je jasne, ze nevis vubec o co de

2) penize. soucasne tesla karty jsou take x krat drazsi nez jejich herni protejsky se stejnym gpu. s tesla kartou si kupujes totiz hlavne podporu od nvidie a to jak softwarovou, tak i primo od jejich lidi vcetne servisu a prakticky vseho co muze potrebovat.

3) ECC podporuje, ale nevyzaduje! ECC se bude vyuzivat jen v segmentech, kde ho je potreba. v hernich grafikach je to nesmysl.

4) nexus. to souvisi s tim prvnim bodem. diky tomu bude mnohem snadnejsi delat aplikace tak, aby vyuzivali vykonu fermi. uzivatele doma aplikace ve vetsine pripadech delat nebudou, ale muzou je vyuzivat.

5) o ovladace u nvidie opravdu strach nemam...

opravdu si myslis, ze by nvidia zahodila celej herni trh?kdyby jo, tak proc tolik v posledni dobe investuje do physx nebo 3D stereo???
radvot [Zobrazit profil] [Poslat zprávu] 2009-10-04 03:44:44

Zajimava reakce.vezmu to jen ve zkratce protoze nabozensky zalozeneho cloveka nepresvedci zadne realne argumenty.Jsme ve stejne situaci kdy jsi mi vehementne tvrdil ze problem v Batmanovi je chyba ATI protoze nepodporuje Unreal 3.Po oficialnim prohlaseni AMD ze to Nvidia udelala umyslne jaksi Nvidia ani nepipla.Hadej proc? .Jinak tve namitky jsou VELMI smesne.To mi chces opravdu tvrdit ze radovy hrac potrebuje plne programovatelnou kartu?Ocividne Ty nevis o co vubec jde.Ale vemu to poporadku z pohledu hrace a velmi jednoduse abys to pochopil.bod 1.plne programovatelna karta.pro hrace zbytecne a jen to prodrazuje cip.
bod 2.Nvidia si urcite pod sebou podrizne vetev s Teslou jen aby vyhovela hracum.Bod 3.ECC.pro hrace zbytecne,jen to prodrazuje cip.Bod 4.Nexus.Pro hrace zbytecne,jen to prodrazuje cip..Bod 5.ovladace.myslis si ze se Nvidia soustredi na vypocty misto na vykon ve hrach jen tak z rozmaru? Zbozne prani je jedna vec ale realita druha.Sundej prosim zelene bryle a podivej se na fotky z predstaveni Fermi.Mozna potom uvidis co sef Nvidia drzi v rukou a co je na te karte hodne,ale opravdu hodne velkym pismem napsano.TESLA. .Jestli nepochopis ani tohle tak pak uz opravdu nevim.
zeroground [Zobrazit profil] [Poslat zprávu] 2009-10-04 11:16:18

Odkaz

Zde je puvodni zprava, ktera zpusobila celou kazu, dulezite je na pocatku diskuze pod clankem - tedy: "Ian McNaughton is senior manager of advanced marketing at AMD. His postings are his own opinions and may not represent AMD’s positions, strategies or opinions. Links to third party sites are provided for convenience and unless explicitly stated, AMD is not responsible for the contents of such linked sites and no endorsement is implied." Tohle opravdu "oficalni" vyjadreni AMD neni. Prvni dezinformace.

Odkaz Tohle uz naopak oficialni vyjadreni je. Dezinformace cislo dve. Co konecne prestat tvrdit nesmysly a akceptovat fakta, tak jak jsou a nehledat za vsim spiknuti zle Nvidie.

Zbytek jsou jen tve nazory, ktere muzou ale nemusi byt pravda. Kazdopadne bych s predikcemi jak co bude, pockal a nenechaval se unaset...
J.C.Denton [Zobrazit profil] [Poslat zprávu] 2009-10-04 13:12:16
avatar
smesny zacinas byt ty...ze v batmanovi ma problemy ati s aa je jen jeji chyba..sundej ty cervene bryle

1) napred musime byt vsichni programatori, aby sme to vubec vyuzili a tedka uz to je jen zbytecne?opravdu vubec nevis o co de...radsi se uz neztrapnuj dale...

2) proc by si mela rezat pod sebou vetev???tesla a geforce jsou uplne jine produkty do uplne jineho segmentu. do profi segmentu si nebude nikdo kupovat geforce za par korun, protoze k tomu nema odpovidajici podporu a ovladace, ktere potrebuje. hrac si zas nebude kupovat teslu za x desitek tisic, protoze to neni karta na hrani a zadnou podporu, ECC, 6GB pameti na hrani nepotrebuje a specialni ovladace pro tesly nejsou na hrani a nebude mit ani kam do tesly zapojit monitor.

3) vsak ECC se na hernich grafikach ani vyuzivat nebude

4) nexus je program pro programatory. cip ti to nijak neprodrazuje.

5) pro geforce, quadro i tesla se pouzivaji uplne jine ovladace a pracuji na nich uplne jine teamy lidi.

ze se zatim prezentoval jen nejdrazsi produkt na fermi zalozeny, tedy tesla, ma znamenat jako ze herni grafiky vubec neuvidime???prober se trochu...tohle je jen tvoje zbozne prani.
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-05 13:03:34

Uz len poznamky 1 a 4 hovoria o tom, ze radvot netusi o com pise. Ved predsa na co je nam procesor - ved nie sme programatori. Na co je hracom vobec Visual C++? Iba zbytocne predrazuje CPU.....
gabriel.roxer [Zobrazit profil] [Poslat zprávu] - programatori 2009-10-09 22:13:30

Visual C++ vyvinul microsoft aby pre mladych programatov vytoril privetivejsie prostredie ako konkurencia. NVidia zacala nejake rokovania s Microsoft. Pozor Fermi je robustna paralena architektura tak ako bude?? Laraabee. Ked este zacne NVidia rokonaia s Oracle potom bude bomba. SQL servre a Oracle na GPGPU ??? Vsetko paralelne spracovanie dat.


a Teraz palce dole.


O pat rokov uvidime>
Lukyn1811 [Zobrazit profil] [Poslat zprávu] 2009-10-09 23:14:04
avatar
Visual Studio využije i zkušenější programátor, v mnoha ohledech usnadňuje život - dělat větší aplikaci v notepadu, to je pro masochisty(i když třeba stránky dělám zásadně v PsPadu, nad kódem z editorů typu FrontPage aby se člověk poblil). Momentálně by pro mě Nexus byl jediný argument, proč si pořídit Fermi. Herní výkon neznáme, ale možnost využívat GPU přímo z VS je opravdu lákavá... Jinak běžné SQL dotazy se už teď zpracovávají v řádech milisekund, ovšem jestli porostou objemy dat stejně rychle jako doteď, tak by se síla GPU dala využít i tady. No a vizuální prostředí existovalo už v DOSu pro Visual Basic .
Klamath [Zobrazit profil] [Poslat zprávu] 2009-10-03 22:22:57
avatar
Czus. Na uvod musim rict ze se mi DD world libyl hned od zacatku. Ale souhlasim s MadMaxII. I kdyz nejsem Nvidiot (spis se povazuju za fanATIka) tak se mi posledni dobou prestava libit to co tady Jan "DD" Stach pise. Nelibi se mi tvuj pristup DD a už vubec se mi nelibi citaty v clanku, kdy nekolikrat upozornujes jak si nas varoval ohledne NV dva tejdny tamhla a pred mesicem si rikal tohle. Ja te taky prosim. Nebo te brzo prestanu cist. A to sem tu kazdej den. Mozna je tech lidi vic. Hlasoval sem pro tebe v lupe ale ted bych svuj las vzal z5.
SPIRIB [Zobrazit profil] [Poslat zprávu] 2009-10-04 15:10:08
avatar
neviete nahodou niekto ako momentalne pokracuje nvidia vo velkoskladoch ?> myslim predaje a tak, dost ma to zaujima, ze kolko je este takych (informovanych) co by si teraz kupili nejaku nvidiu
Allie Fox [Zobrazit profil] [Poslat zprávu] 2009-10-04 15:40:35
avatar
Asi by sme se divili kolik procent lidí co si jdou koupit PC ví co je DX11, spotřeba karty atd. Vůbec bych se o nVidii nebál.
Pouze registrovaní uživatelé mohou přidat komentář!


 

Najdete nás na Facebooku

.... a také na Twitteru

RSS

DDWorld.cz

DDWorld - Blogy a videa

DDWorld - Magazín

Poslední příspěvky v diskuzích


Videa
Vychází Men of War 2 – druhoválečná RTS není v ideálním stavu
Vychází Men of War 2 – druhoválečná RTS není v ideálním stavuThursday, 16 May 2024
Vložil: aDDmin
Kategorie: Počítačové hry
Spuštěno: 295x
Komentářů: 0
Assassin’s Creed Shadows představeno – vydáme se do Japonska
Assassin’s Creed Shadows představeno – vydáme se do JaponskaWednesday, 15 May 2024
Vložil: aDDmin
Kategorie: Počítačové hry
Spuštěno: 1255x
Komentářů: 9
Pán prstenů láká na pokračování seriálu i nový Gollum film!
Pán prstenů láká na pokračování seriálu i nový Gollum film!Tuesday, 14 May 2024
Vložil: aDDmin
Kategorie: Film
Spuštěno: 1182x
Komentářů: 1
Ghost of Tsushima pro PC se stahuje z prodeje – požadavek na PSN
Ghost of Tsushima pro PC se stahuje z prodeje – požadavek na PSNFriday, 10 May 2024
Vložil: aDDmin
Kategorie: Počítačové hry
Spuštěno: 1581x
Komentářů: 1
Nové rozšíření pro DayZ – Frostline
Nové rozšíření pro DayZ – FrostlineWednesday, 08 May 2024
Vložil: aDDmin
Kategorie: Počítačové hry
Spuštěno: 1125x
Komentářů: 0
SONY „poraženo“ nebude chtít PSN k hraní Helldivers 2
SONY „poraženo“ nebude chtít PSN k hraní Helldivers 2Monday, 06 May 2024
Vložil: aDDmin
Kategorie: Počítačové hry
Spuštěno: 1871x
Komentářů: 2