EVGA uvedla NVIDIA GF GTX 275 CO-OP PhysX – zastaralá grafika s GT200b a G92b za 7500 korun!
Napsal Jan "DD" Stach   
Sobota, 31 říjen 2009
altZa vynalézavost, jak se zbavit starých čipů má EVGA plný počet bodů, za užitečnost 0.

 

 

Po vydání ATI Radeon HD 5800 grafik se na trhu hodně změnilo. Beznadějně zastaralé NVIDIA GTX 275/285 grafiky jsou najednou neprodejné, a i když obrovská poptávka po DX11 HD 5800 grafikách se zatím nedaří kvůli problémům TSMC se 40nm uspokojit, asi jen málokdo potřebuje grafiku tak akutně, že by místo HD 5800 koupil za podobnou cenu něco výrazně zastaralejšího a na HD 5800 si tak počká. A protože NVIDIA ještě nemá FERMI hotové, výrobci grafik, zejména ti, kteří dělají exkluzivně NVIDIA, měli najednou hodně volného času na vymýšlení, co s plnými sklady zastaralých DX10.0 GT200b a G92b jader.

EVGA se tak rozhodla zabít dvě mouchy jednou ranou a fanouškům NVIDIA nabídne dva jejich oblíbené čipy (roky se objevujících znovu a znovu na znovu a znovu přejmenovávaných grafikách). GT200b a G92b se vrací a tentokrát na jediném PCB. Speciální edice grafiky GTX 275 EVGA nabídne obojí. GTX 275 + GTS 250 mají 633 a 738 MHz na jádrech. Sběrnice jsou 448 + 192(!) bit. A paměti DDR3 768MB a 512MB tikají na 2268 a 2200MHz.Karta má 6+8pinové napájení a doporučen je minimálně 680W zdroj!

K čemu to celé je? No GTS 250PPU se má starat hlavně o PhysX pro ty hry, které spočítáte na rpstech jedné ruky a ještě vám prsty zbudou, kde o tom má smysl hovořit a GTX 275 o výkon grafický. Jinak je to ale vlastně SLI GTX 275+GTS250 na jediné kartě. Ve výsledku je to ale tak trochu krok ve vývoji zpět. Grafika vás totiž přijde na 349 dolarů (skoro 7500 korun včetně DPH), přičemž jedna GTX 275 dnes stojí něco přes 4000,- a GTS 250 512MB (navíc 256bit) máte za 2400,-. Takže si k GTX 275 přikoupíte jednu GTS 250 a máte to levněji to samé a určitě to bude rychlejší. Ale i to je krok zpět, pokud to vezmeme z hlediska PhysX:

NVIDIA totiž koupila PhysX technologii, od (s) firmy AGEIA, která jej chtěla do PC rozšířit za pomocí přídavných PhysX karet, které fungovaly jak v zapojení s ATI, tak NVIDIA grafikami – a stále fungují! NVIDIA nic nevymýšlela, PhysX koupila, vzala a integrovala jej do své grafiky, kde je schválně, ale nikoliv, že jako takové nutně být musí, omezeno na CUDA a zatím nefunguje pod OpenCL, čímž ale tedy alespoň vylepšila celou situaci o to, že nemusíte mít druhý čip v PC na fyziku, ačkoliv je samozřejmě hodně diskutabilní, proč výpočty fyziky obtěžovat grafiku, která se zároveň stará o grafické výpočty. Nový počin EVGA nás vrací opět o krok zpět a přidává tedy opět druhý slabší čip. Takže z dřívějšího dvoučipového řešení – Grafika (ATI, NVIDIA, S3, Intel …) + AGEIA PhysX karta, jsme opět u dvoučipového řešení tentokrát ale jen grafika NVIDIA+NVIDIA.

Jako technologické cvičení vypadá EVGA GF GTX 275 CO-OP PhysX docela slušně, samozřejmě jako SLI má i vyšší výkon, ale za 7500 korun v pravdě nestojí. PhysX přes GPU využívá naprosté minimum her a vlastně jen ty, kde si to NVIDIA sama udělala a své vývojáře poslala do herního studia to do dané hry udělat, protože vývojáři her se do fyziky PhysX akcelerované přes GPU (omezeno pouze na NVIDIA) nijak nehrnou. Hry jsou totiž dnes vyvíjeny multiplatformě a PhysX akcelerované přes GPU je stále omezeno na část PC platformy, nejede na ATI grafikách (které se kromě PC nacházejí i v konzolích Xbox360 a Wii), nejede ani na PS3, kde je starý čip NVIDIA z generace GF7 – všude jede přes CPU. Pro vývojáře tedy není akcelerace PhysX přes GPU nijak zajímavá a nezabývají se jí a zabývat ani nebudou. PhysX se tak v 98% používá, a používat zatím bude, jen akcelerované přes CPU, kde je ovšem záměrně zmrzačeno „optimalizací“ pouze na jedno procesorové jádro.

EVGA GTX 275 CO-OP je zkrátka jen způsobem, jak se zbavit starých čipů a pořádně si za to ještě nechat zaplatit. Nepodporuje žádnou novou technologii, neumí samozřejmě ani DirectX11, které rychle nastupuje do her. V tuto chvíli zaplatit za takovou grafiku 7500 korun je úplný nesmysl, když za 8500,- pořídíte rozhodně o dost výkonnější, výrazně úspornější a nesrovnatelně technologicky pokročilejší 40nm ATI Radeon HD 5870 1GB GDDR5 i s plnou podporou standardů DX11, DirectCompute11 a OpenCL. Za tvořivost má ale EVGA plný počet bodů, za smysluplnost a zajímavost tohoto produktu pro nás, koncové zákazníky, ale nevim nevim - hodnocení blízko nule ale bude odpovídající.

Zdroj:donanimhaber.com, DDWorld.cz

 

AUTOR: Jan "DD" Stach
Radši dělám věci pomaleji a pořádně, než rychle a špatně.

Starší články


Komentáře
Přidat Nový
Bohumil Stejskal [Zobrazit profil] [Poslat zprávu] 2009-10-31 14:52:35
avatar
3.10. přijde do ČR várka Sapphire HD 5750 jinak nic v dohledu
D4NO [Zobrazit profil] [Poslat zprávu] 2009-10-31 14:43:47

Takže na předobjednávky už je pozdě?
holoway [Zobrazit profil] [Poslat zprávu] 2009-10-31 14:55:24
avatar
Vždyt 5750 máš u prodejců plný sklad. CZC minimálně 30 kusů různých výrobců, Alza jakbysmet a tak dále...
Bohumil Stejskal [Zobrazit profil] [Poslat zprávu] 2009-10-31 15:01:01
avatar
no však já hovořím o tom, co je na cestě, případně ve skladech Somálských pirátů Nehovořím o tom, co je skladem v ČR
holoway [Zobrazit profil] [Poslat zprávu] 2009-10-31 23:27:19
avatar
Vždyť odpovídám na reakci D4NO a ne na to tvoje. D4NO si podle toho, jak reagoval, myslí, že se musí tyto karty předobjednávat, což pravda není. Je jich na skladech pro prodej dost zatím.
MadMaxII [Zobrazit profil] [Poslat zprávu] 2009-11-02 12:12:44

Panove D4NO celkem vtipne reagoval na to ze se Bohus upsal s datumem a misto (zrejme)zamyslenych 3.11. napsal do prispevku 3.10 takze ty rijnove skoro mesic stare zakazky uz asi nikdo opravdu nestihne...
Chaythere [Zobrazit profil] [Poslat zprávu] 2009-11-01 16:10:52

3.10.2010?
D4NO [Zobrazit profil] [Poslat zprávu] 2009-10-31 14:43:06

Nechápu proč je tam tak nesmyslný požadavek na zdroj, 680W je totální kravina.
holoway [Zobrazit profil] [Poslat zprávu] 2009-10-31 15:01:20
avatar
Není to kravina. Je to napsané na krabici. S podívej na tu svojí. Třeba na HD3850 je tuším Recommended 500W a přitom 350 to dá v pohodě. Je to pojistka výrobců, páč nějakej čínskej zdroj může mít na sobě 500W, ale účinnost 50% (doufám, že takovej nikde není k dostání xD). Takže tady bude tak 500W kvalitních stačit.
Sina [Zobrazit profil] [Poslat zprávu] 2009-10-31 22:17:04
avatar
to je jedno jakou má účinnost. Účinnost udává jak efektivně transformuje 230V/50Hz na stejnosměrné napětí do PC. Takže když má 500W musí dodat 500W do PC. Pokud bude mít účinnost 80% vezme si ze sítě 600W. Pokud 50% jak píšeš ty, tak si vezme 750W.
mites [Zobrazit profil] [Poslat zprávu] 2009-10-31 23:18:33

Pokud ma ucinnost 80%, tak si k vydani 500W na vystupu ze site vezme 625W a ne 600W jak pises...

pri ucinnosti 50% si nevezme 750W ale 1000W...ach ta matika
Sina [Zobrazit profil] [Poslat zprávu] 2009-11-01 00:40:06
avatar
jde o princip ne o přesná čísla
Jinak máš samozřejmě pravdu pardon
vsn [Zobrazit profil] [Poslat zprávu] 2009-11-01 11:11:42

jenze levny EC zdroje ti pri 50% zatizeni umrou
Sina [Zobrazit profil] [Poslat zprávu] 2009-11-01 17:12:17
avatar
EC to je kvalitka :-D. Půjčil sem kámošovi Wattmetr a jeho 350W eurocase žere při vypnutém PC 15W...
negru.inger [Zobrazit profil] [Poslat zprávu] 2009-10-31 15:05:38
avatar
uple mi bylo jasny co se v clanku doctu aby taky ne, myslim ze EVGA chce kandidovat na nejzbytecnejsi vyrobek roku
tempoleader [Zobrazit profil] [Poslat zprávu] 2009-11-01 13:56:45
avatar
Tak toto je uplna "bomba" a "novinka" od nVidie zo starymi cipmi.
poluxtroj [Zobrazit profil] [Poslat zprávu] 2009-10-31 15:13:19
avatar
Zajímavé,že se do PhysX nikdo moc nehrne,tak proč bude třeba v Alien vs.Predator,což je TOP titul příštího roku....
aDDmin [Zobrazit profil] [Poslat zprávu] 2009-10-31 15:40:28
avatar
přečti si tu pasáž znovu a nevytrhávej si z toho co se ti hodí .... vůbec jsem nenapsal nic o tom, že se do PhysX vývojádři nehrnou ... je to tam úplně jinak!
SaLaDiN [Zobrazit profil] [Poslat zprávu] 2009-10-31 17:49:03

pokial je to tvoj nick, lebo su tam uvodzovky, a este som ich nevidel...

V clanku je napisane:

"protože vývojáři her se do fyziky PhysX akcelerované přes GPU (omezeno pouze na NVIDIA) nijak nehrnou"

nezabudni potom editovat clanok, ako mas vo zvyku, aby si zakryl to, co ti ludia vytknu.

Mas priestor na sebarealizaciu, tak to vysvetli nam menej chapavym alebo to edituj, ako si spravil viackrat.
tynyt [Zobrazit profil] [Poslat zprávu] 2009-10-31 18:34:09
avatar
Mno v tomto ohledu se musím zastat DD-ho (i když jinak má své mušky, jako každý jiný). DD to napsal přesně - žádný vývojář se nehrne do vývoje hry, která by byla akcelerována výlučně na nvidia grafikách (tedy ji neudělají tak, aby na ATI vůbec neběžela). Maximálně udělají to, co udělali v Batmanovi - nechají možnost fyziku počítat CPU a udělají to tak, že "fyzika" je použita na naprosto zbytné vizuální (eye-candy) efekty.

A je to logické - připravili by se o zákazníky. Stejně tak budou nové DX11 hry (alespoň zpočátku) obsahovat i alespoň DX10 režim, možná i DX9, protože XPček je "v oběhu" ještě stále dost a vydavatel by byl sám proti sobě, kdyby je "odstřihl" od svého produktu...
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-31 18:58:57

Po case hadam prejde PhysX pod OpenCL a budu si ho moct pustit vsetci. Aj ked niektori z tohto fora ho budu urcite aj tak vypinat pretoze to je NVIDIA - fuj.....
poluxtroj [Zobrazit profil] [Poslat zprávu] 2009-11-01 18:53:05
avatar
Nikdo se do PhysX nehrne,ale budou jí obsahovat více her a to TOP hry,tak to je nějaký paradox.Uvažujte!
Allie Fox [Zobrazit profil] [Poslat zprávu] 2009-11-01 18:56:19
avatar
PhysX přes CPU možná, ale uvidíme.
Stanislav007 [Zobrazit profil] [Poslat zprávu] 2009-10-31 18:37:14
avatar
důležité je tam přes GPU (Nvidia ....kolik procent trhu to je?)
o CPU Physx se tu nikdo nezmínil, takže kušuj
Bennie [Zobrazit profil] [Poslat zprávu] 2009-11-01 04:35:42
avatar
asi tak 63 procent hráčů registrovaných na steamu používá NVIDIA GPU, 28 ATI a zbytek intel a další ...
tynyt [Zobrazit profil] [Poslat zprávu] - haha.. "statistika" 2009-10-31 22:39:18
avatar
Odkaz

Zkus se kouknout na link. Uvidíš tam seřazené karty podle jejich podílu. A když si odmyslíš prehistorické karty a karty jejichž herní potenciál konverguje k nule, tak zjistíš že:

1. novější ATI karty (speciálně herní řada 4800) systematicky meziměsíčně roste
2. nvidia karty srovnatelného výkonu buď klesají, nebo rostou jen maličko, s výjimkou GTX260 a GF9500

Ano, v celkovém úhrnu to ATI "projíždí" na celé čáře. Ale to opravdu není směroplatný ukazatel, už s ohledem na karty typu GF6100 :-) Na takové kartě jde hrát z nabídky Steamu třeba Bejewelled nebo Peggle, ale už ne třeba ARMA2 nebo TF2..

Aneb jak už tvrdil Josef Goebbels (a vložil propagandisticky tuto větu do úst Winstonu Churchillovi), "jediná důvěryhodná statistika je ta, kterou si sám zfalšuji" - Statistika není jen o tom "vyplodit koláč", ale také jej správně a pokud možno regulérně interpretovat!
FiDDelVyCastro [Zobrazit profil] [Poslat zprávu] 2009-10-31 22:42:49

A nejhezčí na tom je to, že AMD má započítano několik modelů do jednoho rance s názvem HD4800 series.
aDDmin [Zobrazit profil] [Poslat zprávu] 2009-11-01 03:15:07
avatar
všechny mají stejné grafické jádro ;)
Bennie [Zobrazit profil] [Poslat zprávu] 2009-11-01 04:38:12
avatar
určitě na tom co říkáš je kus pravdy..
faktem je že 8800 GF je stále víc než 48x radeonů..
9500 nevím.. ale třetí je 8600 pak 9800 a 9600

nicméně 63 vs 28 to opravdu je..

http://store.steampowered.com/hwsurvey
aDDmin [Zobrazit profil] [Poslat zprávu] 2009-11-01 13:05:38
avatar
aby jich taky víc nebylo, když jich NVIDIA více vyrobila a i prodala ;) a ne každý mění grafiku co 2 roky, navíc právě GF8800 které prostě třeba 8800GTX je stále na úrovni GTS 250-GTX 260 .... protože se nám vývoj her zastavil ...
tynyt [Zobrazit profil] [Poslat zprávu] 2009-11-01 17:49:13
avatar
Ano. Když smícháš 40 tun shnilých jablek, 10 tun padančat a 13 tun jablek sebraných se stromu, budou to stále jabka (celkem 63 tun), ale nic to nevypoví o tom, zda jsou konzumovatelná nebo ne. To je to, nač jsem narážel. "Minimalistickou" nvidií, na které se dá jakžtakž dneska hrát (s přivřením všech očí), je 9600, vše starší a/nebo méně výkonné je jednoduše "out", totéž platí pro ATI, kde minimem je dneska HD3850.
Bennie [Zobrazit profil] [Poslat zprávu] 2009-11-01 20:20:22
avatar
to mi prozraď co teda ty lidi s těmi out kartami na steamu dělaji? je to průzkum ze září 2009 takže to jsou aktuální a aktivní účty ) Dá se na steamu snad dělat něco jiného než hrát?
holoway [Zobrazit profil] [Poslat zprávu] 2009-10-31 23:36:34
avatar
Píšete kraviny, neumíte číst a snažíte se někoho obviňovat. Navíc obviňovat ještě předem z něčeho, o čem si myslíte, že by nastalo, pokud byste měli pravdu. Heh, mno pravdu nemáte, smůla a stejně by to DD neupravil bez reakce či poznámky, že to napsal špatně, pokud by to tak bylo. Jste k smíchu
poluxtroj [Zobrazit profil] [Poslat zprávu] 2009-11-01 18:42:31
avatar
Ty si přečti co tam píšete....protože vývojáři her se do fyziky PhysX akcelerované přes GPU (omezeno pouze na NVIDIA) nijak nehrnou. Hry jsou totiž dnes vyvíjeny multiplatformě a PhysX akcelerované přes GPU je stále omezeno na část PC platformy, nejede na ATI grafikách ...a to je co?Bože vymaštěné mozky z toho,jak do toho pořád čučíte.
PS:já vím,že jsi proti Nvidii zaujatý,protože jsis pořídil ATInu a nepojede ti PhysX v AvP,kde to může s PhysX vypadat luxusně.
Rorschach [Zobrazit profil] [Poslat zprávu] 2009-10-31 17:22:21
avatar
Jestli PhysX bude v Alienovi tak to bude solidní paradox Buď pojedete s Atinou DX11 nebo s Nvidií Physx, ale oboje najednou ne. (v době uvedení by Fermi myslím ještě nemělo být v prodeji)
Kosheen [Zobrazit profil] [Poslat zprávu] 2009-10-31 18:43:49
avatar
dobra finta, aby si hru kupili oba tabory, kazdy dostane zo svojich kariet maximum technologie
Kosheen [Zobrazit profil] [Poslat zprávu] 2009-10-31 18:45:28
avatar
keby miesto toho mensieho jadra dali mikrojadro ktore by sa staralo len o grafiku v 2d rezime so spotrebou max 10w, to by spravili lepsi krok
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-31 18:56:22

Ak budes mat AMD kartu, tak budes mat proste GPU@PhysX vypnuty. Ked budes mat NV kartu tak budes mat aj GPU@PhysX. Myslim si ze nikto o nic nepride. Ved AMDckari aj tak nad PhysX iba ohrnaju nos...
Trefa [Zobrazit profil] [Poslat zprávu] 2009-10-31 20:53:26
avatar
Jaj chlape tie tvoje vypoty fakt zerem Po prve absolutne nechapem preco si tento prispevok dal ako odpovedat na Roschachov (ak dobre vidim) a po druhe neviem preco by som mal byt AMDeckar aby som nad PhysX mohol ohrnat nos
mareknr [Zobrazit profil] [Poslat zprávu] 2009-11-01 00:18:33

Jasne ze nemusis byt AMDckar. Tak som to nemyslel.
Berem ze moja posledna poznamka nebola uplne koser.

Len z toho ake clanky tu vychadzaju ma vela ludi co sem chodi mylnu predstavu o tom ako im pojdu hry na ich AMD kartach ked bude v hre PhysX. Pricom sa vobec nemusia bat. Pojde im to pekne tak isto ako aj ludom co maju NV. Moze vznikat dojem(a u viacero citatelov aj vznika) ze tieto hry su robene ako exklusiv pre vlastnikov "zelenych" kariet. Sa tu siri zbytocna panika o tom ako NV zamerne mrsi tieto hry tak, ze nepojdu dobre na kartach konkurencie co je naozaj blbost. Kolko sa tu uz rieslo problemov ohladom batmana a NV bola obvinena zo samych hluposti. Ale ked toto niekomu vyhovuje tak prosim. Takych prispevkov ako mal Rorschach tu bude asi stale dost.

A este poznamka ku GPU@PhysX v novom AVP. Najskor som si aj ja myslel ze to tam bude. Niekde som to cital ale napriklad v zozname hier podporujucich GPU@PhysX tato hra nie je. Zrejme sa tam vyuzije CPU@PhysX takze sa nie je naozaj coho bat.
Trefa [Zobrazit profil] [Poslat zprávu] 2009-11-01 01:02:45
avatar
To je sice pekne ze to pojde aj ludom s ATI kartami ale problem vznika vtedy,ked zistis ze by ti to mohlo ist rovnako ako na kartach od konkurencie ,s rovnakymi efektami keby niekdo zbytocne nepridal do hry Physx GPU ... Nech uz si myslis o Physx cokolvek ,musis (mal by si) uznat ze je vyuzivany na absolutne kraviny jak v Batmanovi tak aj v ostatnych hrach (para a zavesy + dlazdice a tornado ?? no uznaaaj ) Hocijaky iny engine toto zvladne tiez a islo by to krasne na NV aj Ati ...
zumpar1234 [Zobrazit profil] [Poslat zprávu] 2009-11-01 08:46:42
avatar
"Hocijaky iny engine toto zvladne tiez" Aha a mohol by si mi prezradiť ktorý engine zvláda takéto ptakovinky ako PhysX predviedol v Batmanovy?
Dalši postreh bez NV by v Batmanovy nebol žiaden AA a žaiden GPU PhysX...takže asi tak To znamená že by si už nemusel závidieť nVIDII že na nej ide PhysX dobre pretože žiaden PhysX by nebol
zeroground [Zobrazit profil] [Poslat zprávu] 2009-11-01 09:47:26

AA by byl, ale standardne pres ovladace, jak je u Unreal Enginu zvykem.
Trefa [Zobrazit profil] [Poslat zprávu] 2009-11-01 11:40:10
avatar
Zvladol by to hocijaky engine keby ho vyvojari trosku upravili podla vlastnych potrieb ... Len skoda ze dnes sa robia hry stylom : menej urobit,viac zarobit ... V Batmanovi by nebol AA ?? Kandidat na "postreh" roka Vynutenie AA cez ovladace ti nieco hovori ??? V dobe ked som mal este skvelu HD4870 som takto hral vsetky hry (az na par vynimiek) a zvladalo to krasne a bez problemov ... U NV to uz take slavne nebolo,neviem ci len umna alebo to je vseobecny problem ovladacov ... No , a ja ocividne NV nic nezavidim kedze ju mam v PC ,ja len hodnotim situaciu
zeroground [Zobrazit profil] [Poslat zprávu] 2009-11-01 14:16:09

Jeste pred par lety to bylo bezne, ze se prakticky veskery AA tlacit pres ovladace, dnes je trend takrka u vsech her optimalizovany AA primo ve hre, bud enginem nebo dodelavakou alal Batman. Nevyhoda AA pres ovladace je ta, ze se vyhlazuje cela plocha. V pripade optimalizovaneho AA neni proces tak narocny na hruby vykon beze ztraty kvality.

Nvidie se vyznacovala vzdy sirsi podporou AA jak v ovladaccih tak ve hrach. Je pravda, ze pri vyssim AA (8x) ztraci vykon, ale to jsi asi nemyslel, ne? Spise je to prave ATi, ktera mela napr. s UE3 enginem a AA problemy takrka s kazdou hrou, ktera na nem byla vydana. To co popisujes ty bude spis zalozene na tom, ze ATi neztraci moc vykonove ani po tlaceni AA pres ovladace. Nvidia to ovsem mela vice optimalizovane a povetsinou u vice her nez ATi. Pokud jsi mel moznost porovnavat obe karty delsi obdobi na sirsim vzorku her a mas takovy dojem, tak je to trosku vyjimka potvrzujici pravidlo...
Trefa [Zobrazit profil] [Poslat zprávu] 2009-11-01 15:03:54
avatar
Myslel som na to ze pri vynuteni AA/AF v ovladacoch NV ,hry robili problemy,blikajuce textury resp. uplne miznuce textury ( Priznavam vsak,ze tieto problemy mohli byt sposobene tym,ze po zmene grafickej karty som nepreinstaloval system ) a pri Ati vsetko bez problemov a osobne som nevidel ziadny rozdiel pri AA/AF vynutenom v ovladacoch alebo zapnutom priamo v hre,ci uz vykonovy alebo rozdiel v obraze ci kvalite zobrazenia ... Co sa tyka UE3 enginu tak tam som si tiez nevsimol ziadne velke problemy Ati,skor si myslim ze to je nafuknuta bublina ... No a NV pri 8xAA je dost bieda hlavne co sa tyka prepadov FPS ... No a pride mi o dost pohodlnejsie vynutit si AA/AF v ovladacoch a byt vysmiaty ako nastavovat si ho priamo v hre ... Nehovoriac o tom,ze niektore hry (UE3 engine) tuto moznost ani nemaju ( Mass Effect )
zeroground [Zobrazit profil] [Poslat zprávu] 2009-11-01 16:15:45

Tak blikajici tetury jsou zrovna vylizene specificky od hry. V zasade AA vynuceny pres ovladace funguje vicemene bezchybne u obou, Nvidia ma udelany pro vice her profily, ATi zase vice rasterizacnich jednotek, ktery davaji dostatek vykonu pro AA. Ty problemy co jsi pozoroval, pokud se to tykalo nejaky znamejsi hry urcite resila jina verze ovladacu, pripadne patch.

8xAA proste Nvidii esvedci, s tim nic neudelas, ovsem pokud nemas vylozene velky rastr LCD, pak stejne rozdil mezi 4xAA a 8xAA ve hre nepoznas. Samozrejme pokud si budes tipat obrazky pak ano...

AA ve hre je efektivnejsi. Pocita tam kde ma a nevykresluje celou scenu (muzou byt i problemy s vykreslovanim).

Unreal Engine 3 a problemy AA s ATi, neni nafounuta bublina. Bioshock stale AA od ATi nema, Mass Effect prvni mesice cekal na dodani podpory v ovladacich, America's Army taky, pricemz pod Nvidii funguje. Zadej si do ggoglu spojeni unreal engine 3 ATi antialiasing a uvidis sam, jak moc je to nafouknuta bublina... Problemy mela i Nvidia, ale drive vypracovala profil umoznujici prave vynuceni AA pres ovladace, s tim, ze rozpotna vsechny hry. ATi je stale nutne u nekterych her pro korektni beh AA prejmenovavat sposustei soubory na takove, ktere ovladace poznaji jako AA pro UE3 enabled.

Mass Effect je port z konzole, vzhledem k tomu, ze ani jedna konzole AA nepodporuje je jasne, ze AA ve hre nemaji. A jeste je to opet Unreal engine 3, ktery natovne AA rovnez nema, je nutne ho dodelat jako Nvidia u Batmana.
mareknr [Zobrazit profil] [Poslat zprávu] 2009-11-01 09:47:24

Batmana som este nehral. Iba demo. Z toho zatial neviem posudit co vsetko z PhysXu tam pouzili. Predvcerom som ho kupil tak si to niekedy ked budem mat chut nainstalujem a uvidim. Urcite napisem co si o tom myslim. Zatial mozem uznat iba to, ze PhysX sa pouziva iba na efekty. V dalsej generacii hier kde uz bude figurovat Fermi ocakavam uz aj interakcie s prostredim ale to uz moze byt problem pre AMDckarov pretoze na postup v hre budes musiet mat PhysX zapnuty. Ktovie ako to vymyslia. Tusim Dark Void by mala byt prva hra ktora bude PhysX vyuzivat viac ako iba na efekty.

Uz som to tu pisal ale pripomeniem znovu. Najviac sa mi zatial pacil PhysX v Sacred 2. Naozaj dotvaral prostredie, mal si dojem ze priroda okolo teba zije. Co sa tyka implementacie malo tam byt vyse 20000 objektov schopnych interagovat s prostredim co na ziadnom engine nedosiahnes ak by tomal pocitat CPU. Pravda je ale taka, ze to sice mozes nasimulovat cez skripty ale framework ako je PhysX a ciastocne aj Havok(bohuzial obmedzeny iba na CPU) je tu na to, aby sme sa posunuli o krok dalej. Ja mam inak tiez trpezlivost ktora sa moze vytratit a ak PhysX nepredvedie v novych hrach s Fermi nic navyse tak moze sa stat ze budem mat na neho potom aj ja podobny nazor ako ty.
FiDDelVyCastro [Zobrazit profil] [Poslat zprávu] 2009-11-01 09:58:49

Ale bohužel to není záležitostí PhysX a NVIDIE, ale musí konečně máknout programátoři vlastních her. Ale zase věřím, že se to musí postupně naučit.
mareknr [Zobrazit profil] [Poslat zprávu] 2009-11-01 10:02:22

Suhlasim. Som zvedavy na progres...
Trefa [Zobrazit profil] [Poslat zprávu] 2009-11-01 10:08:22
avatar
Ano,suhlasim ze v Sacred 2 je zatial Physx predvedeny najlepsie ,len skoda ze hra je tak nudna ze ju nic nezachrani ...
mareknr [Zobrazit profil] [Poslat zprávu] 2009-11-01 10:13:50

Pre fanusikov RPG je to urcite sklamanie. Ja som ju hral ako odreagovacku. Pomaly po vikendoch zhruba 3,4 mesiace.

Lepsia PhysX by mala byt aj v Cryostasis ale tu som tiez este nehral. Na to by som potreboval dalsiu GPU ciste iba na PhysX. Demo mi na mojej 8800GT islo dost mizerne. Tato GPU tazko stravi uz graficke naroky a nie to este pocitanie PhysX. Ked tu bude GT240 tak ju kupim. Lacna GPU s dostatpcnou priepustnostou a hadam aj dobrymi provoznimi vlastnostami vzhladom na 40nm vyrobny proces. Uvidim co PhysX predvadza tam.
Trefa [Zobrazit profil] [Poslat zprávu] 2009-11-01 10:55:58
avatar
Cryostasis som hral ale bez patchu na physx ktory vysiel ovela neskor ako samotna hra pokial viem ... Je to super nedoceneny horor s obrovskymi hw narokmi ... I ked samotna optimalizacia physxu bola tiez divna ako som pocul a hra bez physxu isla lepsie na Ati kartach ... Divne
mareknr [Zobrazit profil] [Poslat zprávu] 2009-11-01 11:52:27

Co som videl videa tak je tam PhysX pouzity nielen na eye-candy efekty, ale aj na dokreslenie atmosfery. Vyzeralo to celkom slubne...
Dubik [Zobrazit profil] [Poslat zprávu] 2009-10-31 16:01:03
avatar
No že by DX11 nastupovalo do her rychle mě teda moc nepřijde, zatim je oznámený u pár her a myslim si že příští rok bude ještě vycházet dost her jen s podporou DX10.
aDDmin [Zobrazit profil] [Poslat zprávu] 2009-10-31 15:49:50
avatar
proti rychlosti nástupu DX10.0 je rychlost nástupu DX11 přímo kosmická .... vždyť už teď tu DX11 ve hře máš a dokonce i DX11 benchmarky to si při vadáváaní DX10 grafik nepamatuju ...
zeroground [Zobrazit profil] [Poslat zprávu] 2009-10-31 17:55:39

DX10.1 taky vyslo hned, ted nevim u ceho, ale presne stejny jako u Battleforge (narychlo dodelany nejaky efekt vesmes k nicemu, ale prezentujuci schopnosti DX10.1). Bioshock? Rozdil je hlavne v pristupu AMD, konecne hodla podporovat herni vyvojare a tim se DX11 prosadi urcite vice nez DX 10.1.
Trefa [Zobrazit profil] [Poslat zprávu] 2009-10-31 20:55:41
avatar
Tusim mas na mysli Assassins Creed ... Porovnavat vsak situaciu v dobe DX 10.1 (nemala ju NV,ani nechcela) a situaciu DX 11 ( nema ju NV,chce ju mat ) je dost mimo
zumpar1234 [Zobrazit profil] [Poslat zprávu] 2009-10-31 16:51:47
avatar
Nástup je ozaj rýchly ako vraví "DD" aj rozdiely su veľké! Ak si vezmeme že Dirt 2 je prvou lastovičkou a ponúka vďaka teselácii také vylepšenia tak je jasné že DX11 bude zanedlho v každej hre a každý bude chceiť DX 11 GK
zeroground [Zobrazit profil] [Poslat zprávu] 2009-10-31 17:56:59

DIRT 2 si myslim, ze bude jeste nic moc, preci jen to dodelavaji relativne kratkou dobu. AvP 2 si myslim, ze bude prvni hra u ktere to bude mit opravdu nejaky poradny efekt.
Trancefanatic [Zobrazit profil] [Poslat zprávu] - EVGA 2009-10-31 16:27:12

Snaha byla, výsledek nulový. Za polovinu bych to možná bral, ale budoucnost to nemá. Už teď je to zastaralé.
Allie Fox [Zobrazit profil] [Poslat zprávu] 2009-10-31 16:33:45
avatar
Zmutovaná zvířata se nakládají do lihu. Tuhle paskvil kartu si fanoušci nVidie koupí a asi zataví do skla.
SPIRIB [Zobrazit profil] [Poslat zprávu] 2009-10-31 16:46:56
avatar
pises mi priamo z duse ...
Anarki [Zobrazit profil] [Poslat zprávu] 2009-10-31 16:45:42
avatar
Nvidia nevie kam z problémov tak spolu so svojimi baštami (EVGA, Gainward) vymýšľa riešenia ktoré nezasväteným uživateľom pripadajú in. Bohužiaľ toto je totálny out. A navyše za neuveriteľne drzú cenu. Pozícia nvidie mi čím ďalej tým viac pripomína niekdajšiu pozíciu 3Dfx.
maltrabob [Zobrazit profil] [Poslat zprávu] - Tak to predsa 2009-10-31 17:30:18
avatar
uviedli. Naozaj som si myslel ze zdravy rozum zvitazi. No ale aspon vidno ze topiaci sa aj slamky chyti. Predpokladam ze aspon zakaznik bude mat viac rozumu, sedem litrov za predchadzajucu generaciu (aj ked u Nvidie je to stale to najlepsie co ma :-))) je poriadne vela. To uz radsej Radeon HD 4890, mal som tu kartu a za tie peniaze je to skvela kupa.
keistown [Zobrazit profil] [Poslat zprávu] 2009-10-31 17:39:45

je to nesmysl
1.) zvlast je to levnejsi
2.) za ty penize je 2x 260 OC
3.) pcb je spatne, 275 ktera topi vic mela byt vlevo, aby to horky vzduch foukalo ven
4.) je to na nic
Papek_SVK [Zobrazit profil] [Poslat zprávu] 2009-10-31 17:50:10
avatar
mozno by nezaskodilo menej tej prehnanej kritiky na ucet nvidie (aj ked mi je jasne, ze Hulan alebo OBR by vyzdvihli kazdu jednu chybicku ATI), poznamka o zastaralom gpu v PS3 je ako past na oko, ati tam nema o moc novsiu vec, akurat pouzila iny typ architektury, co sa vykonovo neprejavilo tak, ako by sa to mozno prejavilo dnes... inak s tym PhysX mas pravdu, ak by nvidia uvolnila PhysX aj na ATi karty, tak sa skorej presadi, maloktore herne studio sa bude chciet pridat len na stranu toho jedneho, ci uz to bude ati alebo nvidia
F3rda [Zobrazit profil] [Poslat zprávu] - ehmm 2009-10-31 18:01:54
avatar
Občas přemejšlim, jestli hodnotim novinku jako takovou nebo její obsah Protože tohle už sice novinka zajímavá, ale pokud bych měl hodnotit triky se starejma jádrama...
mareknr [Zobrazit profil] [Poslat zprávu] 2009-10-31 18:52:09

Takze opat stare zname: pocitanie fyziky cez GPU je krok spat. Tak ak chceme lepsiu fyziku v hrach aka je ina cesta? Pockat si na 64 jadrove CPU? Plus otazka zamerneho zmrzacenia CPU@PhysX - NV proste nema CPU a tak nema motivaciu PhysX na CPU optimalizovat. To je akoze tym padom zamerne zmrsene? Ako vlastne myslis toto slovne spojenie?

Inak suhlasim s tym ze tento moloch je v podstate nepredajny. Ale mozno sa najde par BFU, ktory si to kupia.
LucifeRiK [Zobrazit profil] [Poslat zprávu] 2009-10-31 18:51:10
avatar
ta karta ma pekny polep a skatulu predavat to za 20ojro tak si to kupim a dam na policku ako dekoraciu
doktor2 [Zobrazit profil] [Poslat zprávu] 2009-10-31 19:59:45

Jako obchodní tah celkem dobrý ..jinak pro znalého čtenáře je to spíš něco na způsob černého humoru. Na druhou stranu se ale exkluzivním partnerům Nvidie nedivím ..pokud je Fermi nevrátí na výsluní ..tak budou mít vážné ...řekl bych přímo existenční potíže.

Chování Nvidie poslední dobou nerozumím ...z programu podpory vývojářů TWIMPB se stala parta, která zpíchne PhysX do nějaké hry ...o větší podpoře vývojářů ...nových technologií pro herní nasazení ..nic ..prostě nic.

Dokonce i taková studia jako třeba Crytek se od Nvidie odvrátila s spolupracují z Ati ..skoro to vypadá, že kdo bude chtít hrát hru odladěnou hned při vydání bude muset mít Atinu ....není to tak dávno, kdy to platilo přesně obráceně. Nvidia jde opravdu úplně jinou cestou a PC hraní je zřejmě to poslední co ji zajímá.
FiDDelVyCastro [Zobrazit profil] [Poslat zprávu] 2009-10-31 21:50:33

Žádám zdejšího největšího borce ať dodá důkazy o záměrně zmrzačené „optimalizací“ pouze na jedno procesorové jádro nebo ať to už nepoužívá. Je to kravina jak sfiňa. Ono že to bylo kdysi napsáno tak jak bylo neznamená, že to bylo nějak mrzačeno. Pokud toto někdo nechápe a souhlasí s tímto hemzem, tak je to na Chocholouška.
doktor2 [Zobrazit profil] [Poslat zprávu] 2009-10-31 23:21:52

PhysX nikdy nebylo optimalizované za vícejádrové procesory a Nvidia logicky nemá zájem takovouto optimalizaci přinést, když potřebuje využít hlavně své GK a CUDA. Je to prostě z obchodních důvodů nic víc
FiDDelVyCastro [Zobrazit profil] [Poslat zprávu] 2009-10-31 23:35:45

No to my víme, ale někdo tu tvrdí něco o záměrném mrzačení a to je trochu jiné kafe.
aDDmin [Zobrazit profil] [Poslat zprávu] 2009-11-01 03:14:05
avatar
Tak jsou dvě možnosti:
1,buď je NVIDIA (softwarová společnost) totálně programátorsky neschopná a za 2 roky nebyla schopna udělat tak triviální věc, jako optimalizovat program na vícejádrová CPU

2,Nebo to neudělala schválně = záměrné zmrzačení

?
J.C.Denton [Zobrazit profil] [Poslat zprávu] 2009-11-01 03:34:22
avatar
spravne je za 3) nvidia nemusi zadne optimalizace pro cpu delat, protoze ji to nic neprinese. stara se tedy jen o beh pod gpu. a tohle se za zadne zamerne zmrzaceni oznacovat neda. ..nebo by snad mela nvidia podporovat svou konkurenci??kde zijes??dela snad tohle nekdo i pro ni???
aDDmin [Zobrazit profil] [Poslat zprávu] 2009-11-01 13:03:25
avatar
to pak platí tedy odpověď číslo 2 je to záměrně zmrzačené ... aby to nepodporovalo konkurenci, protože by se ukázalo, že hnát to přes GPU je nesmysl ...
J.C.Denton [Zobrazit profil] [Poslat zprávu] 2009-11-01 13:32:27
avatar
zamerne zmrzacene by to bylo, kdyby to tu konkurenci nekdy vubec podporovalo. to si opravdu tak hloupy, ze tomu nerozumis nebo proste musis spinit nvidii co to da?
aDDmin [Zobrazit profil] [Poslat zprávu] 2009-11-01 16:54:41
avatar
pro ty méně chápavé znovu ... já se nebavím o tom jestli z hlediska konkurence má nebo nemá NV optimalizaovat, to je jen jestli a kdyby ... já vám povíádám jak se věci mají a nepopiratelným faktem je, že PhysX by klidně na vícejádrech běžet mohly, ale neběží schválně tudíž je to schválně zmrzačeno .... to není nic o špinění NVIDIA už si to konečně uávědomte! tohle je jen o tom, jak věci teď leží a sedí!
zeroground [Zobrazit profil] [Poslat zprávu] 2009-11-01 13:53:39

jak tohle je vazne moc...s tebou nema symsl se vubec bavit...
aDDmin [Zobrazit profil] [Poslat zprávu] 2009-11-01 16:55:04
avatar
nemá ... protože jste hloupí nebo to alespoň děláte a nechápete ... já se nebavím o tom jestli má, nebo nemá dělat NV optimalizace ... to je samé jestli a kdyby ... já vám povídám jen jak se věci te´d mají a mají se tak, že NVIDIA záměrně neoptimalizavoala PhysX pro vícejádrová CPU tudíž je záměrně tato záležitost, kde neexistuje technický důvod proč by to vícejádrový CPU neměl podporavt, zmrzačena ... je to jasné jako facka ...
mareknr [Zobrazit profil] [Poslat zprávu] 2009-11-01 21:37:28

Jasne ako facka je to, ze ak nie je nejaky software optimalizovany na viacjadra, tak to neznamena ze je zmrzaceny. Slovo zmrzaceny sa pouziva v uplne inom vyzname a to ty dobre vies. Mozno keby si pouzival ine slova, ktore by viac vystihovali skutocnost tak by sme tu neviedli tieto dlhe diskusie uz miestami o nicom.
mareknr [Zobrazit profil] [Poslat zprávu] 2009-11-01 14:57:59

Mozes nam hodit aspon nejaky link na clanok ktory dokazuje, ze dnesne CPU je dostatocne vykonne na to, aby zvladlo fyziku rovnako dobre ako ktorekolvek dnesne GPU? Ked uz tomu veris tak je to dufam na niecom zalozene... A nepis prosim nieco v zmysle ze ked tu budeme mat 32 jadrove CPU tak uz to stacit bude pretoze GPU v tom case budu zase niekde inde...
aDDmin [Zobrazit profil] [Poslat zprávu] 2009-11-01 16:50:06
avatar
můžeš mi hodit link který ukazuje, že by na to 4 jádrové CPU nestačilo?
mareknr [Zobrazit profil] [Poslat zprávu] 2009-11-01 22:09:58

Daval som tu link na VRAY, ktory pocita raytracing cez CUDU na NV kartach. Core i7 920 2.93GHz bol niekolkonasobne pomalsi oproti GTX285, ktore islo miestami 15FPS na rozdiel jedneho frame-u za par sekund u CPU. A takto je to aj s fyzikou. Su proste vypocty, ktore sa na GPU pocitanie hodia viac ako na CPU. A toto sa u NV posunie cez Fermi este dalej vzhladom na to akym smerom sa NV rozhodla ist. To mi staci na to aby som vedel ze na GPU mozem dostat lepsiu fyziku v real time ako na CPU. Tym padom to pre mna nie je krok dozadu ale dopredu.
PlayerX [Zobrazit profil] [Poslat zprávu] - ... 2009-11-01 18:09:54

Ja to zkusim jeste trochu jinak - hral jsi novej Red Faction ? A ted mi ukaz hru s PhysX, ktera fyziku vyuziva alespon z pulky.
mareknr [Zobrazit profil] [Poslat zprávu] 2009-11-01 22:08:56

JJ. hral som Red Faction. Destrukcny model si netreba pliest s fyzikou. Ale fakt je ze posobil dobre a inak aj pre mna sa tu Havok ukazal v dobrom svetle. Ale mimochodom nezdalo sa ti to po case ze sa opakuju tie iste efekty nahodne dokola? Uznavam ze to pekne vyzeralo a ze momentalne PhysX nie vzdy ponuka vizualne to iste co sa da aj naskriptovat cez CPU ale ocakavam ze sa to zlepsi s prichodom vykonnejsich NV GPU. Ci mam pravdu alebo sa mylim ukaze cas.

Co sa tyka prikladu hry tak u mna je to Sacred 2 - simulacia vetra, lietajuce listie, simulacia pocasia, 20 az 30 tisic objektov schopnych interagovat s prostredim. Akurat je tato hra naozaj nudna. Ako odreagovacka je ale v pohode.
Bennie [Zobrazit profil] [Poslat zprávu] 2009-11-01 15:27:48
avatar
tak tohle je křišťálově čistá demagogie

NV nedodělala optimalizaci svého vlastního software (PhysX) pro cizí hardware (CPU) a tím ho zmrzačila? ))))))

Jmenuj prosím jednu firmu vyrábějící hardware, které by své ovladače (PhysX) nebo aspoň aplikaci optimalizovala pro hardware konkurence ))))))
aDDmin [Zobrazit profil] [Poslat zprávu] 2009-11-01 16:51:08
avatar
jinými slovy, PHysX záměrně nechodí na vícejádrových CPU a tedy je záměrně zmrzačeno ... já se nebavím o tom jestli má nebo nemá dělat optimalizaci, to je jestli a kdyby ... já se bavím jen o tom jak to je!
Sina [Zobrazit profil] [Poslat zprávu] 2009-11-01 17:10:10
avatar
jsi si DD jistý že physX umí využít více jader? Můžeš na to hodit nějaký link?

Ono není jednoduché napsat program pro multithread. Nvidii to nemůže mít nikdo za zlé že tuto potimalizaci neudělala. ALe to že GPU verze PhysX chodí jen na Nvidia čipech je věc jiná...
aDDmin [Zobrazit profil] [Poslat zprávu] 2009-11-01 19:24:26
avatar
Je PhysX software, který lze programovat? využívá v podstatě multijádra-Stream procesory v současných grafikách? Je NVIDAI softwarová společnost? pak jej samozřejmě lze optimalizovat pro vícejádra ...

nemůže mít za zlé? no to nemáme, jen konstatujeme, že záměrně tato optimalizace není a záměrně to je tedy na CPU zmrzačeno ...
mira89 [Zobrazit profil] [Poslat zprávu] 2009-11-01 20:16:18
avatar
není to zmrzačeno - ale vytvořeno jen pro GPU nvidie a v menší míře pro CPU.Nvidia si koupila PhysX narvala do něj prachy,čas a snaží se ho co nejvíc protláčet.JE TO JEN A POUZE JEJÍ PRODUKT a s jako takovým si může dělat co chce.Když prostě nebude chtít tak to nepojede na ničem jiným než GPU Nvidia a nikdo trochu rozumnej nemůže říct ani prd.A žádnej vývojář u hlavy pistoli taky neměl takže jestli to tam nechtěli dát tak nemuseli
aDDmin [Zobrazit profil] [Poslat zprávu] 2009-11-01 20:32:20
avatar
PhysX bylo vytovřeno pro PhysX procesor (PPU - v podstatě CPU) a stále je ... že je dnes hlavně pro GPU je výmysl NVIDIA ...

Já ale pořád nehodnotím to jestli NVIDIA chce nebo nechce, já mluvím pouze o PhysX instrukcích, které NVIDIA nevytvořila a které v současnosti nejsou pro vícejádra optimalizovány záměrně tudíž jsou záměrně zmrzačeny aby na vícejádrech ... to není nic proti NVIDIA to je prostě shrnutí aktuální situace tak jak PhysX leží a sedí ... není zde žádný jiný rozumný techncický důvod, proč by PhysX na QuadCore nemohli optimalizovaně jet ... nic víc, nic míň. NVIDIA sem vůbec netahejte, tohle je čistě o fyzikálních instrukcích ...
mira89 [Zobrazit profil] [Poslat zprávu] 2009-11-01 20:56:41
avatar
jenže musíš do toho nvidii brát,od doby co physX koupila a upravila pro sebe je to součást nvidie.To samé mohla udělat ATI nebo Intel anebo Microsoft a zařadit do nějakého volného standardu anebo taky nikdo a PhysX by umřelo.Ted je to součást nvidie.Tu fyziku za jiných podmínek by jsi měl na CPU v plný parádě,ted je prostě "Nvidia only" - tak to tak ber - dalo by se to brát jako věrnostní bonus od výrobce pro zákazníky a pokud jak říkáš nemá ve hrách moc velkej význam tak tě tedy nemusí moc trápit(uživatel ATI) že to na tvé kartě nefunguje
aDDmin [Zobrazit profil] [Poslat zprávu] 2009-11-01 21:02:12
avatar
já to ale beru jen jako instrukce ... HAVOK taky patří intelu a jede na vícejádrech i AMD ... a dokonce i na Cell procesoru IBM
mira89 [Zobrazit profil] [Poslat zprávu] 2009-11-01 21:13:14
avatar
mno jo jenže ví bůh co má Intel s Havokem za záměr(že by Larabee? nevím!),Havok si sám na sebe vydělával a vydělává dál a Intel myslím už při koupi prohlašoval že nebude nijak zvlášt zasahovat(nejspíš zatím )do fungování Havoku
aDDmin [Zobrazit profil] [Poslat zprávu] 2009-11-02 12:05:16
avatar
no a? to nic nemění na tom, že HAVOK v majetku Intelu jsou fyzikální instrukce, které Intel nijak nedeformuje, neomezuje a nekriplý aby nešli na vícejádrových CPU konkurence a dokonce esxituje už i jejich OpenCL verze, která jede na ATI a samozřejmě i NVIDIA kartách s podporou OpenCL
mareknr [Zobrazit profil] [Poslat zprávu] 2009-11-02 12:27:27

Citace:
e HAVOK v majetku Intelu jsou fyzikální instrukce, které Intel nijak nedeformuje, neomezuje a nekriplý aby nešli na vícejádrových CPU konkurence


Mam to chapat tak, ze PhysX niekedy v minulosti slapal bez problemov na viacjadrovych procesoroch ale po zasahu NV uz tomu tak nie je? Toto je totiz dost podstatna vec. Ak by to takto NV urobila, tak vyraz "zamerne zmrzaceny" by nebol az tak od veci ako sa javi teraz.
J.C.Denton [Zobrazit profil] [Poslat zprávu] 2009-11-02 00:32:05
avatar
ale nejede na gpu nvidie ani ati! takze je take zamerne zmrzaceny
aDDmin [Zobrazit profil] [Poslat zprávu] 2009-11-02 13:26:03
avatar
??? na ATI pokud vím, tak jede a protože jede pod OpenCl pojede i na NVIDIA ... nedělej ze sebe idiota

Pro ty hloupější: dej si do Google HAVOK OpenCL a uvidíš ;)
zeroground [Zobrazit profil] [Poslat zprávu] 2009-11-02 13:42:37

Jestli mi hodlas mazat prispevky, tak to rekni rovnou! Zadny Havok pod OpenCL zatim neni, tak o tom nepis jako kdyby to byla hotova vec. Chovas se jak malej Jarda, xkrat ti tady dokazujeme, ze si prestrelil, ty ne, proste pojedes to svoje. Jestli ti jde o to, abych ti sem nepsal, staci rict. Nebudu, ale prispevky nemaz, reaguj na ne. Nebo na to nemas? Oznacit vsechny okolo, kdo s tebou nesouhlasi, za hlupaky je jednoduche ze? Nasledne pak mazat jeste jednodusi, uznat, ze jsi se mylil pro cloveka tveho ega zrejme neskousnutelna zalezitost.
J.C.Denton [Zobrazit profil] [Poslat zprávu] 2009-11-01 20:59:40
avatar
PPU - v podstatě CPU podle tehle logiky je stejne tak gpu v podstate cpu...technicky melo, ale ppu od ageie mnohem blize ke gpu nez k cpu...
aDDmin [Zobrazit profil] [Poslat zprávu] 2009-11-01 21:04:14
avatar
No tak to by to na vícejádrech mělo šlapat až hrůza
mareknr [Zobrazit profil] [Poslat zprávu] 2009-11-01 21:33:22

Nikto netvrdi ze by to na viacjadrovych CPU neslapalo. Len urcite nie v takej miere ako na GPU(vykonnostny rozdiel v tychto vypoctoch snad vidis). A pisat ze je zamerene zmrzaceny software kvoli tomu ze ho jeho majitelia neupravili pre viacjadro je cista demagogia. Ak by si mal teraz nejaky enkoder videa ktory by fungoval iba na jednom jadre aj ked ma k dispozicii trebars 4 tak by bol tiez "zamerne" zmrzaceny?
AndreasCZ [Zobrazit profil] [Poslat zprávu] 2009-11-02 12:32:41
avatar
Fyzika v soucasne podobe je schopna behu i na CPU. Od uvedeni fyziky teto urovne uplynula nejaka doba a CPU jsou vykonejsi a flakaji se. Naroky jsou ale vesmes konstatni. V Dnesnich hrach se nejcasteji vyuzivaji 2 jadra a v dobe, kdy se 4jadro zacina stavat standardem, by bylo vhodne je nejako vyuzit.
mareknr [Zobrazit profil] [Poslat zprávu] 2009-11-02 16:09:08

Citace:
Fyzika v soucasne podobe je schopna behu i na CPU


Prave toto som si nie celkom isty. Je rozdiel ked simulujes vodu cez plochu reprezentujucu jej hladinu tak, ako to bolo vidno z videa Dirt2, a ked to robis tak ze si zoberies niekolko tisic castic reprezentujucich kvapocky vody a ratas ich vzajomne interakcie(vratane tie s prostredim) tak ako si to mohol vidiet v jednom ukazkovom deme na PhysX. Na toto potrebujes mat spustenych omnoho viac threadov ako zvladne v realnom case aj najrychlejsie dnesne CPU. Tam sa ukaze sila 240 stream procesorov napr. u GTX 285.
snowflake [Zobrazit profil] [Poslat zprávu] - Brek 2009-11-01 11:47:30

O tom, ze G92b je zastaraly se nikdo nepre, ale takhle uplakanej clanek jsem dlouhou dobu necetl.
Myslim si, ze i neobjektivni clanek (98 % clanku od DD) lze napsat kvalitne.

Jako nejhustejsi blabol bych vypichl asi toto:
"EVGA se tak rozhodla zabít dvě mouchy jednou ranou a fanouškům NVIDIA nabídne dva jejich oblíbené čipy (roky se objevujících znovu a znovu na znovu a znovu přejmenovávaných grafikách)."

Moc by me zajimalo, jak se takovahle forma psani rodi. Skoro bych rozjel anketu, jestli si ctenari mysli, zda je to dano "nadstandardnim vztahem" tohoto serveru s AMD (penize+ego) nebo jen proste "rozumovou zahalkou" DD (blbost+ego).
Allie Fox [Zobrazit profil] [Poslat zprávu] 2009-11-01 13:07:01
avatar
Opakované přejmenovávání grafik nvidie (GeForce 8800GTS -> GeForce 9800GTX/GTX+ -> GeForce GTS 250) je obecně uznávaným faktem. Pokud ti jde o mluvnici, tak uznávám, že i mě ta část "znovu a znovu na znovu a znovu" trochu v uších dře. Urážky a spiklenecké teorie je zbytečné komentovat.
J.C.Denton [Zobrazit profil] [Poslat zprávu] 2009-11-01 12:56:24
avatar
no zadna karta s g200(b) prejmenovana nebyla...
snowflake [Zobrazit profil] [Poslat zprávu] 2009-11-02 00:00:49

O prejmenovavani mi vubec neslo. Mel jsem na mysli spise ty kecy o fanouscich. Jen dement si kupuje grafickou kartu jen podle vyrobce. Kdyz bude karta dobra, koupim si kartu kohokoliv. Jen mi vadi, jak proste DD pise takovyhle zastiplny blaboly a rozdmychava tim uplne zbytecny flejmy.
lukasg [Zobrazit profil] [Poslat zprávu] 2009-11-01 14:00:39

Nechápu proČ je kolem této karty tolik povyku Mimo ot opět mírný článek ANTINvidia. Neva. Ale spíše než na Physx sledovat kartu pro početní operace nebo co se stane s druhým čipem když se nevyužívá. Vypne se... Apod.
aDDmin [Zobrazit profil] [Poslat zprávu] 2009-11-01 16:55:40
avatar
protože je to jako NOVINKA uváděno nyní a stojí 7500,-
MadMaxII [Zobrazit profil] [Poslat zprávu] 2009-11-02 13:03:03

Me by spise zajimalo kdy zacnou byt exclusive only nVidia vyrobci obojetni a zacnou vyrabet i Ati karty.....

Preci ty exclusivni firmy nemuzou byt podle DDho nazoru na trzni situaci X mesicu bez prodeju....

Ja se i pres DDho evidentni prani aby nV umrela domnivam ze moc firem ktere utecou k Ati nebude, proste proto ze realita neni tak tragicka jak ji vidi DD svyma ocima...
aDDmin [Zobrazit profil] [Poslat zprávu] 2009-11-02 13:27:10
avatar
DD to ale nijak tragicky pro NVIDIA nevidí .... záleží jak se povede FERMI a to DD nijak ovlivnit nemůže, protože jej nenavrhuje ...
Superdrooper [Zobrazit profil] [Poslat zprávu] 2009-11-02 14:07:36
avatar
Přesně tak, DD jej nenavrhuje a z tohoto důvodu též jako objektivní a zcela nezaujatý zpravodaj nebude na tomto webu v žádném případě zveřejňovat jakékoliv neoficiální, neověřené a silně negativistické hypotetické informace či narážky vůči tomu nedodělku s názvem Fermi, za což si ho všichni velice vážíme.
aDDmin [Zobrazit profil] [Poslat zprávu] 2009-11-02 14:51:45
avatar
tejně jako zveřejňuje neoficiální informace o AMD/Intel/ATI a jiných procesorech a technologiích ...

nejde o to,jestli je to negativistické nebo ne, to nás nezjaímá, jde o to, jak to aktuálně vypadá a´t už se to někomu líbí nebo ne. Vzhledem k tomu, že za všechny produtky nakonec stejně zaplatíme jako zákazníci, je objektivita nutností a mou přirozeností. Pokud bychom objektivní nebyly, tak dáváme přednost zpracovánným informacícm toho, kdo platí a to by se tu některé firmy v našich recenzích a aktualitách vůbec neobjevili ...
mareknr [Zobrazit profil] [Poslat zprávu] 2009-11-02 15:11:03

V podstate ide o to, ze niektori z nas nezdielaju taky negativisticky pohlad na sucasny stav NV. No keby sme mali na vsetko rovnaky nazor tak by tu bola nuda nie?
zumpar1234 [Zobrazit profil] [Poslat zprávu] 2009-11-02 14:26:22
avatar
Ako prepáčte......... niečo mi uniklo?! Celá táto diskusia je už dosť od veci! Spamätajte sa! Počkajme si na nVIDIU a jej draka..potom bude o čom debatovať
Pouze registrovaní uživatelé mohou přidat komentář!