Výtěžnosti 40nm procesu je u větších čipů katastrofální. Grafické karty s čipy GF100 budou muset mít méně jednotek.
Z těch několika málo oficiálních informací, které NVIDIA vypustila, víme, že nejšpičkovější verze grafiky GTX 380 má mít jádro GF100 s 512SP. Už to ale neplatí. Nově se na světlo dostaly interní dokumenty NVIDIA, které ukazují na snížení počtu aktivních jednotek pro vrcholné modely TESLA a tedy i GeForce:
Dokument ukazuje na celou řadu problémů. FERMI je obrovský čip má až 530mm2! Při současném stavu 40nm výroby je v podstatě nemožné tohle rozumně vyrábět. Problém je i vysoká spotřeba čipů a celých grafických karet. TDP 225W je opravdu hodně na jednojádrovou grafiku. Takty samotného čipu také nebudou tak vysoké, jak by bylo zapotřebí. Vnitřní takt SP se pohybuje od 1,25-1,4GHz. Pro srovnání takt GT200 čipu na GTX 260-285 je 1,29-1,48GHz! Dokument také prozrazuje další zpoždění grafik. 6GB TESLA verze se neobjeví v Q2 2010 jak bylo plánováno a oficiálně oznámeno, ale až v druhé polovině roku.
Fatka, na která dokument ukazuje, se nám vůbec nelíbí. Snížení počtu jednotek neprospěje výkonu, nízké frekvence na úrovni GT200 karet také ne a proti vysoko taktovaným RV870 (později i RV890) to bude dost problém. Problémy s výrobou samotných čipů se daly čekat. Rozporuplné reakce i z profesionální vědecké sféry v poslední době také nejsou bez zajímavosti. Na internetu se dokonce už objevují ve velkém názory, že celé FERMI začíná zavánět velkým průšvihem. Mnoho z nás doufá, že FERMI grafiky GeForce 360/380 nakonec alespoň vyrovnají výkon HD 5800 grafik, ale vše ukazuje na to, že pokud ano, tak budou mít výrazně horší provozní vlastnosti a hlavně budou dražší. Doufejme, že tento uniklý interní dokument nenaznačuje, co si myslíme, že naznačuje.
Osobně jsem už před měsíci varoval, že FERMI může mít problémy, protože se jedná o novou, nevyzkoušenou architekturu, kterou bude nutné ladit. Mohu třeba srovnávat s ATI R600, které mělo jako nová architektura hromadu problémů, dokonce jeden byl tak vážný, že znamenal odložení vydání o skoro půl roku a stejně jej u RV600 nikdy nevyřešili. R600 ale položilo základy výrazně vyladěnějšímu RV670. Následovalo ještě povedenější RV770/790 a dnes tu máme opravdu vyšperkované RV870. U GF100 (FERMI) by to klidně mohlo být podobné. Každopádně skutečně varuji před velkými očekáváními podpořenými velkými marketingovými sliby. Absolutně nic nenasvědčuje tomu, že by FERMI mělo být nějaká superpecka ve srovnání s RV870 a ATI HD 5000. Doufejme alespoň v tu pořádnou konkurenci …
Tahle zpravicka sice po svete koluje, ale ukazuje na snizeni poctu SP u profi karet Tesla, o GF ani slovo. Po svete koluji zvesti, ze GF karet (ktere vyjdou pozdeji) by se to tykat nemelo. Samo to ale muze byt jinak.
Podelat se to muze vzdy, stalo se to v minulosti u FX5800 i R2900, takze to muze potkat i Fermi.
Přesně tak. Veškeré tyto zvěsti mluví čistě o kartách Tesla, které se očekávají na trhu dříve než Geforce.
Takže řeči jako tady "Nově se na světlo dostaly interní dokumenty NVIDIA, které ukazují na snížení počtu aktivních jednotek pro vrcholné modely TESLA a tedy i GeForce" jsou jen řeči vycucané s prstu. O tom jak na tom budou herních Geforce žádné informace nejsou. A to snížení SP u karet Tesla je přisuzováno nejen špatné výtěžnosti, ale také kvůli snížení spotřeby.
no tu spotrebu bych tak strasnou neocekaval. tdp je jen teoreticka hodnota a treba gtx285 ho ma opravdu hodne nadsazene. g200, i kdyz to jsou vetsi jadra nez RV770, maji s nimi srovnatelnou spotrebu v zatezi. nevidim moc duvodu proc by fermi se stale stejnou architekturou SP na tom melo byt oproti RV870 nejak hure.
Těch TDP u Fermi v úrovni 225W je naprosto v pořádku, podívejte se na jádro R600, HD2900XT už před dvěma lety žrala přes 200W a dotáhla to až na vymazlenou, vychytanou, výkonnou a vyšperkovanou řadu grafik s jádrem RV870. Jsem zvědavý, kam to dotáhne nVidia!?
vzheldem k tomu že až do současnosti kopírovali profi verze grafik parametrově desktopové modely, zajímalo by mě, proč by to u FERMI mělo být jinak ...
třeba proto, že do současnosti vždy vyšli nejdříve herní grafiky a až následně s odstupem času profi. U Fermi to podle všeho vypadá, že tomu bude obráceně.
To co říkáš zní logicky, ale je to pouze spekulace, tak zase nevydávej spekulace jako fakta. Stačí napsat, že tu je pravděpodobnost, že GeForce ponesou stejné GPU, ale psát "...Tesla a tedy i GeForce." je prosté upravování si informací, podle osobních předpovědí.
že by "ořízly" Tesla grafiky do profi segmentu a GF by nechaly tak jak plánovali mě osobně přijde trochu na hlavu postavený,myslím si že to klukům v californii nějak utíká.PS.berte to pouze jen jako můj názor.
Proc na hlavu postavene?
Predstav si situaci, kdy ma NVIDIA malo plne funkcnich cipu (pokud tedy skutecne ma a neni to uplny vyrobni pruser). Dale je tu predstava NVIDIE (at uz je pravdiva nebo neni, to je jedno) ze v profi segmentu nemaji konkurenci. Pak tu mame odhad, ze plne funkcni Fermi je napriklad o 100% vykonejsi nez predchozi nejlepsi jejich singl reseni. Co udela dobry obchodnik?
- profi grafiky udela z orezanych cipu a stejne nebudou mit konkurenci (jak si mysli)
- plne funkcni cipy pouziji na nejvyssi model hernich grafik, kde jede o prestiz mit nejvykonejsi reseni
- zbytek orezanych cipu pouziji na nizsi modely hernich grafik
- po case az se zvedne vyteznost (nebo jen objem vyroby), tak vydaji vykonejsi profi grafiku a jeste na tom vydelaji podruhe
Já tomu nevěřím, páč na PCT****g je slíbená recenze do konce tohoto roku Už prej ty Fermi navážejí do velkoobchodů povídal jeden "Malej", řekl mu to nějaký kámoš z nVidie u pifka. Něco mi hovoří, že by výrobci už měli odpískat výrobu na 40 nm a rovnou jít do 32 nm, horší už to být nemůže
Jediné, čo ja momentálne očakávam, je počet týždenne publikovaných článkov o nVidia a Fermi. Škoda, že sa v stávkovej nedá na to podávať... bolo by to určite zaujímavé a koho už dnes baví dávať na NHL či KHL?
DD prestan uz s prorokovanim te vysoke ceny. jestli chce byt nvidia konkurenceschopna tak musi nasadit i konkurenceschopne ceny. takze za cca stejnej vykon musi mit cca stejnou cenu jako ati. at chce nvidia nebo nechce, ona bude muset. to je proste trh. i u g200 si porad dokola vyvolaval jak je to velke jadro, jaky musi mit problemy s vyteznosti, jak ho nvidia strasne dotuje atd, ale na kvartalnich vysledcich nic takoveho neslo videt.
a neni to tak dlouho co si rikal, ze nove fermi i v te slabsi variante urcite prekona gtx295. ted zas mame byt radi, kdyz dorovnaji 5800 grafiky?chtelo by to v tech nazorech trosku stalosti a ta 6GB tesla nema zpozdeni kvuli nvidii, ale nedostupnosti velkych gddr5 pameti.
Mas sice pravdu v tom co pises, ale pred tyzdnom sa este nevedelo ze FERMI bude mat len 448 GPU a takty na urovni jadier GT200. Preto ked Nvidia "koriguje" specifikacie, my musime "korigovat" ocakavania.
Nevieme, to je pravda. Co ale vieme je to, ze profi karty a herne karty doteraz vzdy mali totoznu architekturu a odlisovali sa len specialne navrhnutymi drivermi, pripadne vecami ktore priamo s architekturou nesuvisia, ako napriklad velkostou pamate.
Odlisuji se rovnez sirkou sbernice, pro profi se treba pouziva bezne "jen" 256-bit. Coz je treba parametr, ktery vykon ovlivnuje dost (i kdyz spis u GDDR3).
Tohle mi prijde jako logicky krok, kdy se v ramci zvyseni vyteznosti vypnou dva bloky. V profi segmentu to na vykon muze mit mensi vliv, nez v herni oblasti. Na druhou stranu, zase by to melo prinest vice dostupnych karet, prave diky vyssi vyteznosti i do herniho segmentu, pokud to tak skutecne bude. No a cenu odvozovat od Tesel je neskutecny nesmysl, takze stim bych pockal az jak to bude.
PS: Kdyz jsme u toho, jak jsi korigoval sve ocekavani ty? Me prijde, ze jsi se ze stavu "Fermi propadak" nikam nepresunul, mozna do stavu "Fermi jeste vetsi propadak"?...
Myslim ze to co som napisal je logicke. Ja som nic nekorigoval, ja totiz FERMI neocakavam. Mam v PC super grafiku ktoru si uzivam uz dva mesiace a najblizsi upgrade budem robit ked tu bude Bulldozer a nova generacia grafik od ATI, no a hlavne prachy na to . Takze mas pravdu, FERMI je u mna stale prepadak - uz tu davno mal byt a neni. Este to ani neuviedli a uz osekavaju, no super . Jo, a aby som na teba nezabudol: Crysis Warhead, 1680x1050, DX10, Enthusiast, HD4850 vs HD5850 (min/avg/max) - 13.39/18.87/22.63 vs 27.9/36.8/43.9. Bez antialiasingu - testoval som to aj v 4xAA a 8xAA, to bude "podivana" .
EDIT: to co pises v prvej vete nie je tak celkom pravda, ATI pouziva v profi sektore karty ako s 256-bit zbernicou, tak aj nizsimi. Co je ale podstatne, vzdy kopirovali karty do herneho sektoru, az na male vynimky ako CF prepojenie, vystupy, velkost pamate atd. Zdroj: Odkaz.
Neni to unikla interni informace.visi primo na webu Nvidia.
http://www.nvidia.com/docs/IO/43395/BD-04983-001_v01.pdf
Bude zajimave zjistit kde chce Nvidia sehnat dostatek 512 Cuda cores cipu kdyz uz dnes vi ze je nebude schopna dodat ani za pul roku do TESLA C 2070.A to je prosim pekne karta za 3999 dolaru a ma byt ukazkou technologickych schopnosti Nvidia.
Nikde není psáno, že pokud je Tesla taková, musí být GF stejná. Třeba právě pro GF jsou vybírány ty nejlepší kousky, a tak by mohla být GTX 380 nedostatkovým, ale luxusním kouskem s plnými 512 SP. Vždyt profesiální segment nemá prakticky konkurenci.
tohle jsi opsal z extrahardware že? Já nevím jestli je ATI v profi segmentu tak nemožná že by ji Nvidia měla tak podceňovat. Už jednou se jí to podceňování (RV770) nevyplatilo...
Jak se projevuje podcenování jedné firmy druhou? nVidia nic nepodcenila, jen ji nevychází architektura, kterou má na rozdíl od AMD zbrusu novou. Kdyby nVidia udělla fermi alá 2x G200 v 40nm, všichni by nadávali. AMD to ale nikdo už 4 roky nevyčítá.
to těžko ale každý ví z čeho vychází RV870 ... rozhodně ale nemůžeme říci, že by ATI přejmenovávalo a zmenšovalo čipy jen tak ;) ... to samé snad lze říci i o FERMi ;)
No v jednom se urcite shodnem. Evidentne nemuzes vydychat nV marketing, ty jejich prejmenovani a uvadeni starych modelu "jako nove" atd..
Pokud jde o Fermi, ve skutecnosti se tohle nevi skoro nic, takze resit jestli to bude dalsi "prejmenovana G200" nebo ne je trochu zcestne. Nic o tom nevime, nevynasejme zavery. R600 mel byt taky kdysi jasny "killer", a o G80 se moc nemluvilo a pak to zadupala do zeme vsechno. Pockejme az se Fermi predvede, klidne to muze byt podobne.
vzheldem k tomu že až do současnosti kopírovali profi verze grafik parametrově desktopové modely, zajímalo by mě, proč by to u FERMI mělo být jinak ...
Z jednoho prostýho důvodu - právě ta výtěžnost. Bohužel o IT/HW se tak moc dlouho nezajímám, ale kdy měla nVidia takové problémy s výtěžností, až by musel osekávat TESLY?? Svých 3 a 6 GB paměti to bude mít, bude to i nejvýoknější pro grafika, bohužel nebude mít 512 CUDA, ale stále bude vlastně tím nej.
Já myslím že má. Pokud totiž vydá TESLA kartu s dejme tomu 448 SP (nebo kolik to má být), nemá dotyčná firma na výběr. Buď zůstane u starších, nebo si koupí pořád SUVERÉNĚ NEJVÝKONĚJŠÍ čip, jelikož od ATi se žádná odezva nečeká. Tady jde jen o nahrazení modelové řady z řad vlastních.
A jak všichni víme, není to pro trh který zrovna trhá rekordy prdejnosti nVidie, stejně jako to není ani high-end, ale u toho si může nVidia posadit ceny vysoko a vysoko...
no tak si to myslíš špatně .... sama NVIDIA jasně řekla, že ano desktopový trh jí dělá sice 2/3 obratu, ale TESLA trh jí dělá 2/3 grafického zisku, z toho důvodu je orpavdu nesmysl čekat, že NV bude nejlepší jádra šetřit pro grafiky za 600 dolarů místo aby je dala na ty nejdražší a nechala si za to zaplatiti těch 4000 dolarů.
Jinak od ATI se žádná odezva nečeká? Ani nemusí. ATI má nejvýkonější čipy na světě a nejvýkonější GPU počítače na světě jsou také stavěny na ATI čipech takžke AMD-ATI není ta firma, od které se čeká odezva ...
On kromě čínského státního institutu (kam kvůli velmi dotované ceně narvali pár 4870 aby dělali pár procent (asi 15) výkonu v aritmetice vedle athlonů) někdo do superpočítače dal ATI GPU?
I kdyby, stále má nVidia nejvýkonější PRO grafiku - FERMI ona, a je už prakticky jedno jestli v ní bude o pár SP míň, protože to stejně bude nej jak už jsem řekl. Oni nemusí cenu nijak snižovat, těch 4000 dolarů by si účtovali jak za 512 tak 448 SP,takže o nic nepříjdou.
O co by přijít teoreticky mohli je prívě GF trh. Pokud se veřejnost doví, že nejsou GF výkonější než Radeon,jen málo lidí si tu GF koupí. Proto by měla mít nVidia větší snahu dávat podařenější kousky jako high-end GF.
Těšil jsme se na nějakou předvánoční negativní informaci o té nekvalitní, drahé, nekonkurenceschopné a nevýkonné grafice s jádrem Fermi, jsem rád, že jsem se opět dočkal.
To sa dalo čakať. Aby nemuseli príliš dlho ladiť s TSMC 40nm výrobu a strácať zisk vypustia nejaké čipy už teraz aby uspokojily čakateľov a za pochodu budú ladiť výkon aj muchy vo výrobe.
Asi proto ze FERMI i TESLA budou vychazet ze stejneho GPU pokud se nemylim, ale i tak se mylim mene nez Nvidia s datuma a parametrama...... Az bude neco jako NV grafika tak si to pak povime ted je vsechno spekulace jak od Raigora, Siddhiho i DDho atd..... Nvidia grafika mysleno HERNI GRAFIKA
přesně, vše sou jen spekulace
Ty nicky jsou přesné.
Překrucování a hledání pozitiv je jasně spekulativní a ani třeba nevíte, jak vaříte z vody.
Nikdo tady nic nedoporučuje, smiřte se s realitou.
Nikdo za vás nedělá nákup HW.
Fandíte jen svým penězům, co utopíte v HW.
Až tohle pochopíte, tak teprv pak brante firmu, co prostě momentálně nemá nic k dispozici a tak vytahuje papírové slajdy ...
a co jako ? každý má názor ne.
Jesli opravdu někdo tady čeká na Fermi z potřebného důvodu, tedy pokud jde o herní grafiky, tak to sorry.
Spekulujte, ale hlavně at si užijete ten herní požitek, co přinese nová gen. nv.
Doufejme tedy, že physx bude v AAA titulech a bude perfektně využit
PhysX je podla mna len marketing. V hrach toho az tak velmi neprinasa. Testujem NFS:SHIFT a tam je vraj pouzity PhysX, beziaci cez CPU. To je ale potom pekna hanba, ked do seba narazia auta tak sa nic nedeje, musi to uz byt naozaj poriadny naraz, aby sa pokrcil nejaky plech. Co je ale uplne stupidne napriklad je to, ze sa zroluje alebo pokrci aj sklo, pripadne svetla . Diky za taku fyziku. To mal teda aj o dost starsi GRID lepsiu fyziku v tomto smere.
To ale nie je problem PhysXu ale vyvojarov hry. Ked to takto naprogramovali tak je to skor ich vizitka. Su hry kde je PhysX vyuzity a je to vidiet lepsie.
No, taky Batman, uvadzany ako super hra s PhysX, nema tu fyziku o nic lepsiu. Je to nerealne spravene, napriklad aby svojim plášťom pri chodzi rozviril popadane noviny ci co to bolo na zemi je anti-fyzika, nie fyzika ;-).
No prostě teď uvede kartu s méně SP a později přidá i tu s 512.... co je na tom tak nepochopitelného? ATI má také vypnuté clustery z duvodu výtěžnosti...
Nedělal bych z toho vědu.. předtím bylo pořadí GTX 260, GTX 280, GTX 275 a GTX 285 a teď prostě bude zase první ta 375 a 380 přijde po ní... nedělal bych z toho nějaké drama a la interní materiály, které jsou volně na webu NV když už od včera 2x obletěly zeměkouli ve všech magazínech )))
Dále to značí, že i revize C3 Fermi je na tom s výtěžností bledě. Souhlasím s názorem, že u Tesla karet by se mělo jednat o nejvyšší model s 512 cuda jednotkami, GF karty pak buď stejně nebo méně jednotek, opačně by to samozřejmě nedávalo smysl, už jen proto jaký má výkon V SP a v DP HD5870 a tu chce snad Nvidia překonat, nebo ne? :-) Ne nadarmo je 5. nejvýkonější superpočítač založený na HD48xx a celkově v TOP 5 má největší zastoupení AMD (ano, není to Intel). AMD má značný skoro půlgenerační náskok proti Nvidia(tj. cca 6 měsíců při cyklu nový graf. čip jednou za rok). Variabilita čipu R800 je značná, zatím grafiky nedosahují ani zdaleka svých limitů a to se s novými revizemi ještě zlepší. AMD tak má dostatek času na vývoj HD6000, který by měl mít razantnější změny v architektuře (zřejmě v návaznosti na Fusion architekturu).
Ta spotřeba bude pekelná, jestli se to všechno potvrdí a topit to bude asi taky solidně, myslim že to je cesta zpátky(výkonově samo ne). ATI se aspoň snaží aby lidi tolik ČEZU neplatili, což je super, páč tam už je našich fufníků dost.
TDP Fermi bude podla mna adekvatne k vykonu karty. Ked sa pozriem na 5870 (TDP 188W) a 5970 (TDP 294W), tak mi TDP fermi (225W) vobec nepride ako extremne velke..
a len tak mimochodom:
TDP sa nerovna spotreba ! TDP (thermal design power) je hodnota, ktora predstavuje najvyssi mozny tepelny vykon, ktory musi odviezt chladenie daneho cipu.
samozrejme, ze vyzarovany tepelny vykon suvisi so spotrebou, ale rozhodne hodnota TDP neudava realnu spotrebu (prikon) cipu !
pozor TDP si každý výroce udává jak chce ... u AMD je to teorietická maximální možná hodnota u Intelu je to asi 75%ˇhodnota při běžném zatížení a u grafik to taky může být jinak ...
co samozrejme nic nemeni na fakte, ze realna spotreba daneho cipu sa nerovna hodnote TDP.
napr. aj C2D maju TDP 65 W a ani v zatazi sa tejto hodnote nepriblizi realna spotreba procesoru, ktora je cca 45 W.
ty sam si nameral este nizsiu realnu spotrebu 33W ( Odkaz )
Při takový velikosti GPU + takovy TDP bude tepelny vyzařování dost velký a s nim se podle toho zvyšuje i spotřeba, to bylo změřený už dávno u hd2900 xt, neboj něco sem si k tomu zjišťoval, tu kartu sem měl.
a co takova gtx280?jadro to bylo taky velke, tdp mela nejakych 240W a pritom spotrebou na tom byla lepe nez 9800GX2, ktera mela tdp nizsi. a na jeji spotrebu v idle se ati s 48xx serii moc nechytala...
To máš pravdu, červeně nevidim, koukám na to z pohledu člověka co by nepohrdnul ani NV kdyby nabídla něco dobrýho za slušnou cenu, momentálně je to u mě ati, ale aspoň podle mýho je to novinka, eště s tim moc neuměj jako u gtx280 což bylo hodně dlouho vylepšovaný starý jádro. Myslim že až pozdější verze ukážou co to umí, už sem trochu vyléčenej z toho kupovat úplnou trhem neodzkoušenou novinku, naběhnul sem si u hd2900 xt a pak z ní vznikly celkem dobrý grafiky. Byl to takovej test na lidech no a tohle bude podle mě to samý.
jenze tahle specifikace tdp u intelu platila za dob p4 prescott, coz je peknej par let zpatky. kdysi sem hledal v oficialnich materialech intelu ke core 2 quad neco o tom tdp a zadnou podobnou vetu sem tam nenasel, u intelu je to proste thermal desing power a urcuje jake maximalni teplo z procesoru musi dokazat chlazeni odvest. neni to zadna hodnota pri zatizeni 75%, protoze tohle ti vyvrati i realne testy toho nejsilnejsiho core i7. akorat timhle mates bezne uzivatele, kteri si pak naivne muzou myslet, ze i starej phenom je uspornejsi nez core i5 750.
u prescottu to bylo psane v datasheetu nebo jak se to menuje nebo nekde na strankach intelu. u core procesoru sem to nikde nevidel. nebo mi muzes dat odkaz na to kde to tam je?asi sem teda slepy...
Citace:
naivně si mohou myslet že nové Core i je nějak výrazně úspornější než Phenom II si chtěl říci ne?
nic takoveho ani vzdalene nenaznacuju a core nejsou o moc uspornejsi nez phenom II. tdp maji take stejne/podobne. ale tvrzeni ze tdp u intelu je 75% bezne spotreby je uplny nesmysl a to i u nejvykonejsich procesoru. jestli ti tahle definice dela radost tak si ji pouzivej klidne dal. pravdiva ale uz dlouho neni. prave naopak ty pouzivanim tehle definice navozujes dojem ze amd procesory jsou neporovnatelne uspornejsi.
Je videt, ze vubec netusite co je to TDP. Toto cislo nema s vlastni spotrebou vubec nic spolecneho. Je to hodnota, jakou musi odvest chlazeni od cipu. Nic vic, nic min.
A ze podle Vas bude mit Intel vetsi spotrebu nez udava TDP taky neni pravda. Viz treba http://www.xbitlabs.com/articles/cpu/display/athlon64-brisbane_10.html
65nm X2-4800+ = 65W TDP (78.5W measured)
65nm E6400 = 65W TDP (63W measured)
A navic Vam neni divne, ze nekolik modelu jedne rady ma stejne TDP? To jasne znaci, ze to neni o spotrebe.
Edit: Kdyz se tak divam na ty palce u me a Raigora, tak nekteri maji opravdu velke komplexy.
Pouze registrovaní uživatelé mohou přidat komentář!