Duální NVIDIA GT300 v přípravě – jedno GT300 nebude na nový duální Radeon R800 stačit
Napsal Jan "DD" Stach   
Pondělí, 17 srpen 2009
alt NVIDIA už ví, že jednočipová grafika s GT300 nebude samo stačit na pozici nejvýkonnější grafiky na světě.

 

 

 

¨

Server Fudzilla kdesi vyhrabal informaci, že prý NVIDIA usilovně již nyní pracuje na duální GT300 grafice. To by naznačovalo předpokladům, že se bude opakovat situace ATI radeon HD 4800 vs GTX 260/280 z loňského roku, kdy NVIDIA spoléhala na to, že GTX 280 bude tak výkonná, že si s přehledem pohlídá pozici nejvýkonnější grafiky světa. Jenže ATI nachytala společnost NVIDIA s kalhotami u kotníků. V srpnu 2008 vydala Radeon HD 4870 X2, který rozdílem třídy výrazně deklasoval všechno, co NVIDIA kdy představila. Ta se na odpověď zmohla až v lednu letošního roku, kdy uvedla technologicky méně pokročilou GTX 295, která ale nebyla často o nic výkonnější. I dnes zůstává GTX 295 jen o málo rychlejší než HD 4870 X2 a zdaleka to neplatí všude – obě grafiky jsou závislé na fungování ovladačů SLI nebo CrossFire v jednotlivých hrách – kde CF nebo SLI nefunguje, tak jede jen půl grafiky. Jedinou změnou je, že nedávno NVIDIA GTX 295 předělala do technologicky pokročilejší podoby s jedním PCB a tedy vyrovnala technologický návrh ATI HD 4870 X2 z léta loňského roku. Má se také za to, že tato verze GTX 295 není ničím jiným, než cvičením právě pro nový duální model. Zatímco ATI razí strategii multi-grafik přímo a s ničím jiným do high endu už téměř dva roky neoperuje, NVIDIA se duálním modelům bránila, okolnosti jí ale donutili tvořit i tyto grafiky.

ATI na 101% uvede nástupce HD 4870 X2 už letos. A NVIDIA už pravděpodobně ví, že jí jedno jádro GT300 rozhodně na jeho překonání stačit nebude. Nehodlá však dopustit, aby jí opět trůn pro nejvýkonnější grafiku ATI na delší dobu přebrala a tak už připravuje duální GT300 model. Cílem není nic menšího, než překonat blížící se „HD 5870 X2“ se dvěma RV870 na palubě za každou cenu. Duální „GTX 395“ se dvěma obřími GT300 (každé má přes 500mm2 a dvojnásobek jednotek než současné GT200b) jádry se na trh dostane až v Q1 2010.

Je však otázka, zda to bude skutečně stačit. Už z několika zdrojů totiž proniklo na veřejnost, že duální R800 grafika (s neméně působivými 40nm RV870 jádry) a tedy „HD 5870 X2“ nemusí být TOP modelem u ATI. Podle některých informací totiž ATI plánuje uvedení X3 modelu s kódovým označením Trillian se třemi RV870! Ale zatím jsou to jen spekulace, byť rozhodně není ATI X3 model technicky nereálný. Každopádně si připravte pořádný zdroj, Ať už to budou hned GTX 395 nebo HD 5870 X2 nebo dokonce HD 5870 X3, přes 300W TPD se určitě u nové generace grafik přehoupneme …

Zdroj: Fudzilla.com, DDworld.cz

 

AUTOR: Jan "DD" Stach
Radši dělám věci pomaleji a pořádně, než rychle a špatně.

Starší články


Komentáře
Přidat Nový
Allie Fox [Zobrazit profil] [Poslat zprávu] - 300W 2009-08-17 21:02:10
avatar
Začínám mít podezření na propojení Ati-nVidie s výrobci elektřiny. Měla by zasáhnout EU.
aDDmin [Zobrazit profil] [Poslat zprávu] 2009-08-17 21:05:40
avatar
no v klidu by to prý měly být karty docela úsporné
Sina [Zobrazit profil] [Poslat zprávu] 2009-08-18 08:06:11
avatar
Citace:
no v klidu by to prý měly být karty docela úsporné

tys mě rozesmál, to je něco jako že HD 4870 díky GDDR5 má mít v klidu 10W spotřebu co?
FudgS.R.O. [Zobrazit profil] [Poslat zprávu] 2009-08-17 21:05:50
avatar
Ha ha ha, tak to sedí.
Teda kolik to bude brát elektřiny jsem fakt zvědavej.

A propo, nevidim nic světobornýho mít nejvýkonnější grafiky na světě, jo pro PR marketing to je něco co se dá prodat, ale v reálu využije nemnoho lídí takový grafiky.
elesde [Zobrazit profil] [Poslat zprávu] 2009-08-17 22:01:43
avatar
Ako vidim, nVidia zachvilu bude robit "dualne" grafiky ... Pri dalsej generacii bude na jednom PCB jadro a na druhom obvody a pamate
Superdrooper [Zobrazit profil] [Poslat zprávu] 2009-08-18 08:51:59
avatar
Přesně tak, na jednom PCB bude jádro a na druhém obvody a paměti. A ke každé grafice budou dávat samostatný 500W zdroj a děkovný dopis od ředitele ČEZu.
budy [Zobrazit profil] [Poslat zprávu] - Superdrooper 2009-08-18 12:07:35
avatar
nezapomen na set vodního chlazení
CzechGamer [Zobrazit profil] [Poslat zprávu] 2009-08-17 21:09:49
avatar
Na QuakeConu ATi ukazovala zřejmě RV830 v rozlišení 2560x1600 s 78FPS v nějaké hře. Když vezmeme potaz, že se jedná o nízký mainstream, tak si představte, kolik FPS bude mít RV870 a ještě X2...5870X2 bude brutální karta .
aDDmin [Zobrazit profil] [Poslat zprávu] 2009-08-17 21:15:48
avatar
nen nebyla to hra, bylo to nějaké demo, které simulovalo jednu z nových funkcí DX11, která je docela náročná
CzechGamer [Zobrazit profil] [Poslat zprávu] 2009-08-17 21:24:07
avatar
Tak to se omlouvám, stejně ale píšeš, že bylo to demo hodně náročné .
MicrO [Zobrazit profil] [Poslat zprávu] 2009-08-17 22:11:55
avatar
a kdes to našel ? že je to docela náročné demo =-O
stačil by třeba zdroj x)
aDDmin [Zobrazit profil] [Poslat zprávu] 2009-08-17 23:35:11
avatar
na jednom serveru v zahrničí co se prezentace účastnili o tom psaly co to přesně bylo ...
zeroground [Zobrazit profil] [Poslat zprávu] 2009-08-18 13:11:06

Kde? Odkaz?
Bohumil Stejskal [Zobrazit profil] [Poslat zprávu] 2009-08-17 21:18:50
avatar
no ale jestli to bylo na tom novém Wolfensteinu, tak to asi moc náročná hra nebude No ale nad novejma generace grafik už taky slintám
jmmazuch [Zobrazit profil] [Poslat zprávu] - zakaz PLAZIEM 2009-08-17 21:12:31
avatar
500W a 300W TV budu zakazane rovnako by to malo byt aj u GPU
potesila by verzia s dual biosom,
green mode - 1 jadro GPU/s troch, dvoch/ na polovicnej frekvencii a 65W spotreba

http://www.topky.org/2009/02/zelena-europa-chce-zakazat-plazmove.html
Plazma s uhlopriečkou 106 centimetrov minie ročne 822 kWh /4000 SK/ elektriny, zatiaľ čo rovnaký LC displej je vyše trojnásobne úspornejší
Allie Fox [Zobrazit profil] [Poslat zprávu] 2009-08-17 21:32:23
avatar
Spotřeba plazmových televizí je dnes srovnatelná s LCD. V průměrné spotřebě třeba i nižší - plazma žere hodně když zobrazuje bílou a má nastaven nejvyšší jas. Pokud si srovnáš jas plazmy a LCD tak pochopíš proč plazmy za těchto podmínek žerou víc jak LCD. Je to podobné i mezi LCD monitory- čím vyšší jas tím má monitor i vyšší spotřebu - teda pokud nesrovnáváš podsvícení diodama a trubicemi. Plazmy porážejí LCD i v kontrastu a odezvě takže je škoda, že se nehodí pro monitory.
wizard_ov [Zobrazit profil] [Poslat zprávu] 2009-08-17 21:35:37
avatar
To jo - mám doma plazmu a při bílé obrazovce žere 320W, při normálním filmu cca 140W (orientačně)
Sina [Zobrazit profil] [Poslat zprávu] 2009-08-18 08:15:39
avatar
nejúspornější by měly být LCD obrazovky s LED podsvícením, v budoucnu jich určitě bude spousta i jako PC monitory. I když můj 19 palcový samsung má 32W při 100% jasu a 19W při sníženém jasu na 20% (ideální na text, internet). A to už mu táhne na 3 rok Zkrátka tvrdit že CRT je úspornější než LCD jako ve výše uvedeném článku je dost zavádějící.

BTW, pochybuji že nějaký europoslanec ví co je to grafická karta, ale mohli by nějak omezit prodeje kompletních PC s vysokou spotřebou...
AndreasCZ [Zobrazit profil] [Poslat zprávu] 2009-08-18 09:02:22
avatar
Plasmy a LCD obrazovky bohuzel zerou temer stejne, ale to kvuli tomu, ze se na LCD televize nepouzivaji zadne zazracne technologie. U monitoru je ta technologie na 3x vyssi urovni.
wizard_ov [Zobrazit profil] [Poslat zprávu] 2009-08-18 19:01:53
avatar
Nevím jaká zázračná technologie je u plazmy, ale černá je opravdu černá
mike.cz.com [Zobrazit profil] [Poslat zprávu] 2009-09-10 10:59:34
avatar
to bys chtěl do gpu cpát dva biosy? docela zbytečné, pokud se nebojíš že jeden při flashování zrušíš..... jinak by ti to bylo na prd, takty máš v jediném dvoje už.... hoodně dlouho, vždyť dvoje takty má v biosu i moje stará x1900....
PIRAEUs [Zobrazit profil] [Poslat zprávu] 2009-08-17 21:23:42

no bude pekne ze bude dalsi souboj o nejvykonejsi grafiku,uz sem zvedav na prvni testy...nastesti mi ted doma topi zbrusu novy stroj a tak je v moji penezence trochu sucho a s klidem si budu procitat recenze karty drahe a drazsi
Buble [Zobrazit profil] [Poslat zprávu] 2009-08-17 21:28:22
avatar
Aby se spekulace s X3 nestaly skutečností a i tahle dual NV grafika by dostala na frak.

Ke spotřebě: berte to z té lepší stránky... v zimě ušetříte na topení. Pěkně zalezete do kutlochu, zapnete počítač a tyhle grafiky 2 v jednom (GK+topení) mám nejenom dodají nádherný výkon, ale ještě vás udrží v teple
CzechGamer [Zobrazit profil] [Poslat zprávu] 2009-08-17 21:41:50
avatar
Tak toto jsem si neuvědomilm že kdyby ATi vydala X3, že by byla nVIDIDA s GTX 395 v řiti. Tohleto vypadá ještě na ostřejší boj, než v generaci HD 4000 vs. 200, 9000.
J.C.Denton [Zobrazit profil] [Poslat zprávu] 2009-08-17 22:09:36
avatar
mozna dualni g300 bude prave souperem k te x3 grafice. ale porad mi x3 grafika prijde nepravdepodobna.
digiman [Zobrazit profil] [Poslat zprávu] 2009-08-18 00:07:10
avatar
jako kdyby se neobjevila x3 karta už v době 3870 tehdy to byl jen enginering sample (nebo jak se píše) tehdy bylo od asusu tak proč by ted neudělala sama ATI historie se opakuje voodoo s čipem vesa 100 to byla monstra snad ATI nezamyšlí něco podobnýho
D4NO [Zobrazit profil] [Poslat zprávu] 2009-08-18 00:30:31

Jj, voodoo 6000 byla dokonce quad, a fungovalo to, nevím, proč by to nemohlo fungovat teď? 6000 se dokonce mohla měřit s o generace mladšími kartami.
J.C.Denton [Zobrazit profil] [Poslat zprávu] 2009-08-18 00:55:51
avatar
no to teda trochu pockej...voodoo 5 6000 poradne ani nebyla vydana. skoncilo to jen u minima kusu. a voodoo 5 5500 (2 cipy), ktera vydana byla normalne, byla naprostym propadakem a to vykonovym, cenovym i technologickym. asi 2 mesice po ni vychazela geforce 2, ktera ji totalne zadupala vyssim vykonem, nizsi cenou, lepsi spotrebou a podporou treba tenkrat zacinajiciho a duleziteho T&L.
D4NO [Zobrazit profil] [Poslat zprávu] 2009-08-18 01:04:20

Jejda, no nejspíš máš pravdu, mě se jen zdálo že jsem kdysi někde viděl test Voodoo 6000 vs radeon 9600... Ale moc bych stebou nesouhlasil stím, že to byl technologický propadák, např. kvalitu obrazu měly voodoo řádově lepší než konkurence, měly daleko lepší režimy AA. 3dfx si to podělala tím, že už nevymýšlela nové jádro, jen furt přidávala další a další čipy k sobě, ale platilo při tom, že čím víc čipů, tím rychlejší a kvalitnější AA nabízela.
Miqq [Zobrazit profil] [Poslat zprávu] 2009-08-18 01:15:22
avatar
radeon 9600 se dá srovnávat s nVidií GeForce FX5200
MicrO [Zobrazit profil] [Poslat zprávu] 2009-08-18 02:02:15
avatar
kámoš má HD radeon 9550 a rozjede na tom stejné hry jako já na 8500gt krom crysis a company of heroes ..
jinak vše,i Empire total war, sice mu to skoro nejelo, ale přiznejme si že taková karta by pomalu neměla zvládat ani cod2 na low s 1024x768,a on na tom v takovým nastavení hraje cod4 ..
x) zázrak
J.C.Denton [Zobrazit profil] [Poslat zprávu] 2009-08-18 02:03:37
avatar
radeon 9600 tezce daval na prdel geforce fx5600
Miqq [Zobrazit profil] [Poslat zprávu] 2009-08-18 09:22:17
avatar
Jo tak to asi bude radeon 9500.
J.C.Denton [Zobrazit profil] [Poslat zprávu] 2009-08-18 12:46:02
avatar
ne radeon 9500 byl jeste slusne vykonejsi a hlavne se dal odemknout na plnej radeon 9700pro. konkurentem k geforce fx5200 byl radeon 9200
mike.cz.com [Zobrazit profil] [Poslat zprávu] 2009-09-10 11:02:50
avatar
otevírat bych nezkoušel, mě rad 9700pro upálil přídavnej konektor napájení, teploty a stabilita radši nemluvě a to sem se snažil ho zchladit...
wizard_ov [Zobrazit profil] [Poslat zprávu] 2009-08-18 19:03:50
avatar
Můžu potvrdit,měl jsem 9600Pro verzi a velká spokojenost, ale to už je drahně let ...
J.C.Denton [Zobrazit profil] [Poslat zprávu] 2009-08-18 02:03:05
avatar
to se ti opravdu zdalo radeon 9600 je o slusnejch par generaci mladsi. sem prave tenkrat kupoval (no spis rodice mi kupovali ) novy pc s geforce 2 gts, misto voodoo 5 5500 na kterou sem byl puvodne natesenej mnohem vice. jinak to AA bylo jediny v cem byla voodoo lepsi, jenze nejaky AA bylo tenkrat na 15" crt v 1024x768 trosku useless.
HD_Fugas [Zobrazit profil] [Poslat zprávu] 2009-08-18 17:46:24
avatar
No myslim že celá serie FX5.. byla nepovedená,měl jsme tenkrát jak GF MX440 na 64MB a hry na ní šlapaly podstatně líp než na FX5600 na 256MB ,tak sme jí střelil,pořídil 9800pro na 128MB a to bylo nebe a dudy,jsem tenkrát vubec nechápal jak je to možný,sem pak rozjel i far cry(1.díl) na full detaily
J.C.Denton [Zobrazit profil] [Poslat zprávu] 2009-08-18 18:21:06
avatar
ehm tak to je uz ale pekna kravina. fx5600 byla podstatne vykonejsi nez mx440, ktera vychazela z geforce 2 a nemela ani podporu dx8. fx5600 mela zhruba vykon jako geforce 4 ti 4200. fxka ale oproti radeonum obecne hlavne ztraceli v dx9 modu. to napravila az geforce fx5700, ktera byla pod dx9 klidne i o 50% rychlejsi nez fx5600, ale stalo to na konkurenci s radeonem 9600xt nestacilo. 9800pro byl tenkrat pak high-end (kterymu konkurovala jiz v celku dobra fx5900) a to bylo fakt nebe a dudy oproti mainstreamove nepovedene fx5600.
j.matrix [Zobrazit profil] [Poslat zprávu] 2009-08-19 22:19:04
avatar
myslis na tu dobu velmi precenovaneho T&L. dobry clanok aj s testami voodoo5 so 4cipmi vsa bol na jednom ceskom serveri o 3dfx. Ta 2cipova verzia ktora sa predavala vo velkych mnozstvach pootrebovala vykonny procesor, ktore v tej dobe este neboli, a neskor sa napr. nedala osadit do dosiek k p4 kvoli inej specifikacii agp slotu, kvoli rozdielnemu napajaniu hrozilo spalenie cipov
Golo [Zobrazit profil] [Poslat zprávu] 2009-08-17 22:02:15
avatar
konecne sa ati prebudila a je stoho pekny suboj

btw vie uz iekto ako sa budu volat nova gen.?? ostane ati alebo uz bude amd 5870 ??
aDDmin [Zobrazit profil] [Poslat zprávu] 2009-08-17 23:34:37
avatar
ne, ATI to zatím tají (nebo sama neví) ale v následujícím týdnu-dvou se to finálně dořeší a rozhodne ...
Rapl [Zobrazit profil] [Poslat zprávu] 2009-08-17 22:04:46
avatar
Kruci ja to tusil ze si mam koupit akcie cezu, ale ocividne neni nic stracene
MicrO [Zobrazit profil] [Poslat zprávu] 2009-08-17 22:16:56
avatar
mno pokud ATi udělá X3 tak nVidia zase zapne mozky a udělá něco ,,velkýho,,
každopádně si myslím že i tak by X3 nedalo, nedokážu si představit X2 s nVidia jádrama, natož tak něco většího..třeba rovnou tři, u ATi je to ,,jednoduché,, pač ti maj prostoru až až
každopádně sem zvědavej na velikosti PCB těchto karet .. pod 25cm to asi nebude x) spotřeba o tom ani nemluvím
MaDoKu [Zobrazit profil] [Poslat zprávu] 2009-08-17 22:45:27
avatar
Nemyslim ze delka karty je nejaky problem u dualnich grafik
HD4870x2 27cm
GTX 295 27cm

Misto je ten nejmensi problem.
CzechGamer [Zobrazit profil] [Poslat zprávu] 2009-08-17 23:04:35
avatar
Souhlas, vzpomeň si MicrO na 7900GX2, ta měla panečku délku kolem 34cm.
aDDmin [Zobrazit profil] [Poslat zprávu] 2009-08-17 23:33:56
avatar
nová singl PCB GTX 295 má ještě o něco více než 1cm více než ta stará
MicrO [Zobrazit profil] [Poslat zprávu] 2009-08-17 23:34:23
avatar
..sorry já sem se začal o IT zajímat, když vycházela 9600gt, 7900GX2 sem nikdy neviděl, každopádně LOL ..dlouhý jak cyp, ale i tak, nějaký menší skříně by s tim problem mít mohly, navíc ta tíha na ten slot ..;-)
D4NO [Zobrazit profil] [Poslat zprávu] 2009-08-18 00:57:17

Tady máš pár dlouhých karet, voodoo 5 6000 úplně napravo Odkaz
Quantum 3d alchemy 8132 Odkaz

Nejvíc se dá délka odvodit podle PCI/AGp sběrnice ;) Nemyslím že byly tak těžké, přecejenom, netopí tolik co dnešní karty.
Waffen [Zobrazit profil] [Poslat zprávu] - no.. 2009-08-18 00:27:44
avatar
Tak na tento souboj titánů jsem vazne zvedavej. To bude zase neco v souboji o vykonostniho krale.
Nismooo [Zobrazit profil] [Poslat zprávu] 2009-08-18 00:58:01

Ked bude hd7000 x6 a gtx500 , tak mozu zacat jadra pridavat aj na druhu stranu PCB , a na kazdu stranu daju jeden jednoslotovy chladic, ktory snad tie grafiky pri TDP 500 W uchladi aspon na 90°C .
MicrO [Zobrazit profil] [Poslat zprávu] 2009-08-18 02:05:22
avatar
jenže až budou GTX500 a HD7000 tak může bejt uplně nová dimenze grafických karet, někdo muže přijít na novej zpusob výroby čipů a standard klidně muže být i 100mm
technologie jde stále kupředu a to závratnou rychlostí
každopádně kdyby na světě mělo bejt za 5 let 500 milionů počítačů s TDP 500w, tak by energetické společnosti ovládly svět ...
Buble [Zobrazit profil] [Poslat zprávu] 2009-08-18 08:28:01
avatar
"100mm" ? Spíš pm

Jinak energetické společnosti už začínají ovládat svět. Zmoměn jak bylo do zdražování ČESu hej, a když měl slevnit... no však víme

A navíc se zlepšujícím se procesem se spotřeba bude snižovat. V budoucnu pujde spíš o úsporu energie, to už budou grafiky dost silné na všechno a bude se hlavně šetřit
doktor2 [Zobrazit profil] [Poslat zprávu] 2009-08-18 09:15:34

Těžko říct jak to dopadne ..Obr ve své newsce (beru ji s rezervou)tvrdil, že GTX 380 bude výkonově jako GTX 295. Tady by duální karta dávala smysl. Jen mi ale nesedí jak potom Nvidia obhájí určitě vyšší cenu než bude mít HD 5870.

Spíš to vidím tak, že GTX 380 bude výkonnější o 20-30% než HD5870. Na duální Radeon ale stačit nebude proto vznikne GTX 395. Pro hraní v rozlišení 1920x1200 bude na dost dlouhou dobu stačit GTX 380 (myslím, že konečně dáme v pohodě na very high Crysis i budoucí Crysis 2), pro 30ti palcové LCD bude určena GTX 395 nebo duální Radeon. Otázkou jen zůstává, zda-li si GTX 380 obhájí svoji cenu proti HD 5870 .....já doufám, že ano ..rád bych měl novou Geforce ve své bedně.

K tomu Crysis 2 jsem včera viděl zajímavé video z editoru ...a musím říct, že mi spadla čelist ..hoši z Cryteku vymysleli báječnou věc ..vývojář pracuje na jednom PC a z něj tvoří na všechny platformy, přičemž se vše automaticky přizpůsobí zvolenému HW ..tedy na konzole se to dost ořeže ..a oproti tomu na PC přidají více vegetace, daleko detailnějších textur, propracovanější modely postav, dohledovou vzdálenost 7 km!, DX 11 efekty atd. Cevat Yerly říkal, že PC verze Crysis 2 rozhodně překoná po vizuální stránce jedničku a že bude podporovat DX 11. Kouzlo Cry Engine 3 je v tom, že umožní vznik nativních her na všech verzích DX ..tedy bude nativní verze DX 9, DX 10 a DX 11 ..nikoliv jen rozšíření. Tohle by chtělo DD samostatný článek ...pokud je to tak jak ukázali včera na gamescomu 2009 nebudou současné konzole brzdit vývoj ...ale spíš to povede k jejich postupnému odchodu do penze.
MicrO [Zobrazit profil] [Poslat zprávu] 2009-08-18 13:21:23
avatar
GTX380 nebude výkonový zázrak, to ti garantuju
;-)
doktor2 [Zobrazit profil] [Poslat zprávu] 2009-08-18 13:48:30

psal jsem snad, že bude?
Sephinothf [Zobrazit profil] [Poslat zprávu] 2009-08-18 10:00:07
avatar
Ja jenom nevim Jak by vypadal CF dvou x3 karet,.. pokud je mi znamo QCF(4cipy) je maximum, co by chudatka delali s tema 2mi zvysnejma
Samoztrejme pokud DX11 bude specializovan na paralelizaci tak strop 4cipu mozna skonci.
Dan666 [Zobrazit profil] [Poslat zprávu] 2009-08-18 20:49:09
avatar
treba to Lucid Hydra zvaladne ma to byt prece mnohem promakanejsi na vice jader
kocour [Zobrazit profil] [Poslat zprávu] - :) 2009-08-18 10:09:41
avatar
"ATI nachytala společnost NVIDIA s kalhotami u kotníků."
Celkom som sa pri precitani clacku aj pobavil vazne
Kosheen [Zobrazit profil] [Poslat zprávu] 2009-08-18 12:34:57
avatar
keby sa im podaril vyriesit odpajanie jednotlivych jadier pri 2d rezime tak by sa dalo povedat ze by sa usetrilo energie.
jardop [Zobrazit profil] [Poslat zprávu] 2009-08-18 12:56:00

clovek usetri na radiatoroch a kupi si nejaku takuto kartu..
Dan666 [Zobrazit profil] [Poslat zprávu] 2009-08-18 20:52:00
avatar
a v Rusku pri VELKYCH mrazoch to jeste OC aby to topilo vic
HD_Fugas [Zobrazit profil] [Poslat zprávu] 2009-08-18 17:37:02
avatar
To se zas ČEZ napakuje
Pouze registrovaní uživatelé mohou přidat komentář!