Gå til innhold

6800gt litt dyrt ?


Anbefalte innlegg

...ikke vet jeg...jeg måtte bare gjøre det vanskeligere for meg selv å velge hva pokker jeg skal kjøpe egentlig...(blir vel til at jeg kjøper en Britney Spears billett på svartebørsen ikveld tenker jeg...til prisen av et kurrant skjermkort! :blush: )

Å fysj! Les kritikkene fra da ho var i kjøbenhavn for noen dager siden. Playback og sceneshow med bakfulle og utslitte mennesker blir liksom ikke det samme. Ikke det at jeg liker Britney-musikk akkurat, men selv de som liker det slaktet konserten i kjøben. Styr unna og bruk pengene på andre ting :thumbup:

 

Prisnivået er nesten litt sykt, men man blir jo bitt av basillen etter et par timers gaming også så det er ikke det minste rart at prisnivået gjenspeiler dette...

 

6800GT med sine 16 pipelines og 220 mill transistorer (og 3.0 shader) må da ha større potensiale enn X800pro med sine 12pipelines og 160(?) mill transistorer? Sitter med en følelse av at nvdia driverne i nær fremtid kan "open the floodgates"

6800GT er såpass lavt klokket at den må ha 16 pipelines for å få omentrent samme pixel throughput som X800 pro med sine 12 pipelines og høyere klokkehastighet. (Husker ikke de nøyaktige tallene, men de finner du sikkert)

 

Pixel througput = MHz * antall pixel pipelines.

 

Shader 3.0 er nok en fordel i spill som støtter det, men det er vel ikke mange slike ennå?

 

Antall transistorer bør ikke være et kjøpskriterium. Det er heller resultatet av hva disse transistorene gjør som det bør fokuseres på. Glem transistorene og finles heller benchmarks og sett gjerne opp en tabell med vektlegging av de spillene du kommer til å spille og i hvilken oppløsning skjermen din gir best bilde med.

Lenke til kommentar
Videoannonse
Annonse

Looking at the $400 match-up, the GeForce 6800 GT is ahead of the Radeon X800 Pro at all three test resolutions, with the lead being around 7% at 1600x1200. Given that the GT has 16 pipes and the X800 Pro has 12, the lead isn't that surprising, even though ATI does have the clock advantage here.

 

GeForce 6800 GT 350 16 5600 1 5600 1000 256 32.0

 

Radeon X800 Pro 475 12 5700 1 5700 900 256 28.8

 

nei,mhz er ikke alt på grafikkort..

men det jeg synes ati er bra på i forhold til nvidia er at de

mister ikke så mye fps selv om de bruker aa x8..

 

allefall ikke på direct 3d spill,men open gl synes jeg nvidia

har bede ytelse selv om aa er aktivert.

 

http://www.firingsquad.com/hardware/geforc...treme/page7.asp

Lenke til kommentar

The GeForce 6800 Ultra is of course a power house for sure. But I have a feeling that NVIDIA has something up their sleeves. The fact that this product is clocked at only 400 MHz is at the least surprising. I'm pretty confident that in a few months we'll see a 6900 Ultra model @ 500 or higher MHz. I know this is speculation, but it's like NVIDIA is awaiting ATI's next killer product to see how it performs and react quickly to it. At the current clock frequency hte card already kicks ass, but 400 MHz for a .13 Micron product simply is low. ;)

 

http://www.guru3d.com/newsitem.php?id=1412

Endret av jarmo
Lenke til kommentar
The GeForce 6800 Ultra is of course a power house for sure. But I have a feeling that NVIDIA has something up their sleeves. The fact that this product is clocked at only 400 MHz is at the least surprising. I'm pretty confident that in a few months we'll see a 6900 Ultra model @ 500 or higher MHz. I know this is speculation, but it's like NVIDIA is awaiting ATI's next killer product to see how it performs and react quickly to it. At the current clock frequency hte card already kicks ass, but 400 MHz for a .13 Micron product simply is low. ;)

 

http://www.guru3d.com/newsitem.php?id=1412

Klokkehastigheten 400MHz er egentlig ikke spesiellt tregt for å være GPU, selv på 130nm. Man må huske at en GPU egentlig er en massivt paralell "prosessor" med opp til 16 kjerner. Hvis man bare hadde hadd 1 kjerne med f.eks 20mill transistorer + cache så er det ikke langt unna dagens CPU'er som Pentium4, Pentium-M, Opteron, Athlon64 og AthlonXP. De fleste transistorene i disse CPU'ene er nemlig cahche.

 

Doble prosessorkjerner (f.eks en fremtidig dual Opteron-kjerne) vil selvfølgelig få dobbelt så stor varmeutvikling om de ikke klokkes ned noe. I praksis vil doble kjerner underklokkes noe og undervoltes noe for å få varmeutviklingen ned på et fornuftig nivå. Med 4 kjerner må man underklokke og undervolte ennå mer for å få varmeproduksjonen til å holde seg nede. Dagens hotteste GPU'er har hele 16 "kjerner" (pipelines) som gjør arbeidet. Det er derfor naturlig at disse klokkes ned til mye lavere hastigheter enn om de var kun 1 pipeline.

 

400MHz kan sikkert høres lite ut når ATI klarer høyere hastigheter på sine kjerner. Men ATI har også klart å bruke færre transistorer per GPU (160 mill i stedet for nvidias 222 mill.) Det er altså det høyere antall transistorer som lager mer varme og dermed begrenser hvor langt Nvidia kan klokke chip'en før den når varme-veggen. Man kan trolig skylde på Shader Model 3.0 for å øke transistorantallet og dermed begrense klokkehastigheten.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...