Gå til innhold

512MB 7800 to have 1.1ns, 1800mhz RAM


kirjogra

Anbefalte innlegg

Videoannonse
Annonse
*snip*

Dette er veldig spennende:

AFTER a little research we managed to get information from several retailers and e-tailers. The 7800GTX 512MB is already SKUed [Yes, we've turned Stock Keeping Unit into a verb, Ed.], and the delivery date is set for Monday, November 14th. Several Nvidia partners told us about shipping boards in full quantity in week 46, so it seems like X1800XT got competition even before it has shipped into retail.

At nVidia lanserer et produkt og leverer det i voulm på samme dag... Kanskje før ATi klarer å få ut demmes eget top kort som de papirlanserte for over en måned siden!

 

24 pipelines på 550MHz og 1800MHz minne kommer til å gi ATi noe å tenke på!

 

Når XFX velger å klokke sine kort over denne referansen (580MHz) så er det tegn på at nVidia har endel å gå på.

5103540[/snapback]

Det som også er temmelig artig er at de fortsatt har valgt å kalle kortet GTX, og ikke Ultra, som det så tydelig er. Får en til å tenke om de da har enda et kort i ermet for R580 om det blir pre-lansert. nVidia har da alltid hatt en Ultra i serien sin, og skjønner da ikke hvorfor de ikke skulle ha det denne gangen også. Dette blir vel kanskje akkurat det jeg har ventet på så lenge :p ..

Lenke til kommentar

http://www.theinquirer.net/?article=27443

One board even had the GPU clocked to sky-high 800 MHz

 

Since the memory is declared to work at 909MHz, you can expect some serious overclocking there, and passing the once unimaginable 60GB/s barrier. Don't be too suprised if you see enthusiast forums boiling with reports of 1GHz memory clock soon after introduction. = 2GHz DDR... :dribble:

 

Default clocks are set at 550/1800MHz,

Lenke til kommentar
Snakk om monster i maskinen ser trangt ut.

5103895[/snapback]

 

Om det der er bildet hentet fra xs, er det ikke gtx512, men bare vanlige gtx.

Dog det gir ett fint bilde av hvordan 2x512gtx vil ta seg ut i kassa... kortene er jo like store og vil bruke den samme kjøleren. :thumbup:

 

Pics are not the 512meg just the Leadtek Extreme edition...pics are only for reference...

 

http://www.xtremesystems.org/forums/showth...94&page=4&pp=25

Endret av Npvk_X
Lenke til kommentar

Blir ofte slik når dem ikke trenger å skryte\reklame, da er rykter den beste reklamen, synes de gjør det helt korekte nå ved å holde en lav profil.

 

I motsetning til Ati feks der vi har tonnvis av rykter men ingen kort å få kjøpt (x1800xt), det tyder på en smule desperasjon (slik jeg har tolket det omtrent hele veien med denne lanseringen, selv om jeg har hatt håp om å få kjøpt et x1800xt og at x1800xl skule gruse 7800gt).

Lenke til kommentar
Simen1, ser at du leser tråden.. :)

 

Når 110nm kan klokkes opp til 800MHz, hva kan vi vente av en 90nm ?

5105225[/snapback]

Nå har ikke brikkene samme arkitektur så de kan ikke sammenlignes MHz for MHz på samme produksjonsprosess.

130nm geforce 6800Ultra ga oss 400MHz

130nm radeon x850xtpe ga oss 540MHz

130nm athlonXP ga oss 2,2GHz

130nm athlon64 ga oss 2,6GHz

130nm Pentium4 ga oss 3,4GHz

 

Jepp, det er ikke lett å spå, men hvis jeg skulle spådd så ville jeg sammenlignet med forrige generasjon av samme brikke og lagt til ca 20% klokkefrekvens under forutsetning av at varmeproduksjonen holdes på samme nivå. Hvis man tillater å øke varmeproduksjonen kan man nok oppnå 30-40% økt klokkehastighet.

 

Edit: korrigerte tabellen litt.

Endret av Simen1
Lenke til kommentar

Ingen Nvidia kort støtter shader model 3.0 fult ut så det er jo ikke så overaskendet at Ati er bedre når nvidia faktisk ikke støtter det fult ut. Sånn sett skall hdr se bedre ut på Ati kort

 

Fant litt om dette på Atis egen side

 

On NVIDIA hardware, programmers need to be careful to make sure that shader programs are designed to allow for about a thousand pixels at a time to take the same path through a shader. Performance breaks down if different directions through a branch need to be taken in small blocks of pixels. With ATI, every block of 16 pixels can take a different path through a shader. On G70 based hardware, blocks of a few hundred pixels must take the same path. NV4x hardware requires larger blocks still - nearer to 900 in size. This tighter granularity possible on ATI hardware gives developers more freedom in how they design their shaders and take advantage of dynamic branching and flow control. Designing shaders to make sure every 32x32 block of pixels are doing the same thing is more difficult than only needing to worry about every 4x4 block of pixels.”

AnandTech.com

 

“With flow control active, the ATI cards are also much faster than their NVIDIA counterparts. This is the sort of shader that can benefit from ATI's finer threading granularity for looping and branching, obviously.”

Endret av simalarion
Lenke til kommentar
Ingen Nvidia kort støtter shader model 3.0 fult ut så det er jo ikke så overaskendet at Ati er bedre når nvidia faktisk ikke støtter det fult ut. Sånn sett skall hdr se bedre ut på Ati kort

 

Fant litt om dette på Atis egen side

 

On NVIDIA hardware, programmers need to be careful to make sure that shader programs are designed to allow for about a thousand pixels at a time to take the same path through a shader. Performance breaks down if different directions through a branch need to be taken in small blocks of pixels. With ATI, every block of 16 pixels can take a different path through a shader. On G70 based hardware, blocks of a few hundred pixels must take the same path. NV4x hardware requires larger blocks still - nearer to 900 in size. This tighter granularity possible on ATI hardware gives developers more freedom in how they design their shaders and take advantage of dynamic branching and flow control. Designing shaders to make sure every 32x32 block of pixels are doing the same thing is more difficult than only needing to worry about every 4x4 block of pixels.”

AnandTech.com

 

“With flow control active, the ATI cards are also much faster than their NVIDIA counterparts. This is the sort of shader that can benefit from ATI's finer threading granularity for looping and branching, obviously.”

5105595[/snapback]

HDR se bedre ut på ATI kort? Den konklusjonen må du lengre ut på landet med. Forøvrig har quoten din lite eller ingenting med HDR-kvalitet eller full SM3.0-støtte å gjøre, den omhandler hensyn å ta med tanke på ytelse.

 

ATI støtter ikke vertex texturing, som er en del av SM3.0-spesifikasjonen. (Men det er ikke dermed sagt at ATI er dårligere.)

 

Det ryktes at grunnen til at NVidia GPUer feiler tester, er at teksturfiltreringen er annerledes, men ikke dårligere, enn Microsofts referanserendrer. Driverne får jo tross alt WHQL-sertifisering, så det er neppe noe alvorlig uansett.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...