Gå til innhold

G92 er GeForce 8800 GT


Anbefalte innlegg

sant det Vinci

 

Som navnet antyder blir ytelsen trolig noe lavere enn for dagens GeForce 8800 GTS. Tidlige rapporter peker på en poengsum i standardtesten i 3DMark06 på ca 10800 poeng.

 

gts gjør ikke mere enn 8500 hos meg med stock system med e6600. 10800 nåes på 620/1800 og cpu på 3,4.

 

da blir det litt drøyt og kale det dårligere enn gts, kommer vel også litt ann på prosessor som er med

Lenke til kommentar
Videoannonse
Annonse
Jeg reagerte også på 10800 i 3dmark06 for 8800GT siden det er tøft å få det med GTS. Men det bekrefter kanskje ryktene om en ny 8800GTS med flere stream processsors.

9635795[/snapback]

90nm vs 65nm er ganske stor forskjell da :-)

 

Jeg er ikke overrasket om man kan med ekstra kjøling, clocke 8800 gt forbi dagens 8800 gtx / ultra, såfremt 8800 gt har bra minne.

Lenke til kommentar

Ser veldig frem til G92 kommer, menjeg tror ikke jeg får mye bruk for 64bit FP i første omgang. Håper faktisk at de bremser litt på 64bit FP throughput av effektmessige hensyn.

 

Også veldig usikker på hva Theo mener med at ATI har en fordel ved bruk av flere kort. Når en kjører GPGPU på nvidia kort så slår en av SLI og det er like greit fordi en ønsker gjerne å være veldig detaljert i hvor data plasseres rent fysisk. Å slå sammen kort kan ha veldig uheldige resultater om en må begynne å synkronisere på tvers av flere GPUer eller hente data fra andre GPUer. Det er nok mye bedre å la applikasjonen som kjører på CPU håndtere parallelliteten eksplisitt. Generelt set bør parallellitet håndteres eksplisitt. God regel det der. ;)

Lenke til kommentar
Ser veldig frem til G92 kommer, menjeg tror ikke jeg får mye bruk for 64bit FP i første omgang. Håper faktisk at de bremser litt på 64bit FP throughput av effektmessige hensyn.

Jeg som blandt annet bruker CUDA mye i jobben ser frem til dette... :thumbup:

 

Men kan også bruke flere nVidia kort i SLI i GPGPU modus. Flere av Tesla-produktene til nVidia inneholder flere kort... Men som sagt, her må man være obs på hvor parallelliserbart det man skal kjøre er!!

Lenke til kommentar
Også veldig usikker på hva Theo mener med at ATI har en fordel ved bruk av flere kort.

Jeg tror han tenker på Crossfire med inntil 4 kort på RD790 brikkesettet. Jeg tror også han feilaktig tenker at Crossfire-modus må være slått på når man har flere skjermkort i maskina. Akkurat som man kan bruke flere geforce grafikkort på DR790 (som ikke støtter SLI), altså i individuell modus.

Lenke til kommentar

Hehe jeg venner meg ikke helt til denne Theo på TheInq.. nå skjønte jeg ingen ting.

 

Gleder meg også til G92, men først og fremst pga. alle de ok funksjoner man begynner å få på nye kort nå.

 

Jeg spilte akkurat COD4 med et 7600GS på 24" LCD, og selv i 1600*900 gikk det tålelig bra med 4xAA. Det som gleder meg mest om dagen er alle de flotte funksjonene man får i nyere kort, samt lavere strømforbruk.

Endret av Theo343
Lenke til kommentar

Jeg som blandt annet bruker CUDA mye i jobben ser frem til dette... :thumbup:

 

Men kan også bruke flere nVidia kort i SLI i GPGPU modus. Flere av Tesla-produktene til nVidia inneholder flere kort... Men som sagt, her må man være obs på hvor parallelliserbart det man skal kjøre er!!

Jeg skal begynne med CUDA på jobben nå. Det jeg har pløyd gjennom av dokumentasjon hittil tilsier at SLI bør deaktiveres ved GPGPU bruk. Var også av den oppfattning av at de kommende S870 og D870 Tesla produktene ikke kjører i SLI.

 

Fra manualen:

 

"3.4 Multiple Devices

The use of multiple GPUs as CUDA devices by an application running on a multi-GPU system is only guaranteed to work if theses GPUs are of the same type. If the system is in SLI mode however, only one GPU can be used as a CUDA device since all the GPUs are fused at the lowest levels in the driver stack. SLI mode needs to be turned off in the control panel for CUDA to be able to see each GPU as separate devices."

 

Ut fra dette er SLI tydeligvis en mulighet men, det må jo være ugunstig å hente data fra __DEVICE__ domain (DRAM) på en annen GPU av ytelsesmessige hensyn, eller er det slik at DRAM bare er speilet? Kan forstå at realtime applikasjoner som spill kan tjene noe på SLI, men throughput applikasjoner slik jeg skal begynne med, vil nok kjøre raskere om SLI ikke er i bruk. Kjører da helt separate oppgaver på hver GPU.

 

Hva slags type beregninger er det du kjører via CUDA?

Endret av Anders Jensen
Lenke til kommentar

Folk kjører vel med antialiasing på om dagene også, så det kan ha noe å si mtp litt lavere minnebåndbredde på G92 (256-bit mot 320/384-bit på G80GTS/GTX). Kanskje ikke allverdens, men man får se.

 

(Edit: Når jeg tenker etter, så var testene jeg posta i den andre tråden med AA. Så den yter jo bedre enn 8800GTS slik sett i alle fall. Men vi får vel se tester uten AA også).

Endret av Smirnoff
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...