Gå til innhold

Nvidia forbereder G80


Anbefalte innlegg

Videoannonse
Annonse

Jeg har lest rykter om ekstremt strømforbruk på G80, stemmer det?

 

DirectX10 er ikke noe stort. Og det vil ta lang tid før programvare utnytter det.

 

Men det skal bli spennende å følge med.

 

BTW: det hadde vært interessant om noen hadde laget en gpu med 128 pipelines og litt lavere frekvens, for å sammenligne ytelse/effektforbruk i forhold til denne.

Lenke til kommentar
Jeg har lest rykter om ekstremt strømforbruk på G80, stemmer det?

 

DirectX10 er ikke noe stort. Og det vil ta lang tid før programvare utnytter det.

 

Men det skal bli spennende å følge med.

 

BTW: det hadde vært interessant om noen hadde laget en gpu med 128 pipelines og litt lavere frekvens, for å sammenligne ytelse/effektforbruk i forhold til denne.

6432284[/snapback]

 

Nuvel, bl.a. Flight Simulator X vil være laget for DirectX 10. I tillegg vil vi nok se flere spill som kommer i månedene rundt og etter Vista som utnytter det.

Lenke til kommentar

Crysis vil også ha støtte for DX10, og dette spillet gleder jeg meg til, så blir nok et DX10 kort meg i løpet av vinteren.

 

spørsmålet er om det blir ati eller nvidia, har hørt at ati får "full" dx10 støtte mens nvidia bare har "delvis" støtte for det. men det gjenstår jo å se hvem som leverer mest ytelse for pengene

Lenke til kommentar

DirectX 10 er ikke noe stort? Sier hvem? Programvare vil utnytte seg av WPF for å få programvare til å se bra ut.

 

Jeg skal kjøpe meg en stasjonær om rundt 9 måneder, da mest sannsynlig med denne grafikkmodulen, en hybrid-harddisk og en 64-bits dobbeltkjerne CPU.

Lenke til kommentar

Jeg har lest rykter om ekstremt strømforbruk på G80, stemmer det?
tror dette gjelder ATI`s nye kort. men vi blir nok og se litt økning på G80 også. skal jeg gjette litt tipper jeg G80 havner der x1900 serien ligger i dag.

 

 

angående 120 pipelines og lav frekvens, tror jeg at det er slik at det er proposjonalt med strømforbruk mer eller minder, men høy frekven gjør vel ikke ting bedre

Lenke til kommentar
Jeg har lest rykter om ekstremt strømforbruk på G80, stemmer det?

6432284[/snapback]

Nei, det stemmer ikke... nVidia har lagt ned mye jobb i å begrense strømbruken i G7x, og det kommer til å bli gjort det samme i G80

 

 

Når det gjelder spessifikasjoner på brikken, så bør dere ta The Inquirer (les: Se & Hør) med en klype salt...

 

At nVidia har fått igjen brikken stemmer, vet ikke så mye håndfast om den selv, men planen er oktober, og høres ut som utviklerene er fornøyd med det de fikk tilbake.

Lenke til kommentar

Etter det jeg har forstått kan man ikke bare multiplisere pipelines med Mhz på GPU for å få ytelse, 120 pipelines vil ikke gi en veldig ytelsesøkning med mindre Gpuen kjører på en ekstrem frekvens.

 

Jeg har meget liten tro på at G80 blir mye varmere enn R600, da nVidia sine GPUer er mest effektgjerrige i dag. (ja, de har begge 90nm.)

Men effektforbruket kan bli ekstremt i forhold til dagens skjermkort, hørte rykter om 300watt pr. gpu.

 

Men det med dårlig DX10 støtte hørtes ikke bra ut. betyr det mye dårligere ytelse i DX10 spill?

Lenke til kommentar
Men det med dårlig DX10 støtte hørtes ikke bra ut. betyr det mye dårligere ytelse i DX10 spill?

6432566[/snapback]

Det er ikke noe galt med DirectX 10, er bare noen Linux-gutter her som er litt skeptiske...

 

G80 støtter DirectX 10 og Shader Model 4.0 100%

 

Regner med at første generasjon DX10 kort kommer til å være ganske optimaliserte mot DirectX 9 også.

Lenke til kommentar
Jeg har lest rykter om ekstremt strømforbruk på G80, stemmer det?

Hvis det strømforbruket som er forespeilet stemmer så gjelder det nok for dual GPU kort.

 

DirectX10 er ikke noe stort.

Forsatt farer du med dette feilaktige utsagnet. :nei:

 

BTW: det hadde vært interessant om noen hadde laget en gpu med 128 pipelines og litt lavere frekvens, for å sammenligne ytelse/effektforbruk i forhold til denne.

6432284[/snapback]

Det kommer ann på hva du mener med pipelines og egenskapene til disse.

Lenke til kommentar

Microsoft har jo gått ut og sagt at DX10 skal øke ytelsen i spill med 6-8 ganger... (!)

 

DirectX 10 will increase game performance by as much as six to eight times. Much of that will be accomplished with smarter resource management, improving API and driver efficiencies, and moving more work from the CPU to the GPU. "The entire API and pipeline have been redesigned from the ground-up to maximize performance, and minimize CPU and bandwidth overhead," according to Microsoft. Furthermore, "The idea behind D3D10 is to maximize what the GPU can do without CPU interaction, and when the CPU is needed it’s a fast, streamlined, pipeline-able operation." Giving the GPU more efficient ways to write and access data will reduce CPU overhead costs by keeping more of the work on the video card."

 

http://www.tweaksrus.com/index.php?option=...d=443&Itemid=43

 

Har lest dette flere andre plasser også, men det virker jo ufattelig usannsynlig egentlig.

Lenke til kommentar
spørsmålet er om det blir ati eller nvidia, har hørt at ati får "full" dx10 støtte mens nvidia bare har "delvis" støtte for det. men det gjenstår jo å se hvem som leverer mest ytelse for pengene

6432347[/snapback]

Dette er enten eller. Du tenker nok her på at R600 vil ha et unified shader arkitektur mens G80 tyder på å bli et mer tradisjonelt design. Vel, USA er ikke et krav for DX10 støtte.

Lenke til kommentar
Jeg har meget liten tro på at G80 blir mye varmere enn R600, da nVidia sine GPUer er mest effektgjerrige i dag. (ja, de har begge 90nm.)

nVidia har en del "catching up to do" bl.a mtp dynamic branching ytelse som ATi allerede har på plass. Så ikke vær så overbevist om at nVidia vil forsette å være overlegent på dette område.

Lenke til kommentar
Microsoft har jo gått ut og sagt at DX10 skal øke ytelsen i spill med 6-8 ganger... (!)

 

DirectX 10 will increase game performance by as much as six to eight times. Much of that will be accomplished with smarter resource management, improving API and driver efficiencies, and moving more work from the CPU to the GPU. "The entire API and pipeline have been redesigned from the ground-up to maximize performance, and minimize CPU and bandwidth overhead," according to Microsoft. Furthermore, "The idea behind D3D10 is to maximize what the GPU can do without CPU interaction, and when the CPU is needed it’s a fast, streamlined, pipeline-able operation." Giving the GPU more efficient ways to write and access data will reduce CPU overhead costs by keeping more of the work on the video card."

 

http://www.tweaksrus.com/index.php?option=...d=443&Itemid=43

 

Har lest dette flere andre plasser også, men det virker jo ufattelig usannsynlig egentlig.

6432635[/snapback]

 

6-8 ganger mindre overhead enn på tidligere DirectX versjoner ja. Ikke 6-8 ganger raskere spill. Med andre ord er det betydelig med ytelse å hente fra det faktum at DX10 er bygget fra scratch uten å drasse emd seg bakoverkomptatabilitet, men vi snakker nok likevel om noen litt mer beskjedne ytelsestall enn 800% lol =)

 

Effektivitet er den største nyheten i DX10 IMO.... og det er også det viktigste oppdateringen vi kunne fått.

 

-Stigma

Endret av Stigma
Lenke til kommentar
Eneste nyhet i dx10 er vel støtte for shader v4 ... som ikke er noe annet enn noen småkule tillegg, og noen forbedringer her og der i shaderen.

6432593[/snapback]

Ikke bare Pixel Shader 4.0, men også "geometry shaders".

Unified shader ALU'er er jo også ganske spennende, dog tror jeg ikke dette er et DX10-krav, men noe hver podusent av DX10-kompatible prosessorer kan utvikle og implementere selv.

Det har også vært snakk om virtualiserings-lignende greier med DX10 hvor flere programmer kan bruke maskinvaren på et DX10-kort samtidig, og dele minneresursene.

 

Edit: Forøvrig er jo ikke DX10 bakoverkompatibel mot f.eks DX9.0c/DX8.1 fordi DX10 er så fundamentalt forskjellig. XP vil heller ikke få DX10 siden drivermodellen i Vista som muliggjør DX10 er veldig anderledes.

Så det er mere enn bare Pixel Shader 4.0-støtte som er nytt i DX10. Alt er visstnok nytt.

Vista vil få en egen DX9-utgave (tror den heter DX9.0n eller noe slikt) for bakoverkompatabilitet.

 

Kilder: driverheaven.net: DX10 Briefing, HardOCP: DX10 and The Future of Gaming, en.wikipedia.org/wiki/Directx.

Endret av skag1
Lenke til kommentar

Vil vi se et stort hopp i DX9 ytelsen og? eller vil fokuset ligge på DX10?

 

DX9 ytelsen bør jo ligge på 100% av hva kortet er godt for, siden alle som kjøper kortet nå i høst må vente til minst i januar før de får utnytta DX10.

Endret av O.J
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...