Gå til innhold

Test: Asus GeForce GTX 680 DirectCU II 4 GB


Anbefalte innlegg

Videoannonse
Annonse

Lav støy, bra! Men 7970 GHz var jo overlegen.. nVidia Geforce GTX680, originalen, var jo bedre i mange av spillene.. Rart :)

Mer VRAM betyr ofte at latencier må kuttes ned på, og at strømforbruk går opp. Ettersom Kepler Boost baserer seg på fysiske målinger av strømforbruk vil de to ekstra gigabytene med VRAM spise litt mer av effektbudsjettet enn 2GB-variantene, som betyr mindre Boost og mindre ytelse.

EDIT: Ser også at dette kortet trekker mindre strøm enn stock 680, som også betyr mindre Kepler Boost.

 

Det er flott å se at dere har fått på plass en ny testbenk og fått gjennomkjørt nye tester, selv om testutvalget muligens er noe AMD-favoriserende.

Endret av arni90
  • Liker 1
Lenke til kommentar

Har disse kjølerne på mine 670er og de kjøler noe enormt samtidig som de er stille, fantastiske kort.

 

Om du først kjøper ett 680, er det trolig bare fordi du har penger til overs, siden ytelsen over 670 er minimal. Hvis du faktisk har penger å sløse på 680, ville jeg heller lagt inn enda litt mer å skaffet 2 670er. Utrolig fornøyd jeg!

Lenke til kommentar

Har disse kjølerne på mine 670er og de kjøler noe enormt samtidig som de er stille, fantastiske kort.

 

Om du først kjøper ett 680, er det trolig bare fordi du har penger til overs, siden ytelsen over 670 er minimal. Hvis du faktisk har penger å sløse på 680, ville jeg heller lagt inn enda litt mer å skaffet 2 670er. Utrolig fornøyd jeg!

 

eller kjøpe 2 680 for det aller beste ^^ men er enig i at det er ren sløsing :D

Lenke til kommentar

Dette kortet virker for meg litt ubrukelig, Matrix kortet er jo 600,- kr billigere og definitift kraftigere, og hvis man må ha nVidia og eller kjøleløsningen så kan man jo gå for 670 versjonen, det har jo 2GB minne så det yter sikkert bedre enn 680 4GB ironisk nokk... :p

  • Liker 1
Lenke til kommentar

Noe småpirk:

Når man masseproduserer grafikkprosessorer er det nemlig alltid forskjeller i kvaliteten på kjernene.

 

Slike forskjeller kan slå ut med opp mot 1 – 2 prosent i spill, mens syntetiske tester ikke påvirkes like mye. Etter alle solemerker har vi hatt uflaks med kortet vi fikk fra Asus, og prosessoren på dette har trolig ligget i den nedre delen av skalaen. Referansekortet, derimot, har vært ett av de desidert beste.

Dette gjelder kun Kepler-serien til Nvidia, det gir et utslag i Boost-nivåene ettersom Boost baserer seg på fysiske målinger på kretskortet og varianser i brikkenes strømforbruk/klokkefrekvens/spenningskrav gir da utslag på "Kepler Boost." AMDs Turbo-modus bruker Powertune-teknologien (som baserer seg kalkulering av strømforbruk basert på spenning/klokkefrekvens og målere for hvor stor andel av GPUen som er belastet) for å øke klokkefrekvensen når strømforbruket er under et visst nivå, dette fører til et skille der alle AMD-kort med Boost yter identisk mens ingen Nvidia-kort med Boost yter identisk i dag.

 

Selv om 4 GB dedikert minne på grafikkortet kanskje kan fremstå som litt overdrevent, og neppe vil gjøre all verden på lavere oppløsninger, har vi forventninger om at på de aller høyeste nivåene vil dette kunne sparke skikkelig fra.

Litt rask matte: 192GB/s delt på 60fps = 3.2 GB / frame

Båndbreddeforbruket per frame er 2-3 ganger så mye som mengden data i bruk, og det er ingen minnekontroller som klarer å oppnå maksimal teoretisk båndbredde.

Altså kan et GTX 680 bruke et sted rundt 1 til 1.5 GB med data per frame om det skal levere 60 fps. Oppløsning har ingenting å si her, GTX 680 har rett og slett ikke båndbredden til å bruke mer data per frame ved 60 fps. Det kan derimot ha nytteverdi om man kjører tre eller fire kort i SLI (ettersom hvert kort bare må levere 60/antall GPUer frames per sekund,) eller har mål om å nå 20-30 fps (det er rimelig søkt.)

 

Det er absolutt noen som vil kunne dra nytte av dette, men det er på ingen måte de som kjøper et eller to kort.

 

Kjøleren fremstår på sin side som forventet – stor og solid, med kraftige kjølerør tytende ut til alle kanter.

Varmerør mener dere vel?

 

Vi benytter dog «boost»-modusen i våre tester, som hever denne til 1058 MHz når det er mulig.

Det er vel mer riktig å si at kortet har 1006MHz som minstefrekvens og har en turbo-modus som gjennomsnittlig skal ligge på 1058MHz?

 

Ifølge ASUS selv har dette kortet et strømforbruk på opp til 225W.

 

Hvorfor tester dere Metro 2033 med PhysX aktivert? Poenget med slike tester som dette er å belaste skjermkortene identisk for å se hvilket som er best, det gir lite mening å gi forskjellig arbeidsbelastning til AMD- og Nvidia-kort bare fordi PhysX er inkludert i spillet. Dere burde i det minste teste med PhysX både av og på da.

Lenke til kommentar

Øh. Kepler-boost. Wtf, er det?

 

En av de gode grunnene til at jeg aldri gadd interessere meg ordentlig for skjermkort-terminologien, når den så smått tok av på nittitallet. Er nesten grønn om skjermkort. Bortsett fra litt ting som slot, minnebåndbredde, produsentnavn, directx og litt.

 

Vet at Kepler var en av de store innen utviklingen av astronomi med mere.

Endret av G
Lenke til kommentar

Mer VRAM betyr ofte at latencier må kuttes ned på, og at strømforbruk går opp. Ettersom Kepler Boost baserer seg på fysiske målinger av strømforbruk vil de to ekstra gigabytene med VRAM spise litt mer av effektbudsjettet enn 2GB-variantene, som betyr mindre Boost og mindre ytelse.

EDIT: Ser også at dette kortet trekker mindre strøm enn stock 680, som også betyr mindre Kepler Boost.

Du er nok inne på noe her, Asus burde nok kompensert med 5-15W mer i power target.

Litt rask matte: 192GB/s delt på 60fps = 3.2 GB / frame

Båndbreddeforbruket per frame er 2-3 ganger så mye som mengden data i bruk, og det er ingen minnekontroller som klarer å oppnå maksimal teoretisk båndbredde.

Altså kan et GTX 680 bruke et sted rundt 1 til 1.5 GB med data per frame om det skal levere 60 fps. Oppløsning har ingenting å si her, GTX 680 har rett og slett ikke båndbredden til å bruke mer data per frame ved 60 fps. Det kan derimot ha nytteverdi om man kjører tre eller fire kort i SLI (ettersom hvert kort bare må levere 60/antall GPUer frames per sekund,) eller har mål om å nå 20-30 fps (det er rimelig søkt.)

Hvilken oppløsning og innstillinger tenker du på nå?

F.eks. 2560x1600 med 16x MSAA skulle vel bruke ~250MB og dataen er vel inn og ut typisk 2-3 ganger avhengig av render passes (typisk for deffered shading), så jeg tror du overdriver litt.

 

Selv om minnebåndbredden ikke er imponerende for GK104 så er likevel raster-ytelsen en større flaskehals i de fleste situasjoner.

 

Øh. Kepler-boost. Wtf, er det?

Kepler-boost er boost-funksjonaliteten som kom med den nye Kepler-generasjonen av grafikkbrikker fra Nvidia. Når GPUen er under et satt power target og temperatur vil den kunne klokke opp GPUen opptil rundt 10%. Hvis GPUen skulle bli for varm kan den også klokkes ned. Dette gjør at ytelsen til GPUen varierer under bruk, og at ytelsen faller sakte under bruk. Ustabil bilderate gjør at spillopplevelsen oppleves mye mer hakkete.
  • Liker 1
Lenke til kommentar

Du er nok inne på noe her, Asus burde nok kompensert med 5-15W mer i power target.

Hvilken oppløsning og innstillinger tenker du på nå?

F.eks. 2560x1600 med 16x MSAA skulle vel bruke ~250MB og dataen er vel inn og ut typisk 2-3 ganger avhengig av render passes (typisk for deffered shading), så jeg tror du overdriver litt.

 

Selv om minnebåndbredden ikke er imponerende for GK104 så er likevel raster-ytelsen en større flaskehals i de fleste situasjoner.

Jeg tviler sterkt på at minnekontrolleren til Kepler oppnår 100% utnyttelse av teoretisk båndbredde, og med anisotropisk filtrering vil båndbreddebruken mangedobles.

Lenke til kommentar

Jeg tviler sterkt på at minnekontrolleren til Kepler oppnår 100% utnyttelse av teoretisk båndbredde, og med anisotropisk filtrering vil båndbreddebruken mangedobles.

Sant nok, det er peak load som er kritisk. Fragment-prosessering er langt mer minnekrevende enn vertex-prosessering i løpet av et bilde.

 

Jeg var mer interessert i tallene bak resonnementet :)

Lenke til kommentar

Sant nok, det er peak load som er kritisk. Fragment-prosessering er langt mer minnekrevende enn vertex-prosessering i løpet av et bilde.

 

Jeg var mer interessert i tallene bak resonnementet :)

Jeg tenker som så at det er teksturer som spiser mesteparten av båndbredden, og dette da betyr at minnebåndbredden blir spist opp ganske fort om man skal gjøre noen form for teksturfiltrering.

Lenke til kommentar

Jeg tenker som så at det er teksturer som spiser mesteparten av båndbredden, og dette da betyr at minnebåndbredden blir spist opp ganske fort om man skal gjøre noen form for teksturfiltrering.

Både ja og nei. Anisotropic filtering medfører selvsagt mye mer trafikk, men bilinear/trilinear filtering trenger ikke øke trafikken så veldig mye innenfor hver teksturblokk.

 

Men hvilken oppløsning og innstilling var det du tenkte ville trenge 1-1.5 GB/frame i trafikk?

Lenke til kommentar

Litt rask matte: 192GB/s delt på 60fps = 3.2 GB / frame

Båndbreddeforbruket per frame er 2-3 ganger så mye som mengden data i bruk, og det er ingen minnekontroller som klarer å oppnå maksimal teoretisk båndbredde.

Altså kan et GTX 680 bruke et sted rundt 1 til 1.5 GB med data per frame om det skal levere 60 fps. Oppløsning har ingenting å si her, GTX 680 har rett og slett ikke båndbredden til å bruke mer data per frame ved 60 fps. Det kan derimot ha nytteverdi om man kjører tre eller fire kort i SLI (ettersom hvert kort bare må levere 60/antall GPUer frames per sekund,) eller har mål om å nå 20-30 fps (det er rimelig søkt.

1 til 1.5GB med data per frame? Det er heller ikke slik at all data som ligger i vram må brukes i hver eneste frame for at det skal å noe fordel i å ligge der.

La oss si vi har to skjermkort med lik begrenset minnebåndredde, minnekontroller og 2GB vram. Begge bruker all av minnet, men skjermkort 1 har ingen minnebåndbredde besparene funksjonalitet og har fullt en stor del av minnet med framebuffer data; høy oppløsning, høy grad MSAA. Skjermkort 2 er pakket med minnebåndbredde besparene funksjonalitet (z komprimering, farge komprimering, texture komprimering, early-z osv) og istedet for veldig høy framebuffer oppløsning og MSAA er en stor del av minnet blitt fylt med teksturer.

Hvilket av skjermkortene tror du har mest minnetrafikk?

 

Forholdet mellom minnebåndbredde og minnemengde er høyst relativt og det hadde blitt vanskelig komme med en regel som samtidig hadde tatt med Xbox360 sin 10MB eDRAM med 256GB/s båndbredde. Med dagens spill har mer enn 2GB vram dog lite for seg for single GPU, da man må øke data mengden med svært båndbredde krevende framebuffer data for å få nytte av det.

Endret av MistaPi
Lenke til kommentar

Både ja og nei. Anisotropic filtering medfører selvsagt mye mer trafikk, men bilinear/trilinear filtering trenger ikke øke trafikken så veldig mye innenfor hver teksturblokk.

 

Men hvilken oppløsning og innstilling var det du tenkte ville trenge 1-1.5 GB/frame i trafikk?

Jeg tenkte ikke på en gitt oppløsning eller innstilling, jeg tenkte på hvor mye VRAM som var praktisk mulig å bruke for et GTX 680 i spill, for dette er

1 til 1.5GB med data per frame? Det er heller ikke slik at all data som ligger i vram må brukes i hver eneste frame for at det skal å noe fordel i å ligge der.

 

Forholdet mellom minnebåndbredde og minnemengde er høyst relativt og det hadde blitt vanskelig komme med en regel som samtidig hadde tatt med Xbox360 sin 10MB eDRAM med 256GB/s båndbredde. Med dagens spill har mer enn 2GB vram dog lite for seg for single GPU, da man må øke minnemengden med svært båndbredde krevende framebuffer data for å få nytte av det.

Poenget er at om et skjermkort med 192GB/s med båndbredde skal levere 60 bilder i sekundet holder det med 2GB med VRAM, om kompresjon er i bruk eller ikke har ingenting å si på hvor mye VRAM som kan brukes (jeg antar at data fortsatt er komprimert når det ligger i VRAM.) Ellers kan det brukes til caching for å redusere lastetider, men med minst 4GB/s mot CPU burde ikke behovet for å lagre ekstra data i VRAM for caching være så voldsomt stort.

 

For å kunne nyttegjøre seg mer VRAM må man derfor øke tidsbudsjettet for skjermkortet, eneste måte å gjøre dette på er å senke framerate-målet (enten ved å akseptere lavere framerate eller bruke alternate frame rendering og flere GPUer.)

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...