Gå til innhold

Test: HD 7970 CrossfireX og GTX 680 SLI


Anbefalte innlegg

Videoannonse
Annonse

GTX6XX har vel også ny teknologi rundt SLI.

 

Du tenker kanskje på det Nvidia kaller "Improved Frame rate Metering", som ble annonsert nylig?

 

Slik jeg har fortstått det gjelder dette foreløpig kun GTX 690.

 

Kepler introduces hardware based frame rate metering, a technology that helps to minimize stuttering. In SLI mode, two GPUs share the workload by operating on successive frames; one GPU works on the current frame while the other GPU works on the next frame. But because the workload of each frame is different, the two GPUs will complete their frames at different times. Sending the frames to the monitor at varying intervals can result in perceived stuttering.

The GeForce GTX 690 features a metering mechanism (similar to a traffic meter for a freeway entrance) to regulate the flow of frames. By monitoring and smoothing out any disparities in how frames are issued to the monitor, frame rates feel smoother and more consistent.

 

Kilde: http://www.geforce.c...rticle-keynote/

Endret av Nilsen
Lenke til kommentar

Hvorfor er ledelsen til nVidia på DX10 "solid" mens ledelsen til AMD på DX11 er "knepen"?

 

Hvorfor anbefaler dere GTX690 i en test hvor dere tester to SLI-oppsett mot hverandre, og hvor AMD stikker av med seieren på DX11-spill, som faktisk er mest aktuelt når man skal kjøpe kort idag?

 

Det virker rett og slett så nVidia-vridd det her at jeg får litt brekninger...

  • Liker 5
Lenke til kommentar

Hvorfor er ledelsen til nVidia på DX10 "solid" mens ledelsen til AMD på DX11 er "knepen"?

 

Hvorfor anbefaler dere GTX690 i en test hvor dere tester to SLI-oppsett mot hverandre, og hvor AMD stikker av med seieren på DX11-spill, som faktisk er mest aktuelt når man skal kjøpe kort idag?

 

Det virker rett og slett så nVidia-vridd det her at jeg får litt brekninger...

 

Da må du kanskje ta av deg dine røde briller?

Lenke til kommentar

Hvorfor er ledelsen til nVidia på DX10 "solid" mens ledelsen til AMD på DX11 er "knepen"?

 

Hvorfor anbefaler dere GTX690 i en test hvor dere tester to SLI-oppsett mot hverandre, og hvor AMD stikker av med seieren på DX11-spill, som faktisk er mest aktuelt når man skal kjøpe kort idag?

 

Det virker rett og slett så nVidia-vridd det her at jeg får litt brekninger...

 

Hvis man regner på den gjenomsnittlige prosentvise ytelsesforskjellen i DirectX 10 og DirectX 11 (som inkluderer 3Dmark), så har AMD et noe større forsprang i DX11 enn det Nvidia har i DX 10 - jeg har rett og slett blandet om skildringene i notatene mine. Beklager denne feilen, det er nå rettet opp.

 

Når det gjelder den andre tilbakemeldingen så tror jeg du ser litt bort i fra et par andre ting som står i det samme avsnittet. Vi gir ikke en direkte kjøpsanbefaling til GTX 690, men vi anbefaler leseren å kikke litt nærmere på GTX 690 eller HD 7990 om man er i den bestemte situasjonen akkurat det avsnittet omtaler.

Lenke til kommentar

Er en liten ting jeg stusser på :

 

Rent teoretisk har :

1x 680 max TDP på 195W Idle ? (Sannsynligvis 10-15 )

1x7970 max TDP på 230W Idle 15

 

Sånn sett så burde man oppnå med 2x680 opp til 490W og med 2x7970 opp til 560W , resultatene fra testen viser dog et avvik i forhold til max TDP på hele 106W hos Nvidia (490W - 384W ), og kun 30W hos Amd (560W-530W). Dette tilsier at man kun oppnår opp til 73,6% av det som sies å være max TDP hos Nvidia mens man er oppe i 93.5% av Max TDP hos Amd.

 

Hvordan henger dette på greip? Hvordan belaster dere kortene for å teste strømbruket? Kjøres kortene i en loop og måler strømforbruket på samme punkt i et enkelt spill eller blir det gjennomsnittet av flere spillmålinger?

Avviket er såpass stort at jeg stusset litt på dette, fint om dere kan avklare det ^_^

 

 

Edit : Selvsagt, det kan være store forskjeller på arkitektur som gjør at Nvidia kortene trenger å jobbe mindre mens Amd kort blir mer belastet, det kan også være driverforskjeller osv, men igjen, jeg lurte litt på dette i og med det var et relativt stort tall. Man skulle jo tro at kortene yter maksimalt og viser det seg at Nvidia kortet har mer å gå på så er det jo flott.

Endret av Malvado
  • Liker 3
Lenke til kommentar

Hvorfor er ledelsen til nVidia på DX10 "solid" mens ledelsen til AMD på DX11 er "knepen"?

 

Hvorfor anbefaler dere GTX690 i en test hvor dere tester to SLI-oppsett mot hverandre, og hvor AMD stikker av med seieren på DX11-spill, som faktisk er mest aktuelt når man skal kjøpe kort idag?

 

Det virker rett og slett så nVidia-vridd det her at jeg får litt brekninger...

 

Hvis man regner på den gjenomsnittlige prosentvise ytelsesforskjellen i DirectX 10 og DirectX 11 (som inkluderer 3Dmark), så har AMD et noe større forsprang i DX11 enn det Nvidia har i DX 10 - jeg har rett og slett blandet om skildringene i notatene mine. Beklager denne feilen, det er nå rettet opp.

 

Når det gjelder den andre tilbakemeldingen så tror jeg du ser litt bort i fra et par andre ting som står i det samme avsnittet. Vi gir ikke en direkte kjøpsanbefaling til GTX 690, men vi anbefaler leseren å kikke litt nærmere på GTX 690 eller HD 7990 om man er i den bestemte situasjonen akkurat det avsnittet omtaler.

 

Først av alt, du skal ha props for at du svarer fort og retter opp en ganske alvorlig feil (feilen var altså å snu på hodet hvilket kort som er betydelig bedre enn det andre i en test der man setter to kort opp mot hverandre)

 

Videre er det ikke meningen å sutre, men jeg må si jeg stusser litt over at du bare fjerner adjektivene du brukte feil vei, istedet for å faktisk skrive det om til det motsatte, som var det resultatet du faktisk fant når du testet. Det er greit når nVidia er best, men det sitter litt lengre inne å bruke slike adjektiver når det gagner AMD?

 

Ellers, mulig jeg gikk glipp av det.. men jeg fant ikke en setning om at DirectX11 faktisk er det mest aktuelle å vektlegge når man skal kjøpe hardware idag? Utifra resultatene i denne testen ville det vel ikke vært feil å utpeke AMD til en ganske klar vinner, spesielt ettersom prisen attpåtil er lavere?

  • Liker 3
Lenke til kommentar

Er en liten ting jeg stusser på :

 

Rent teoretisk har :

1x 680 max TDP på 195W Idle ? (Sannsynligvis 10-15 )

1x7970 max TDP på 230W Idle 15

 

Sånn sett så burde man oppnå med 2x680 opp til 490W og med 2x7970 opp til 560W , resultatene fra testen viser dog et avvik i forhold til max TDP på hele 106W hos Nvidia (490W - 384W ), og kun 30W hos Amd (560W-530W). Dette tilsier at man kun oppnår opp til 73,6% av det som sies å være max TDP hos Nvidia mens man er oppe i 93.5% av Max TDP hos Amd.

 

Hvordan henger dette på greip? Hvordan belaster dere kortene for å teste strømbruket? Kjøres kortene i en loop og måler strømforbruket på samme punkt i et enkelt spill eller blir det gjennomsnittet av flere spillmålinger?

Avviket er såpass stort at jeg stusset litt på dette, fint om dere kan avklare det ^_^

 

Det å måle skjermkorts strømforbruk (og samtidig støy og temperatur) har blitt litt mer vrient de siste årene.

 

For det første bruker produsentene litt for skjellige tall. Det Nvidia oppgir er det tradisjonelle tallet TDP - Thermal design power. Kort og greit er dette et tall som forteller hvor mange watt kjøleløsningen er designet for å ta unna, og sier ikke direkte stort om hvor mye strøm kortet faktisk trekker.

 

AMD har imidlertid begynt å bruke "Maximun Board Power", som kort og greit sier hvor mye effekt det er fysisk mulig for kortet å suge til seg. Det er med andre ord to forskjellige tall som forteller hver sin historie.

 

Jeg innser forøvrig akkurat nå at dette er noe jeg burde merke bedre i spesifikasjonstabellen på en eller annen smart måte - det skal jeg se nærmere på.

 

Så, for å måle det maksimale effektforbruket har man før i tiden brukt programmer som Furmark for å gi skjermkortet 100 % belastning. Det er ikke lenger mulig, siden slike programmer rett og slett overbelaster skjermkortet så mye at de klokkes ned - noe et skjermkort for eksempel kan finne på å gjøre når det blir for varmt.

 

Vi, og de fleste andre, har derfor gått over til å måle effektforbruket som den maksimale verdien vi finner under heftig spilling. Vi bruker da den tyngste testen i Crysis Warhead og følger med på temperatur og frekvenser i GPU-Z samtidig. Noen ganger følger vi også godt med i spill som Metro 2033 eller 3Dmark 11 for å forsikre oss om at ting blir rett. Snittet av tre målinger blir da resultatet vi presenterer.

 

Dette har blitt ytterligere mer vrient nå som Nvidia har tatt i bruk GPU Boost som herjer ytterligere med klokkefrekvensen, så vi passer ekstra godt på at forholdene er de samme for alle skjermkort når vi noterer ned tallene for effektforbruk, temperatur og støy.

Endret av Nilsen
  • Liker 2
Lenke til kommentar

Takk for et utfyldende svar Jørgen, har forståelse for at det ikke blir enklere å teste strømforbruket med tiden og at dette er noe som ikke er like enkelt lenger som før, når man fyrte opp furmark og kunne så og si finne ut hva kortet trakk i watt under full belastning som du sier.

Lenke til kommentar

-snip snippety snip, det er vanskelig/håpløst å måle strømforbruk på en effektiv måte-

Kan det være et forslag å lese av høyeste målte verdi gjennom testperioden?

Selvfølgelig er ikke det representativt for faktisk bruk, men det kan man ikke si dagens metode er heller.

 

Dere bør også få testet eyefinity når dere først er i gang. Jeg tror også at mange er interessert i hvor mye de har å strekke seg på under overklokking, men det har vel kanskje å gjøre med avtalene deres.

Lenke til kommentar

 

[Første sitat er klippet ut mtp. lengde]

 

Hvis man regner på den gjenomsnittlige prosentvise ytelsesforskjellen i DirectX 10 og DirectX 11 (som inkluderer 3Dmark), så har AMD et noe større forsprang i DX11 enn det Nvidia har i DX 10 - jeg har rett og slett blandet om skildringene i notatene mine. Beklager denne feilen, det er nå rettet opp.

 

Når det gjelder den andre tilbakemeldingen så tror jeg du ser litt bort i fra et par andre ting som står i det samme avsnittet. Vi gir ikke en direkte kjøpsanbefaling til GTX 690, men vi anbefaler leseren å kikke litt nærmere på GTX 690 eller HD 7990 om man er i den bestemte situasjonen akkurat det avsnittet omtaler.

 

Først av alt, du skal ha props for at du svarer fort og retter opp en ganske alvorlig feil (feilen var altså å snu på hodet hvilket kort som er betydelig bedre enn det andre i en test der man setter to kort opp mot hverandre)

 

Videre er det ikke meningen å sutre, men jeg må si jeg stusser litt over at du bare fjerner adjektivene du brukte feil vei, istedet for å faktisk skrive det om til det motsatte, som var det resultatet du faktisk fant når du testet. Det er greit når nVidia er best, men det sitter litt lengre inne å bruke slike adjektiver når det gagner AMD?

 

Ellers, mulig jeg gikk glipp av det.. men jeg fant ikke en setning om at DirectX11 faktisk er det mest aktuelle å vektlegge når man skal kjøpe hardware idag? Utifra resultatene i denne testen ville det vel ikke vært feil å utpeke AMD til en ganske klar vinner, spesielt ettersom prisen attpåtil er lavere?

 

Hei igjen,

 

Grunnen til at jeg ikke satte tilbake skildingene med en gang (de er der nå), var fordi jeg rett og slett trengte mer tid til å vurdere hva jeg mener blir rett - vi er tross alt godt utenfor arbeidstid akkurat nå.

 

Jeg er helt enig med deg i at det er viktig å vektlegge DX11 i dag, men hvor tungt dette skal veie er fortsatt et dilemma vi funderer over fra gang til gang. Det er tross alt veldig mange spill som brukes, og lanseres, med DX10. Enkelte titler har også blitt bygget på DX10, og fått DX11-støtte i ettertid. Jeg noterer ned dette innspillet, så skal vi diskutere litt her på huset, hvor mye hver enkelt DX-standard skal veie i totalvurderingen.

 

Så, det siste punktet. I ren ytelse stiller AMD sterkt, men de har fortsatt en god del hakk i driveren som bør rettes opp før vi kan gi en direkte kjøpsanbefaling til et slikt oppsett - akkurat det håper jeg leserne våre har respekt for. Når nye spill kommer på banen har AMD brukt tid på å få på plass skikkelig støtte i Crossfire. Skyrim er et nytt og godt eksempel, kjøper du et nytt spill vil du at det skal fungere på lanseringsdagen.

 

Heldigvis ser det ut til at AMD har tatt tak i dette nå, som Guru3D skriver (sitat under). Men, når vi da opplever problemer selv 5 månder etter lansering kan vi rett og slett ikke trekke AMD som en "vinner". Samtidig, på grunn av de andre faktorene, har heller ikke gitt en slik tittel videre til Nvidia - men vi har gitt generelle råd ut i fra forskjellige forhold i sakens konklusjon.

 

On a recent AMD event we talked about this with AMD Radeon developers, and we have been assured that starting 2012 more people are added to the driver development team, to be able to guarantee you much better game support when the game is actually released.
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...