Gå til innhold

Test: HD 7970 CrossfireX og GTX 680 SLI


Anbefalte innlegg

Hardware. dere kan med fordel gå høyere på oppløsningen på testene deres

Jeg ønsker og vite litt mer ang FPS i spill ved 3x full hd skjermer. (5K x 1K )

og helst en liten notis om skjermkortene støtter 3 eller fler skjermer sammenkoblet..

 

Ellers fin artikkel... :)

Lenke til kommentar
Videoannonse
Annonse

En SLI vs Crossfire sammenligning blir temmelig meningsløst når dere knapt bruker noe som helst tid til å sammenligne og gå i dybden av microstuttering som generelt vil være den største drawbacken med slike løsninger i utgangspunktet.

 

 

Her har jo visstnok nVIDIA fikset på endel med sin Kepler serie (GTX 670, 680, 690 ..) men dere ser altså ut til å fullstendig ignorere dette som gjør sammenligningen noe meningsløs om du spør meg. Dere tar hovedsaklig tallene fra 2x GTX 680 og setter dem opp imot tallene fra 2x HD 7970 helt uten å faktisk gå i dybden i et forsøk på å finne forskjeller (positive og negative) med å kjøre henholdsvis SLI (nVIDIA) kontra Crossfire (AMD).

Lenke til kommentar

Ramguy : Problemet med mikrostuttering er jo at mange opplever dette som et individuelt problem.

Noen spillere legger rett og slett ikke merke til det mens andre er veldig følsomme , personlig er jeg ikke så følsom ovenfor det men så har jeg ikke brukt så mye tid på et SLI / Crossfire oppsett heller da (dvs testet hos en venn men har ikke hjemme).

Sånn sett har jeg personlig forståelse for at man ikke veier så mye på dette i artikkelen, men jeg mener personlig at det er en stor + i favør av Nvidia på akkurat samme måte som Amd sitt flerskjermsoppsett var en stor + for dem når de så og si var enerådende om det på markedet.

Lenke til kommentar

Fin test :D

 

Eneste jeg savnet litt var litt pro og con på SLI og CrossfireX tekknologiene.

For de har vel strengt tatt alltid hatt forskjellige fordeler.

Dette vil jo være avsnitt dere kan dra med videre til neste gang dere tester SLI og CrossfireX også.

 

Selv vurderer jeg en oppgradering til høsten, og vil da primært ha 3 skjermer :p

Skal bli spennende å se hvor disse kortene ligger i september :D

Da er nok "rusket" i driverene rensket opp i også.

Lenke til kommentar

Så, det siste punktet. I ren ytelse stiller AMD sterkt, men de har fortsatt en god del hakk i driveren som bør rettes opp før vi kan gi en direkte kjøpsanbefaling til et slikt oppsett - akkurat det håper jeg leserne våre har respekt for. Når nye spill kommer på banen har AMD brukt tid på å få på plass skikkelig støtte i Crossfire. Skyrim er et nytt og godt eksempel, kjøper du et nytt spill vil du at det skal fungere på lanseringsdagen.

 

Heldigvis ser det ut til at AMD har tatt tak i dette nå, som Guru3D skriver (sitat under). Men, når vi da opplever problemer selv 5 månder etter lansering kan vi rett og slett ikke trekke AMD som en "vinner". Samtidig, på grunn av de andre faktorene, har heller ikke gitt en slik tittel videre til Nvidia - men vi har gitt generelle råd ut i fra forskjellige forhold i sakens konklusjon.

 

Med andre ord hadde du/dere allerede forhåndsdømt AMD. Men måtte finne på noe når det viste seg at AMD kortene faktisk var raskere og mer fremtidsrettet enn http://www.hardware.no/artikler/nvidia-geforce-gtx-680/107594

Strek i regningen?

Endret av Revox
  • Liker 4
Lenke til kommentar

Det jeg lurer på er hvorfor ta to referansekort fra AMD og sammenligne de med ikke-referansekort fra EVGA, som er dog SC (Super Clocked)...EVGA vil uansett yte bedre på grunn av dette.

 

Niceone.. Ny test hvor SC kortene er klokket ned til referansehastighet? Eller ny test med referansekort fra Nvidia?

 

Hva er microstuttering ?

Lenke til kommentar

En del tabeller ser märkliga ut med tanke på plassering och rangering, men räknar man med pris i förhållande och en cpu som inte är en flaskhals så är ju AMD den stora vinnaren här. Har man råd med strömkostnader från 2 toppkort så har man nog råd med den extra ström som AMD korten drar.

Lenke til kommentar

-snip snippety snip, det er vanskelig/håpløst å måle strømforbruk på en effektiv måte-

Kan det være et forslag å lese av høyeste målte verdi gjennom testperioden?

Selvfølgelig er ikke det representativt for faktisk bruk, men det kan man ikke si dagens metode er heller.

 

Dere bør også få testet eyefinity når dere først er i gang. Jeg tror også at mange er interessert i hvor mye de har å strekke seg på under overklokking, men det har vel kanskje å gjøre med avtalene deres.

 

Foreløpig tror jeg måten vi i dag gjør det på er god nok, men for fremtidens del så har jeg tenkt på noe slikt ja. Et annet alternativ er å faktisk måle strømforbruket over tid i en eller flere faste tester, men da blir det brått vanskeligere å måle støy og temperatur.

 

Eyefinity-test på et HD 7970-kort med de vanlige utgangene er noe som står på todo-listen min. Akkurat nå jobber vi fortsatt litt med då få inn alt det utstyret som trengs, slik som seks skjermer, stativ, bildespilltere osv. :-)

 

Det jeg lurer på er hvorfor ta to referansekort fra AMD og sammenligne de med ikke-referansekort fra EVGA, som er dog SC (Super Clocked)...EVGA vil uansett yte bedre på grunn av dette.

Niceone.. Ny test hvor SC kortene er klokket ned til referansehastighet? Eller ny test med referansekort fra Nvidia?

Hva er microstuttering ?

 

I testen er det brukt ett kort fra AMD, ett fra Asus, ett fra Nvidia og ett fra EVGA. Asus- og AMD-kortet er identiske, men som beskrevet nederst på side 1 er EVGAs skjermkort klokket ned for å matche standardfrekvensene.

 

Micro stuttering: http://en.wikipedia.org/wiki/Micro_stuttering

 

Så, det siste punktet. I ren ytelse stiller AMD sterkt, men de har fortsatt en god del hakk i driveren som bør rettes opp før vi kan gi en direkte kjøpsanbefaling til et slikt oppsett - akkurat det håper jeg leserne våre har respekt for. Når nye spill kommer på banen har AMD brukt tid på å få på plass skikkelig støtte i Crossfire. Skyrim er et nytt og godt eksempel, kjøper du et nytt spill vil du at det skal fungere på lanseringsdagen.

 

Heldigvis ser det ut til at AMD har tatt tak i dette nå, som Guru3D skriver (sitat under). Men, når vi da opplever problemer selv 5 månder etter lansering kan vi rett og slett ikke trekke AMD som en "vinner". Samtidig, på grunn av de andre faktorene, har heller ikke gitt en slik tittel videre til Nvidia - men vi har gitt generelle råd ut i fra forskjellige forhold i sakens konklusjon.

 

Med andre ord hadde du/dere allerede forhåndsdømt AMD. Men måtte finne på noe når det viste seg at AMD kortene faktisk var raskere og mer fremtidsrettet enn http://www.hardware....-gtx-680/107594

Strek i regningen?

 

Nei, det er ikke det jeg skriver hverken her eller i testen.

 

Hovedproblemet er ikke nødvendigvis hva AMD har gjort tidligere, men denne testen viser at selv i dag - fem måneder etter lansering - er det fortsatt rusk som burde vært ryddet vekk.

Lenke til kommentar

Du tenker kanskje på det Nvidia kaller "Improved Frame rate Metering", som ble annonsert nylig?

Noen som vet om dette "holder igjen" renderingen av bildet eller bare visningen av det? I det siste tilfellet har de bare endret feilen, ikke fjernet eller redusert den. Det vil fortsatt bli microstuttering på bevegelse. Begge alternativene vil dog tilsynelatende se like gode ut med de metodene som i dag brukes til måle effekten av dette.

Lenke til kommentar

Hvorfor i alle dager skulle det være tyngre for skjermkortet å drive et spill på en 30" skjerm fremfor en 20" hvis oppløsningen er den samme?

 

Fordi skjermer har en native oppløsning så 20" og 30" vil aldri kjøre på samme oppløsning. Gjør du det så får du elendig bilde.

Lenke til kommentar

En 50" TV har samme oppløsning som en vanlig 20" PC-skjerm. Det er fortsatt ikke elendig bilde. For alt skjermkortet vet, så er TV-en og skjermen identisk.

 

Det bør heller stå at en er rustet for å spille på høy oppløsning. Stor skjerm =/= høy oppløsning. Liten skjerm =/= lav oppløsning.

Lenke til kommentar

Hovedproblemet er ikke nødvendigvis hva AMD har gjort tidligere, men denne testen viser at selv i dag - fem måneder etter lansering - er det fortsatt rusk som burde vært ryddet vekk.

 

Så fordi to spill (som er helt uinteressante for mange, meg inkludert) har bugs i grafikken, noe som mest sannsynlig er utvikleren sin skyld, så skal altså AMD bli berøvet seieren sin?

 

Jeg klarer ikke finne i artikkelen en ganske enkel konklusjon som sier at "AMD leverer best ytelse i dagens og fremtidens spill, og koster attpåtil mindre". Det er en konklusjon som hører hjemme i denne testen.

 

La oss sammenlikne overskriftene på testene der hhv nVidia og AMD gjorde det best:

 

nVidia gjør det best: "Nå har Nvidia det raskeste skjermkortet"

AMD gjør det best: "Hvem er kongen av doble skjermkort?"

 

Jeg opplever rett og slett at dere frarøver AMD seieren sin, mens dere lovpriser nVidia når de er på topp... synd å si det men det stinker av dette...

Endret av Visjoner
  • Liker 3
Lenke til kommentar

Hovedproblemet er ikke nødvendigvis hva AMD har gjort tidligere, men denne testen viser at selv i dag - fem måneder etter lansering - er det fortsatt rusk som burde vært ryddet vekk.

Når dere tester med lanseringsdriveren (følge "hvilke drivere bruker vi?") er det kanskje ikke så rart at ingenting har skjedd.

  • Liker 1
Lenke til kommentar

AMD fanboy her, men må ærlig innrømme at Nvidia er bedre på SLI. Både grunnet stuttering og driverproblematikk, men ikke minst strømforbruk og varmeutvikling som teller mer i flerkortskonfigurasjon enn når kortene brukes alene. Men Nvidia henger etter hva gjelder regnekraft (hashing), mulig det er som skinner igjennom på DX11 testene hvor forskjellene er mindre - det går jo på shadere og regnekraft. Da jeg miner BitCoins så blir jo AMD det klare valget, 7970 yter 685 Mh/s, GTX680 yter 115 Mh/s. Gjør at AMD kortet betaler seg selv i løpet av et år om kursen holder seg.

 

Nvidia vant denne SLI og gaming ytelsesrunden.

Lenke til kommentar

AMD fanboy her, men må ærlig innrømme at Nvidia er bedre på SLI. Både grunnet stuttering og driverproblematikk, men ikke minst strømforbruk og varmeutvikling som teller mer i flerkortskonfigurasjon enn når kortene brukes alene. Men Nvidia henger etter hva gjelder regnekraft (hashing), mulig det er som skinner igjennom på DX11 testene hvor forskjellene er mindre - det går jo på shadere og regnekraft. Da jeg miner BitCoins så blir jo AMD det klare valget, 7970 yter 685 Mh/s, GTX680 yter 115 Mh/s. Gjør at AMD kortet betaler seg selv i løpet av et år om kursen holder seg.

 

Nvidia vant denne SLI og gaming ytelsesrunden.

Betaler seg dårlig om du trekker fra strømforbruk og nettleie på mange 7970 kort på 100% load døgnet rundt....

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...