Gå til innhold

Test: Nvidia GeForce GTX 780 Ti


Anbefalte innlegg

I og for seg greit det, men med "på grunn av Powertune" mener jeg at hver enkelt kort ser ut til å yte forskjellig. Dere har vel også fått med dere "debatten" ? Toms Hardware fikk jo et retail 290X som presterte langt dårligere enn anmelderkortet de mottok, og 290-kortet presterte også bedre. Med tanke på den ujevne klokkehastigheten kortene legger seg på, mener jeg 290 vil være et bedre kjøp foreløpig, inntil 290X får tredjepartskjøler. Det er derfor jeg ikke helt skjønner hvordan dere kan anbefale 290X over lillebroren, som tross alt koster mindre.

http://www.anandtech.com/show/7501/amd-changes-290-series-fan-algorithms

Kort oppsummert:

Forskjellene i ytelse på retail- og presse-kortet til Tom's Hardware kom av at vifta på retail-kortet kjørte over 10% tregere enn vifta på pressekortet, dette har blitt fikset i en av de ørten driveroppdateringene til 13.11 BETA som har kommet de siste ukene.

  • Liker 2
Lenke til kommentar
Videoannonse
Annonse

Hvis referansekortet fra AMD ikke kommer til å bli kjøpt er det jo ingen grunn til å vurdere det opp mot referansekortet fra Nvidia, på samme måte som referansemodellene til GTX 580 og 570 var totalt irrellevante om du verdsatte trommehinnene dine.

Poenget mitt, som tydeligvis gikk dere begge hus forbi, er at Hardware.no sine testresultater for 290X blander Quit- og Uber-mode: enkelte resultater er fra Quiet-mode mens andre er fra Uber-mode. Jeg håper at Hardware.no klarer å holde seg til en modus når de får inn et 290/X med kjøler fra en av partnerne til AMD.

 

Hvordan kan du fortsette å klage på kort og kjølere som fortsatt var mer stillegående og mindre varme enn 290x?

Lenke til kommentar

Det er noe jeg ikke skjønner, og det er hvorfor det er så store forskjeller mellom deres resultater og f.eks Overclock3d.net sine resultater. Et eks er i Metro 2033, hvor dere får en average på 46,3 FPS i full HD, mens Overclock3d får godt over 60 FPS, med samme kort uten overclock.

 

http://www.overclock3d.net/reviews/gpu_displays/nvidia_gtx780_ti_review/14

Dette kan lett forklares med forskjellige innstillinger i spillet. Av en eller annen grunn tester Hardware.no Metro 2033 med GPU accellerated PhysX aktivert, som gjør at Geforce-kortene må jobbe mer mot at Radeon-kortene er avhengig av at det er en god CPU i testriggen, dette gjør forøvrig resultatet rimelig meningsløst.

Lenke til kommentar

http://www.anandtech.com/show/7501/amd-changes-290-series-fan-algorithms

Kort oppsummert:

Forskjellene i ytelse på retail- og presse-kortet til Tom's Hardware kom av at vifta på retail-kortet kjørte over 10% tregere enn vifta på pressekortet, dette har blitt fikset i en av de ørten driveroppdateringene til 13.11 BETA som har kommet de siste ukene.

Testet faktisk 290X for et par dager siden med de nye driverne, og kortet holdt seg stort sett stabilt på 1000mhz kjernehastighet. Støyen var riktignok ganske ille! Planen var å sammenligne med 290 men har ikke fått tid. Disse driverne har jo ikke HW.no brukt uansett, så jeg mener fortsatt det er merkelig at de anbefaler 290X over 290 når prisforskjellen er såpass stor.

 

Når det gjelder referanse vs tredjepart så mener jeg fortsatt det blir feil å sammenligne tredjeparts mot referanse. Hvis argumentet er at ingen kjøper referansekortet til AMD pga støyen, kan man jo også si at ingen kommer til å kjøpe referansekortet til nV når customkortene som kommer er såpass mye bedre? Er ganske mye grumsete argumenter på dette forumet, for eksempel yter jo enkelte custom 780 kort bedre enn 290 og til tider 290X, men det har jeg ikke sett så veldig mange ta hensyn til. Man sammenligner heller med de gamle anmelderresultatene fra 780 launch. Meningsløst.

 

 

Forhåpentligvis dropper dere resultatene fra AMDs 290X til fordel for et kort fra Sapphire eller lignende med bedre kjøling.

 

Var nok denne linja som gjorde at jeg missa poenget ditt.

Lenke til kommentar

 

Det enkle svaret er at spill henger kronisk etter GPU-teknologien, og konsollene har noe av skylden (men ikke hele) for at det er slik. Den andre delen er at både Direct3D og OpenGL egentlig er utdatert og ineffektivt, ihvertfall i forhold til hva Nvidias GPUer er i stand til. Et GTX 680 er i stand til å tegne over 8 mill polygoner i 1920x1200 (med AA) i over 60 FPS stabilt, men ingen spill er i nærheten av det detaljnivået. Dette krever effektive metoder for å overføre data til GPUen og mye funksjonalitet på GPUen. Nvidia har kommet lengst når det gjelder slik funksjonalitet, men det er ingen spill som bruker det ennå. AMDs Mantle er ganskje forskjellig og vil kunne hjelpe noe på ytelsen, men er ikke retningen spill trenger å gå for effektiv utnytting av GPUer fremover.

 

 

Det er ikke riktig, høy AA er veldig viktig, spesielt med bevegelser av kamera for å unngå "flimring" av alias-artifacts. Selv 16x MSAA eller 32x CSAA har mye for seg i spill.

 

Både SLI og CrossFire medfører ekstra microstuttering så det er uaktuelt for mange som bryr seg om spilleopplevelsen. Jevnheten til ytelsen er mye viktigere enn høyest mulig gjennomsnittlig ytelse.

Jeg liker skikkelig AA, men de fleste spiller med lavere mengder, og sammenligner også sjelden med mer enn 2x eller 4xmsaa.

 

SLI har rimelig lite microstutter, selv om det er et godt stykke unna singelkort. Og klarer ikke skjermkortet 120 FPS (eller 60 for de noe mindre kresne) så vil microstuttering være det minste problemet. Da blir det ujevnt uansett, og V-sync vil ikke funke skikkelig. Og da blir SLI/CF nødvendig. (Snakker da om en som tydeligvis krever god ytelse ved maks grafikk)

 

Og det er må jo poenget med dual GPU være. Har du nok FPS til at det låser seg på 120 FPS så er det jo selvsagt ikke nødvendig med mer. :-)

Jeg synes 4x AA er mer enn nok :p men nå er ikke "jeg" et representativt utvalg da.

Lenke til kommentar
  • 2 måneder senere...

Hvorfor er ikke skjermkortene i dag bedre? I følge disse testene kan du altså ikke få 60 stabil fps i de nyeste spillene selv med verdens beste skjermkort. Og det er på 1080p! Vi har ikke bra nok hardware til å gå over til 4k enda. Synd at utviklingen går så tregt.

 

er vel cpu'ene som som holder skjermkorta tilbake?

Lenke til kommentar

 

Hvorfor er ikke skjermkortene i dag bedre? I følge disse testene kan du altså ikke få 60 stabil fps i de nyeste spillene selv med verdens beste skjermkort. Og det er på 1080p! Vi har ikke bra nok hardware til å gå over til 4k enda. Synd at utviklingen går så tregt.

er vel cpu'ene som som holder skjermkorta tilbake?

 

Det er Direct3D og OpenGL som holder utnyttingen av GPUene tilbake, og CPUen som flaskehals er snarere symptomet på problemet.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...