Gå til innhold

Test: Nvidia GeForce GTX 780 Ti


Anbefalte innlegg

Videoannonse
Annonse

Synd at man ikke har med SLI og dual gpu kort i testen. Ett gtx 690 kort gjør det ofte like bra og bedre. Så er det litt subjektivt om man mener ett 680 SLI oppsett er bedre eller dårligere enn ett GTX 690 kort, men det er i såfall ikke mange FPS som skiller. Vurderte selv å bytte ut mitt 680 SLI oppsett, men etter å ha lest testen hos Tomshardware:

http://www.tomshardware.com/reviews/geforce-gtx-780-ti-review-benchmarks,3663.html

venter jeg nok litt med å brenne de pengene.

  • Liker 2
Lenke til kommentar

Gtx 780Ti er nok en del kraftigere en det denne testen får frem:

 

http://www.techspot.com/review/738-gigabyte-geforce-gtx-780-ti-ghz/

 

Grunnen er at AMD sine kort har lite å gå på når det gjelder temperaturen. Som det tydelig kommer frem av testen åpner NVIDIA sitt kort opp for ganske heftig fabrikkoverklokking, noe som gjør GTX 780 Ti vesentlig raskere, og det med en temperatur på 77 grader. Som vil si enda mer overklokking er mulig :)

 

Det forsvarer selvfølgelig ikke 1500 kr mer, samme gjelder prisforskjellen mellom 290 og 290X. Det beste kortet vil alltid koste mye, rett og slett fordi det er det beste :)

  • Liker 1
Lenke til kommentar

Kremt. Dette er med så høyt antialiasing-nivå som er mulig i spillet, og er derfor unødvendig høyt, og for mange lite merkbart. Derfor vil du heller ikke bruke så høyt selv om du setter maks i spillet.

 

Det er i tillegg et utvalg av de mest krevende spillene.

 

For å kjøre så høye oppløsning med maks antialiasing og ultra grafikk, er det bare å kjøpe flere skjermkort. Det er et soleklart valg for mang en entusiast, som enten har det som hobby eller nekter å inngå kompromisser.

  • Liker 1
Lenke til kommentar

Potensialet til denne chip'en er jo enormt. GK110 er klokket veldig konservativt fra fabrikk. Ta en titt på testen TPU har gjort av EVGA 780 Ti SC ACX.

 

Dessuten skjønner jeg ikke helt hvordan dere kan anbefale 290X over 290 heller? I mange anmeldelser har jo 290 prestert BEDRE enn 290X grunnet Powertune

 

 

 

Begge disse alternativene gir deg dessuten tilgang til AMD sine Mantle og TrueAudio-teknologier, selv om du da vil gå glipp av muligheten til å bruke G-Sync når dét en gang kommer ut.

"Når det en gang kommer ut"

 

Så Mantle er ute da, eller?

Endret av DuraN
  • Liker 1
Lenke til kommentar

Dessuten skjønner jeg ikke helt hvordan dere kan anbefale 290X over 290 heller? I mange anmeldelser har jo 290 prestert BEDRE enn 290X grunnet Powertune

 

Hei! Radeon R9 290X har samme justeringsmuligheter i Powertune som lillebroren, og maskinvaremessig vil kortet alltid ha en fordel. Støynivået fra R9 290 er en annen ting som trekker ned, men dersom vi får inn en Radeon R9 290 fra en tredjepart, som kan by på en mer stillegående, effektiv kjøler, kan det fort være den vurderingen endrer seg ;)

 

Er det en spesiell grunn til at ikke Titan er med i tabellen?

 

Ja - som vi påpekte i testene av de to nye Radeon-toppkortene har vi ikke fått tak i et nytt testeksemplar av GeForce GTX Titan etter at vi tok en oppfrisking av driverne vi bruker, så testresultatene vi sitter på er ikke direkte sammenliknbare. Når vi gjør antagelser rundt hvordan GTX Titan ville gjort det i dagens tester er det basert på hvordan de andre GK110-baserte skjermkortene har blitt påvirket av sine driveroppdateringer. Men du har rett - dette burde vi påpekt i testen.

Lenke til kommentar

Hvorfor er ikke skjermkortene i dag bedre? I følge disse testene kan du altså ikke få 60 stabil fps i de nyeste spillene selv med verdens beste skjermkort. Og det er på 1080p! Vi har ikke bra nok hardware til å gå over til 4k enda. Synd at utviklingen går så tregt.

Det enkle svaret er at spill henger kronisk etter GPU-teknologien, og konsollene har noe av skylden (men ikke hele) for at det er slik. Den andre delen er at både Direct3D og OpenGL egentlig er utdatert og ineffektivt, ihvertfall i forhold til hva Nvidias GPUer er i stand til. Et GTX 680 er i stand til å tegne over 8 mill polygoner i 1920x1200 (med AA) i over 60 FPS stabilt, men ingen spill er i nærheten av det detaljnivået. Dette krever effektive metoder for å overføre data til GPUen og mye funksjonalitet på GPUen. Nvidia har kommet lengst når det gjelder slik funksjonalitet, men det er ingen spill som bruker det ennå. AMDs Mantle er ganskje forskjellig og vil kunne hjelpe noe på ytelsen, men er ikke retningen spill trenger å gå for effektiv utnytting av GPUer fremover.

 

 

Kremt. Dette er med så høyt antialiasing-nivå som er mulig i spillet, og er derfor unødvendig høyt, og for mange lite merkbart. Derfor vil du heller ikke bruke så høyt selv om du setter maks i spillet.

Det er ikke riktig, høy AA er veldig viktig, spesielt med bevegelser av kamera for å unngå "flimring" av alias-artifacts. Selv 16x MSAA eller 32x CSAA har mye for seg i spill.

 

For å kjøre så høye oppløsning med maks antialiasing og ultra grafikk, er det bare å kjøpe flere skjermkort. Det er et soleklart valg for mang en entusiast, som enten har det som hobby eller nekter å inngå kompromisser.

Både SLI og CrossFire medfører ekstra microstuttering så det er uaktuelt for mange som bryr seg om spilleopplevelsen. Jevnheten til ytelsen er mye viktigere enn høyest mulig gjennomsnittlig ytelse.

  • Liker 1
Lenke til kommentar

Det enkle svaret er at spill henger kronisk etter GPU-teknologien, og konsollene har noe av skylden (men ikke hele) for at det er slik. Den andre delen er at både Direct3D og OpenGL egentlig er utdatert og ineffektivt, ihvertfall i forhold til hva Nvidias GPUer er i stand til. Et GTX 680 er i stand til å tegne over 8 mill polygoner i 1920x1200 (med AA) i over 60 FPS stabilt, men ingen spill er i nærheten av det detaljnivået. Dette krever effektive metoder for å overføre data til GPUen og mye funksjonalitet på GPUen. Nvidia har kommet lengst når det gjelder slik funksjonalitet, men det er ingen spill som bruker det ennå. AMDs Mantle er ganskje forskjellig og vil kunne hjelpe noe på ytelsen, men er ikke retningen spill trenger å gå for effektiv utnytting av GPUer fremover.

 

 

Det er ikke riktig, høy AA er veldig viktig, spesielt med bevegelser av kamera for å unngå "flimring" av alias-artifacts. Selv 16x MSAA eller 32x CSAA har mye for seg i spill.

 

Både SLI og CrossFire medfører ekstra microstuttering så det er uaktuelt for mange som bryr seg om spilleopplevelsen. Jevnheten til ytelsen er mye viktigere enn høyest mulig gjennomsnittlig ytelse.

Jeg liker skikkelig AA, men de fleste spiller med lavere mengder, og sammenligner også sjelden med mer enn 2x eller 4xmsaa.

 

SLI har rimelig lite microstutter, selv om det er et godt stykke unna singelkort. Og klarer ikke skjermkortet 120 FPS (eller 60 for de noe mindre kresne) så vil microstuttering være det minste problemet. Da blir det ujevnt uansett, og V-sync vil ikke funke skikkelig. Og da blir SLI/CF nødvendig. (Snakker da om en som tydeligvis krever god ytelse ved maks grafikk)

 

Og det er må jo poenget med dual GPU være. Har du nok FPS til at det låser seg på 120 FPS så er det jo selvsagt ikke nødvendig med mer. :-)

Lenke til kommentar

Du beskrev AA-nivået som "unødvendig høyt", og "lite merkbart", noe som blir feil. Alle vil være i stand til å se forskjellen på bevegelige bilder, og vil naturligvis foretrekke det om de har nok ytelse og er klar over det. MSAA skalerer ganske fint også, og CSAA skalerer ennå bedre. Hvilken som ser best ut per ytelse er veldig avhengig av grafikken som skal tegnes. I tillegg er det forskjellig hvordan ulike AA-modi ser ut på ulike skjermkortprodusenter og -generasjoner, noe nesten ingen skjermkorttester gidder å ta med lengre.

Lenke til kommentar

Her er det nok prisen som avgjør. Dødt løp. Det burde dog påpekes at forskjellen i FSE er laaangt innenfor feilmarginene, så å påstå at et kort faktisk presterer å få 3 poeng bedre enn et annet er direkte feil. Med mindre testen er kjørt så mange ganger at man har minst 95% sjanse for at det ikke er tilfeldige variasjoner som gjør denne forskjellen, selvsagt. Med en SÅ liten margin må det nok flere hundre runs til, og det har neppe HW gjort her.

 

Gleder meg til custom-varianter av 290x, da blir en kvitt kjøleren - som ikke holder helt mål.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...