Gå til innhold

TEST: Nvidia GeForce GTX 980 Ti


Anbefalte innlegg

Videoannonse
Annonse

 

4K på enkeltkort vil neppe bli særlig bra før Volta, dvs. to generasjoner frem i tid.

Det holder nok med Pascal

 

Du vet mer enn meg om Pascal, men la meg spesifisere mer hva jeg mener. Jeg snakker om at et enkelt toppkort skal klare de fleste toppspill i ~60 FPS med 4xMSAA. Hvis Pascal byr på ~50+% mer ytelse enn Maxwell så vil det fremdeles være litt for lite, vi trenger omtrent en dobling av dagens ytelsenivå for å komme dit jeg snakker om.

 

 

4K på enkeltkort vil neppe bli særlig bra før Volta, dvs. to generasjoner frem i tid.

Neste generasjon er nok. Husk å ta DX12 med i ligningen (som rent ytelsesmessig er minst like viktig som et nytt grafikkort i denne sammenhengen). Det er også snakk om at AMD og nVidia vil hoppe rett fra 28 nm-prosess til 14-16 nm-prosess i neste års grafikkort.

 

Vet du hva Direct3D 12 faktisk vil by på og hvordan det fungerer? Det ble påstått at Direct3D 10 og 11 skulle også i sin tid gi formidable ytelsesforbedringer som uteble, jeg kan forklare deg hvorfor og hva som er misforstått. Av Direct3D 10, 11 og 12 er det Direct3D 10 som har tilbydd størst teoretisk potensiale til ytelsesforbedringer, dette skyldes at det ble introdusert med fleksibilitet i GPU-programmeringen som gjør at noen ting kan gå raskere, det betyr ikke at alt går raskere, spesielt ikke kode som er direkte portet fra versjon 9 til 10. Produsentene er alltid flinke til å lage demoer som overdriver en forskjell, og som får folk til å tro at et skjermkort som støtter neste Direct3D plutselig får alt til å gå raskere. "API-testene" til Direct3D 12 er et kroneksempel på dette, og representerer på ingen måte hvilken totale ytelsesforbedringer vi kan forvente i tiden fremover.

 

Direct3D 11 bød ikke på store ytelseforbedringer, men snarere mer funksjonalitet. Mest nevneverdig er tessellation, som de aller fleste har misforstått hva det gjør. Hvis du legger til støtte for tessellation i et spill så blir ikke ytelsen bedre, tvert imot*. Tessellation handler faktisk om en "minneoptimalisering" som gjør at meshes kan genereres på direkten med mindre data. La oss si at du har en liten bit av et terreng i 64x64 ruter. Normalt ville vi generert én vertex med x,y,z for hver koordinat, og deretter gjerne en indeksbuffer som kobler sammen vertices til en sammenhengende mesh. Dette tar tid å flytte rundt i minnet, og som du sikkert forstår så vil to biter av et terreng være identiske bortsett fra høydekoordinaten. Tessellation lar deg generere en ferdig mesh på direkten uten at det tar opp minne, så bare legger du på høydekoordinaten og vips har du spart kanskje 50-75% av minnebruken. Tessellation lar deg bruke høyere antall polygoner enn ville vært praktisk mulig uten, så det er ikke snakk om å gi bedre ytelse men om å muliggjøre noe som før var praktisk talt umulig. *Grunnen til at jeg sa at tessellation kan bli tyngre er at det ofte legger restriksjoner for hvordan du kan utforme en mesh. Tessellation fungerer som subdivide i et modelleringsprogram, men det vil bare fungere dersom polygonene er satt sammen på visse måter. Dermed kan en mesh måtte designes mer komplisert for å bli "tessellerbar". Forøvrig bød Direct3D 11 på bedre teksturkomprimering.

 

Direct3D 12 skal som kjent tilby lavere API-overhead. Alle forstår at det er bra om overheaden per kall går ned, og at GPUen da kan jobbe litt mer effektivt. Men dette betyr også at gevinsten av Direct3D 12 er svært avhengig av hvordan spillet er designet. For å sette det litt på spissen, "dårlig" designede spill vil nyte bedre av dette en godt designede spill. Hvis du har vært en flink utvikler og klart å gjøre rendering med minst mulig API-kall så vil gevinsten være minimal. Det er viktig å huske på at dette er en CPU-optimalisering, ikke en GPU-optimalisering. Som du kanskje husker er gevinsten av Mantle størst for de med svake CPUer, og vi vil se tilsvarende for Direct3D 12.

 

Så hva med HBM? Det skal vel gjøre skjermkortene lynraske? Vel nei, nok en gang handler det mer om å gjøre flere ting mulig enn å gjøre dagens ting raskere. HBM vil på sikt tillate at utviklere bruker minnet mer intensivt, trolig til større teksturer og meshes. Det vil ikke utgjøre stor ytelseforskjell for "dagens last".

 

Hvis vi skal få ytelseforbedringer i den klassen du tenker på så trenger vi nye egenskaper som effektiviserer selve GPU-lasten. Eksempler på dette vil være parallelisering ved å tegne ulike objekter samtidig for å hindre dødtid, eliminering av unødvendig binding av ressurser til L2-cache, og forbedringer i hvordan GPUen leter frem riktig ressurs til riktig tid for å hindre venting. Alt jeg nå har nevnt finnes i bindless graphics for OpenGL som jeg har snakket om mange ganger før, men det har fremdeles ikke fått utbredelse.

Hvis noe var uklart eller du vil vite mer så er det bare å spørre ;)

  • Liker 3
Lenke til kommentar

Prisene samt det at konsollmarkedet fortsatt styrer spillutviklingen i AAA titler (med noen hederlige unntak som GTAV) gjør at dette er uaktuelt selv for en lidenskapelig hardware kar som har sittet med xfire og sli på toppkort mange ganger (2x9800GX2, 3xGTX580, 3xHD6950 etc).

 

Det eneste kortet jeg ser som gir bra bang for buck nå og siste halvår er 970 og det virker ikke som denne lanseringen vil endre det særlig. 4K er vi også langt unna på mange områder, det som fungerer best per i dag og sikkert en stund til er 2K og 2.5K.

Endret av Theo343
Lenke til kommentar

Dette skal jeg kaste penger på med en gang! Kan ikke komme fort nok!

 

Det som vel også kan kevnes er at AA PÅ 4K ikke er like merkbart, jeg har selv 4k skjerm men bare et 970 (4gb versjon) og vurdert om enten sli, eller 980, men det blir nå heller 980 (mindre bry). Med 30-40 fps får man ikke ultrasmooth gameplay hele tiden, men man blir vandt med ting og ser bort ifra det med mindre det faktiskt merkbart går tregere.

 

I spill som witcher merker man dog ikke så ekstremt mye forskjell fra høyest til medium, forskjell ja, men ikke at det får fra smooth til 8bit, heller kanskje at det går fra over the top på ultra til mer realistisk på medium

 

Så kommer det jo også ann på hva man spiller:)

 

Lurer på hvordan 980 ti sli vil bli i tester nå jeg

Lenke til kommentar

Det lille ytelseshoppet dette kortet gir er ikke verdt 7000kr etter min mening.

Ytelseshoppet fra hva da? Utgangspunktet er jo ganske viktig her.

 

Selv ser jeg frem til å ca doble ytelsen når jeg nå går fra 2x GTX 780 i SLI, til 2x GTX 980 Ti i SLI. Det koster, men ytelseshoppet er jo betydelig.

  • Liker 1
Lenke til kommentar

 

Det lille ytelseshoppet dette kortet gir er ikke verdt 7000kr etter min mening.

Ytelseshoppet fra hva da? Utgangspunktet er jo ganske viktig her.

 

Selv ser jeg frem til å ca doble ytelsen når jeg nå går fra 2x GTX 780 i SLI, til 2x GTX 980 Ti i SLI. Det koster, men ytelseshoppet er jo betydelig.

 

I hvilke spill regner du med å doble FPSen med samme settings?

Endret av Theo343
Lenke til kommentar

 

 

Det lille ytelseshoppet dette kortet gir er ikke verdt 7000kr etter min mening.

Ytelseshoppet fra hva da? Utgangspunktet er jo ganske viktig her.

 

Selv ser jeg frem til å ca doble ytelsen når jeg nå går fra 2x GTX 780 i SLI, til 2x GTX 980 Ti i SLI. Det koster, men ytelseshoppet er jo betydelig.

 

I hvilke spill regner du med å doble FPSen med samme settings?

 

I 3DMark. Jeg bør klare å gå fra ca 12500 i Fire Strike nå til ca 25000.

 

Hvilke spill fremtiden byr på, vil tiden måtte vise.

Lenke til kommentar

 

 

"Trodde du ikke 60 FPS med høye innstillinger var mulig i 4K? Tro om igjen..."

 

En smule misvisende...

 

-----------------------------------------------------------

Batman: Arkham Origins - 4K...:

Nvidia GeForce GTX 980 Ti...: MAX-FPS...: 53

 

Battlefield 4 - 4K...:

Nvidia GeForce GTX 980 Ti...: MAX-FPS...: 48

 

Hitman: Absolution - 4K...:

Nvidia GeForce GTX 980 Ti...: MAX-FPS...: 26

 

Metro: Last Light - 4K...:

Nvidia GeForce GTX 980 Ti...: MAX-FPS...: 32

-----------------------------------------------------------

 

Et skritt i riktig rettning...,men personlig så tror jeg at jeg venter med 4k en stund til.

Lenke til kommentar

etter en stund la jeg merke til at bare 980 ti blir testet i 4k UTEN aa. hva er tallene for de andre uten aa?????

 

Vi har ikke testet de andre kortene i 4K uten AA. Dette var bare for moro med GTX 980 Ti ? for å vise at mange spill kan nytes i 4K-oppløsning med høye grafikkinnstillinger så lenge en slår av kantutjevning.

 

Vi har fortsatt testet GTX 980 Ti med AA i 4K (og uthevet dette resultatet i grafene våre). Det er resultatene med AA som er sammenlignbare med tidligre testede kort, noe som også er nøye spesifisert i 4K-grafene.

Lenke til kommentar

 

 

 

Det lille ytelseshoppet dette kortet gir er ikke verdt 7000kr etter min mening.

Ytelseshoppet fra hva da? Utgangspunktet er jo ganske viktig her.

 

Selv ser jeg frem til å ca doble ytelsen når jeg nå går fra 2x GTX 780 i SLI, til 2x GTX 980 Ti i SLI. Det koster, men ytelseshoppet er jo betydelig.

 

I hvilke spill regner du med å doble FPSen med samme settings?

 

I 3DMark. Jeg bør klare å gå fra ca 12500 i Fire Strike nå til ca 25000.

 

Hvilke spill fremtiden byr på, vil tiden måtte vise.

 

 

12500 i standard FS? Jeg scorer rundt 18000 med mine to mildt overklokkede GTX 780.

Lenke til kommentar

"Trodde du ikke 60 FPS med høye innstillinger var mulig i 4K? Tro om igjen..."

 

En smule misvisende...

 

-----------------------------------------------------------

Batman: Arkham Origins - 4K...:

Nvidia GeForce GTX 980 Ti...: MAX-FPS...: 53

 

Battlefield 4 - 4K...:

Nvidia GeForce GTX 980 Ti...: MAX-FPS...: 48

 

Hitman: Absolution - 4K...:

Nvidia GeForce GTX 980 Ti...: MAX-FPS...: 26

 

Metro: Last Light - 4K...:

Nvidia GeForce GTX 980 Ti...: MAX-FPS...: 32

-----------------------------------------------------------

 

Et skritt i riktig rettning...,men personlig så tror jeg at jeg venter med 4k en stund til.

 

Som sagt ingen singel GPU per i dag er god nok for 4K gaming (til 60+ fps). Man kan få en god opplevelse med 970 SLI hvis man aksepterer at AA må være av, og at enkelte innstillinger må settes fra Ultra ned til High/Medium. Spilla kan fortsatt se bra ut fordet selv om man ikke kjører alt på Ultra. 980 Ti i SLI burde hjelpe en del for 4K gaming. Synd bare at prisen er så høy! 

Endret av Betroz
Lenke til kommentar

 

 

 

 

Det lille ytelseshoppet dette kortet gir er ikke verdt 7000kr etter min mening.

Ytelseshoppet fra hva da? Utgangspunktet er jo ganske viktig her.

 

Selv ser jeg frem til å ca doble ytelsen når jeg nå går fra 2x GTX 780 i SLI, til 2x GTX 980 Ti i SLI. Det koster, men ytelseshoppet er jo betydelig.

 

I hvilke spill regner du med å doble FPSen med samme settings?

 

I 3DMark. Jeg bør klare å gå fra ca 12500 i Fire Strike nå til ca 25000.

 

Hvilke spill fremtiden byr på, vil tiden måtte vise.

 

 

12500 i standard FS? Jeg scorer rundt 18000 med mine to mildt overklokkede GTX 780.

 

Hm, jeg overklokker ikke og ligger på et sted mellom 12500 og 14000, avhengig av dagsform og vindretning.

Lenke til kommentar

 

 

 Det er direkte usant. Høyere oppløsning eliminerer ikke behovet for AA, tvert imot med høyoppløste teksturer kan flimmereffekten av aliasing i texels bli større og mer plagsomt. Det er mye smartere å skru ned detaljene fremfor å spille uten AA.

 

 

Jo, om oppløsningen er høy nok, så gjør det det (dog er ikke 4k høyt nok), og AA er mindre viktig når det er høyere oppløsning.

 

AtW

Mer enn 2xMSAA på min 4K har tilnærmet null effekt. Det er dog lett og se forskjell med MSAA skrudd av og med 2xMSAA.

 

Over det er forskjellen ikke merkbar med mindre du sitter å leter.

 

 

MSAA påvirker bare geometri aliasing. Høyere oppløsning (ihvertfall 4k) har lite å si på pixel støy fra f.eks tekstur og shader aliasing. Selv om man ikke lenger er i stand til å skjelne individuelle pixler lenger vil man forsatt kunne se pixel støy.
 
Tekstur filtering/AF er en form for AA og man vil neppe skru det av.
Lenke til kommentar

 

Direct3D 12 skal som kjent tilby lavere API-overhead. Alle forstår at det er bra om overheaden per kall går ned, og at GPUen da kan jobbe litt mer effektivt. Men dette betyr også at gevinsten av Direct3D 12 er svært avhengig av hvordan spillet er designet. For å sette det litt på spissen, "dårlig" designede spill vil nyte bedre av dette en godt designede spill. Hvis du har vært en flink utvikler og klart å gjøre rendering med minst mulig API-kall så vil gevinsten være minimal. Det er viktig å huske på at dette er en CPU-optimalisering, ikke en GPU-optimalisering. Som du kanskje husker er gevinsten av Mantle størst for de med svake CPUer, og vi vil se tilsvarende for Direct3D 12.

 

Nå er vel også multithreaded command buffer en viktig forbedring med D3D12 mtp async compute/shading?

 

http://www.anandtech.com/show/9124/amd-dives-deep-on-asynchronous-shading

Endret av MistaPi
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...