Gå til innhold

TEST: Nvidia GTX 1060 Founders Edition


Anbefalte innlegg

 

År 1: 7.5% ledelse for GTX 1060

År 2: 3% ledelse for GTX 1060

År 3: Likt

År 4: 5% ledelse for RX 480.

 

Så etter 4 år så er RX 480 best, og du kan være stolt over du kjøpte RX 480, som nå er bedre enn kameratens GTX 1060. Men se på tallene, kameraten din har spilt med bedre eller lik framrate i 3 år nå. Si at du kjøper ny GPU etter 4 år. Da får du ikke mye igjen for at RX 480 er raskere.

 

 

Jeg mener du tenker litt feil her. Disse prosentene er basert på et gjennomsnitt av flere kjente og populære spill som er på markedet nå.

 

Som vi så med HD7970GHz så var det ~like raskt som et GTX680 i de aktuelle spillene som det ble testet med i midten av 2012. Etter et år så driter folk i ytelsen i noen av disse "gamle" spillene. Og testsidene må oppdatere og bytte ut hvilke spill de tester med. Spoler vi frem til slutten av 2015, så er plutselig 7970GHz i form av R9 280X blitt ~20% raskere enn GTX680/770. Dette har skjedd gradvis ettersom test spillene byttes ut gradvis, og dermed er det fristende å tenke på det som en gradvis endring som man har måttet vente på.

 

Men det er jo ikke helt sant.

 

Nå skal jeg overdrive litt for å få frem poenget mitt: La oss for argumentasjonens skyld si at i midten av 2012 så var 7970GHz og GTX680 nøyaktig lik i ytelsen i alle 20 spillene som de ble testet i. Så bytter man ut et av spillene med et nytt spill der 7970GHz er 20% raskere. Hva har skjedd med gjennomsnittet? Jo 7970GHz har blitt ~1% raskere. En måned etterpå så bytter de ut enda et spill der 7970GHz er 20% raskere. Gjennomsnittlig så er nå 7970GHz ~2% raskere enn GTX680. Så bytter vi ut et spill til i måneden i 18 måneder til. Og i alle spillene er 7970GHz 20% raskere enn GTX680. Tilsynelatende har 7970GHz i gjennomsnitt blitt 1% raskere i måneden, og man har måttet vente 20 måneder på at 7970GHz skal "peake".

 

Men i realiteten så har en som kjøpte dette fantasi 7970GHz i midten av 2012, fått 20% bedre ytelse i hvert eneste nye spill, som ble inkludert i test-oppsettet fra dag en. You see? :)

Lenke til kommentar
Videoannonse
Annonse

 

Futuremark gir jo uansett kun en indikasjon på hvordan et skjermkort yter og er på ingen måte en nøyaktig måte som viser hvor bra det føles under spilling.

Ja, det er viktig å huske. 3DMark er ikke et spill, men en benchmark som er ment å kunne gi en realistisk workload på et "native DX12 spill".

 

FurureMark legger også med en detaljert manual som beskriver hvordan testene virker.

http://s3.amazonaws.com/download-aws.futuremark.com/3DMark_Technical_Guide.pdf

 

Når FutureMark lager en benchmark som denne tar de imot input fra industrien (AMD, Intel, Nvidia, etc.) igjennom hva de kaller Benchmark Development Program. Etter dette designes benchmark uten leverandørspesifikke optimeringer, det vil si at de bruker ikke optimeringer fra GPUOpen (AMD) eller GameWorks (Nvidia).

 

Benchmarken er skrevet med hensyn på DirectX 12 Feature Level 11_0 for å støtte så mye hardware som mulig.

Slik fordeler hardware seg når det gjelder Feature Level i DirectX 12:

11_0: Kepler, Maxwell Gen1

11_1: GCN 1 (1.0), Haswell, Broadwell

12_0: GCN 2 (1.1), GCN 3 (1.2), GCN 4 (1.3)

12_1: Skylake, Kabe Lake, Maxwell Gen 2, Pascal

 

Så som Malvado skriver gir "Time Spy" en god indikasjon på hvordan kortene vil yte i en "nøytral" DirectX 12 applikasjon som er skrevet fra scratch for DirectX 12 uten kompatibilitet for DirectX 11 i tankene.

 

 

Men som du påpeker kan jo ikke testen få utnyttet 11_1/12_0 og 12_1 og slik jeg ser det lite representativt om et enkelt skjermkort faktisk kan gi enda mer ytelse.

 

Dette blir litt avsporing men jeg er personlig av den oppfatningen over flere år nå at 3dmark og andre syntetiske tester er en svært dårlig måte å vise hvor bra skjermkort yter , jo da, man får en viss indikasjon på "generell" ytelse , men i noen tilfeller er det såpass stort avvik i forhold til hvordan kortet vil yte i spillene som finnes og som kommer i de neste 2 årene at det er ikke representativt i det hele tatt.

 

Og det er jo som HKS påpeker en test som ikke tar i bruk eventuelle forbedringer hver enkelt skjemkort har (feature levels) , noen ting vil være til fordel for Amd, andre for Nvidia , men det er viktig at dette blir med så lenge det gir en god opplevelse for brukerne og kan brukes av alle skjermkort , noe som 3dmark ikke ser ut til å evne å få til på noen måte selv om de har måttet differensiere på en måte og vise forskjellene.

 

Personlig har jeg en dårlig magefølelse når det gjelder Amd og skjermkortmarkedet og håper da inderlig på at det går bra med selskapet , gjør det ikke det vil det bli en aktør mindre og en utvikling som går saktere og langt dyrere , noe vi ser hos Intel.

Lenke til kommentar

Jeg mener du tenker litt feil her. Disse prosentene er basert på et gjennomsnitt av flere kjente og populære spill som er på markedet nå.

 

Som vi så med HD7970GHz så var det ~like raskt som et GTX680 i de aktuelle spillene som det ble testet med i midten av 2012. Etter et år så driter folk i ytelsen i noen av disse "gamle" spillene. Og testsidene må oppdatere og bytte ut hvilke spill de tester med. Spoler vi frem til slutten av 2015, så er plutselig 7970GHz i form av R9 280X blitt ~20% raskere enn GTX680/770. Dette har skjedd gradvis ettersom test spillene byttes ut gradvis, og dermed er det fristende å tenke på det som en gradvis endring som man har måttet vente på.

 

Men det er jo ikke helt sant.

 

Nå skal jeg overdrive litt for å få frem poenget mitt: La oss for argumentasjonens skyld si at i midten av 2012 så var 7970GHz og GTX680 nøyaktig lik i ytelsen i alle 20 spillene som de ble testet i. Så bytter man ut et av spillene med et nytt spill der 7970GHz er 20% raskere. Hva har skjedd med gjennomsnittet? Jo 7970GHz har blitt ~1% raskere. En måned etterpå så bytter de ut enda et spill der 7970GHz er 20% raskere. Gjennomsnittlig så er nå 7970GHz ~2% raskere enn GTX680. Så bytter vi ut et spill til i måneden i 18 måneder til. Og i alle spillene er 7970GHz 20% raskere enn GTX680. Tilsynelatende har 7970GHz i gjennomsnitt blitt 1% raskere i måneden, og man har måttet vente 20 måneder på at 7970GHz skal "peake".

 

Men i realiteten så har en som kjøpte dette fantasi 7970GHz i midten av 2012, fått 20% bedre ytelse i hvert eneste nye spill, som ble inkludert i test-oppsettet fra dag en. You see? :)

 

Ikke helt enig i at R9 380X = 7970

 

Men jeg ser at du har et poeng her. Det er jo sant det du sier. Problemet nå er jo at selv i DX12 titler der RX 480 gjør det bra, som Total War, så er ytelsen lik GTX 1060. Og de koster det samme. Hvor lang tid vil det ta før vi får titler der RX 480 konsistent slår GTX 1060? Hvor mye spiller du spillene som finnes i dag, og hvor mye kommer du til å spille spill som kommer osv. Hvor lenge kommer du til å ha kortet?

 

Det blir mye spekulering og antakelser for å finne ut hva som er best på den måten. Du har en del forutsetninger som må stemme for at RX 480 skal bli et bedre kjøp. Som betyr at de fleste kunder kommer til å gå for GTX 1060 uansett, da det er best i dag, og de har ikke tid tijl å sette seg så dypt inn i fremtiden for å finne det beste. Det er jo problemet til AMD. Ingen bryr seg om 7970 er raskere enn GTX 680 nå, og svær svært få kjøper nok RX 480, fordi de husker hva som skjedde med 7970. 

 

Men joda, det er helt rett det du sier. Det er ikke som om GTX 1060 har 3% på RX 480 for alle spill i 2017. Alle nye, gode DX 12 spill som testes vil nok legge seg mot likt, eller muligens i favør av RX 480, mens 2016 spill, eller DX11 tester vil dra gjennomsnittet slik at GTX 1060 gjerne fortsatt beholder en ledelse. Så om du like å spille nye spill hele tiden, kan det absolutt være noe å tenke på. Det gjør ikke jeg så mye, så kanskje derfor jeg ikke tenkte så mye på dette? :p

Fint du påpeker det, da det selvfølgelig er viktig, og modellen min ikke gir et riktig bilde med slik jeg satt det opp.

Lenke til kommentar

Ikke så veldig viktig, men like greit å avklare: Jeg linket til en test av R9 380X for å få frem benchmarkspillene fra slutten av 2015, men jeg benyttet tallene fra 280X (og det er 280X jeg referer til i innlegget mitt) i den testen for å regne meg frem til ~20% ledelsen over GTX770. Og det er egentlig litt snilt, siden 280X er litt lavere klokket enn 7970GHz, mens GTX770 er litt høyere klokket enn GTX680. Forskjellen er altså egentlig enda litt større enn 20% i 7970GHz sin favør over GTX680.

 

Nå skal jeg innrømme jeg ble veldig skeptisk til RX480 med en gang når jeg så hvor elendig referanse kortene overklokket. Ikke fordi overklokking nødvendigvis er så viktig for majoriteten av brukere. Men fordi man ønsker at kortet skal kjøre på så høy frekvens som mulig innenfor sitt boost område. Med en så liten chip så det ut som at det å få overført varme til kjøleprofilen ble et stort problem. Men jeg ser nå på andre tester hvor utrolig dårlig referanse kjøleren virkelig er. Så jeg øyner et lite håp om at versjonene med tredjeparts kjølere vil kunne kjøre på en del høyere frekvens.

 

Om denne lille lekkasjen er noe vi kan tro på, så er det kun strømforbruk GTX1060 slår Sapphires RX480 Nitro+ på. Jeg vil jeg påstå at Nitro+ til riktig pris i så fall er et veldig interessant alternativ til GTX1060. Vi får se om det er noe sannhet i det snart nok. :)

Endret av Gabri3L
Lenke til kommentar

 

3DMark DX12 så er RX480 nesten 15% raskere enn 1060... http://www.sweclockers.com/test/22360-nvidia-geforce-gtx-1060/8#content

Sammen med FreeSync-skjerm og DX 12, så kommer faktisk AMD veldig bra ut av det! DX11 er nøkkelen her for Tek.no, og mange forumbrukere :)

Ehhh... Bedre i API-overhead?

Det blir som å vurdere en bil bare på hvor fort du klarer å fylle bensin i tanken.

 

Siden du er inne på 3DMark, så kan vi heller se på "Time Spy" som er en litt mer realistisk workload med både grafikk og compute...

 

http://www.guru3d.com/articles_pages/geforce_gtx_1060_review,28.html

 

Der blir nok RX480 slått av GTX 1060 både med og uten async compute.

Så at AMD kommer til å "eie" DX12 er langt i fra gitt.

 

Jeg har sett DX11 testene, så du trenger ikke å linke gamle tester! Nå har det dukket opp flere nye tester der RX 480 slår 1060 i DX12 og Vulkan i mange spill  :p  Du får holde deg til DX11 og Tomb Raider DX12 testene :p Respekter de som ser frem til DX12 spillene :) Radeon er ikke et dårligere kort enn nvidia når det gjelder DX12 og vulkan! Moderat overklokk i fra RX 480 matcher fint et høyere overklokket 1060 selv i DX11!

 

Du, Tek.no og mange forumbrukere her sverger kun til DX11... Jeg har ikke noe annet valg enn å akseptere det!

Endret av Koven
Lenke til kommentar

 

 

Et svært bra kort som har null problemer med å konkurrere og vinne mot Amd sitt 480X kort når det gjelder så og si samtlige DX11 spill.

Går man over til DX12 spill så snur ting litt , anbefaler å lese denne testen , link til konklusjon fra hardwarecanucks

 

 

 Whereas AMD’s RX480 obviously has challenges in the performance per watt field, the GTX 1060 has some very real problems delivering consistent DX12 framerates. So much so that it’s significant lead over the RX480 completely evaporates when Microsoft’s increasingly popular next gen API is used

 

Når det gjelder testen som Tek har tatt må jeg si at dette trolig blir siste testen jeg kommer til å lese da det er tydelig at man må til utenlandske aktører for å få en grundig nok test og ikke minst en med mer neutralt perspektiv.

Jeg støtter deg her! Sweclockers har en mer nøytral test en tek! Jeg har også sluttet å lese testene til Tek.no! For meg så virker det som om nvidia betaler testene dems! Det er også kjent at 1990/2000 la seg kjøpe for et bra testresultat når dem fikk testkortet på kjøpet..... For meg så ser det ut som Nvidia sponser TEK..no!

Bra du liker Sweclockers da, da dette er deres konklusjon om 1060: "Det här gör Nvidias senaste tillskott till ett glasklart val i klassen."

 

Alle vet jo hvem som yter best i DX11 :p Om det kommer i fra tek eller sweclockers! Men ta deg tid og les hva tek.no skriver i sin helhet! Ups, du er så grønn i pappen at du ikke har evne til å lese det... Du er like grønn som jeg er rød^^

Endret av Koven
Lenke til kommentar

Er som sagt noen år siden jeg var aktiv her, er litt sjokkert hvordan tek.no er i forhold til hw.no,fra 4850/4870 sine dager, er faktisk så lenge siden jeg har kommentert her,men morsomt å se at mange av de samme fanbois fra den tiden fortsatt er her, savner snekkern da.

 

Men er forbauset ikke over bare over tek, men de fleste sider tar ikke inn over seg at vi er i et api skifte. Men etter å ha lest de fleste reviews rundt, må en bare si at for dagens bruk, og når 1060 er like billig , så er 1060 et bedre kjøp, men det kommer mange store titler med dx12, så spørs om en ikke bør se litt frem.

 

PS

Jeg mistet intressen for pc, da bulldozer kom, er vel det en kan si at jeg er AMD pro. Men det var ikke morsomt å bygge pc er lengre da en ikke kunne bygge de beste spill rigger innenfor ethvert budsjett med AMD.

Endret av OLtimer
Lenke til kommentar

Vi er i et skifte, men skifter tar tid, og du har og helt rett i en ting: "det kommer mange store titler med dx12". Desverre vanskelig for tek.no og andre å teste hva som kommer i fremtiden :)

 

PC bygging er langt lettere nå :p

1: Velg Intel CPU modell

2: Velg passende LGAXXXX HK

 

Så er det bare å finne en god PSU som er stor nok, lagring som er stor nok, ta med nok RAM. Trenger ikke bekymre deg over å ha så mange valg lengre....

  • Liker 1
Lenke til kommentar

 

Jeg er overbevist om at RX 480 er et kraftigere grafikkort enn GTX 1060, selv om sistnevnte har benchmarket bedre i dag. Pascal er i grove trekk Maxwell på 16nm FinFET.  Og som med Maxwell mangler Pascal hardware async.

Slutt med det tullet.

Pascal er ikke Maxwell i grove trekk.

Pascal mangler ikke hardware async.

 

 

Nettopp lest artikkelen om Pascal i anandtech.com, også de gjentar mye av det samme som jeg mente å ha lest tidligere. Nemlig at Pascal og Maxwell i grove trekk er det samme. Det minner litt om et Intel "tick" hvor den forrige arkitekturen krympes. Det er naturlig nok mindre risikabelt å krympe en eksisterende mikroarkitektur enn det er å lage en helt ny mikroarkitektur og krympe den samtidig. Jeg tror det at Pascal har så mye til felles med Maxwell forklarer mye av grunnen til at Nvidia har vært så raskt ute med 16nm FinFET oppfølgerene til 980, 970, 960 og nå senest Titan X.

 

"GP104’s Architecture

Looking at an architecture diagram for GP104, Pascal ends up looking a lot like Maxwell, and this is not by chance. After making more radical changes to their architecture with Maxwell, for Pascal NVIDIA is taking a bit of a breather. Which is not to say that Pascal is Maxwell on 16nm – this is very much a major feature update – but when it comes to discussing the core SM architecture itself, there is significant common ground with Maxwell".

 

http://www.anandtech.com/show/10325/the-nvidia-geforce-gtx-1080-and-1070-founders-edition-review/4

 

Men ja, pascal har async. Men selv ikke Nvidia har forklart hvordan deres async fungerer. Jeg tror AMD har en bedre og mer effektiv async funksjon enn det Nvidia har med pascal.

 

"Finally, getting back to the subject of dynamic scheduling, I’ve spent some time mulling over what’s probably the obvious question: if dynamic scheduling is so great, why didn’t NVIDIA do this sooner? It’s not a question I have an answer to, but I strongly suspect it’s another one of those tradeoffs that’s rooted in balancing costs and benefits. Dynamic scheduling requires a greater management of hazards that simply weren’t an issue with static scheduling, as now you need to handle everything involved with suddenly switching an SM to a different queue. Meanwhile NVIDIA more than likely paid a die space penalty for implementing dynamic scheduling. GPUs continually sit on the fence between being an ultra-fast staticly scheduled array of ALUs and an ultra-flexible somewhat smaller array of ALUs, and GPU vendors get to sit in the middle trying to figure out which side to lean towards in order to deliver the best performance for workloads that are 2-5 years down the line. It is, if you’ll pardon the pun, a careful balancing act for everyone involved".

Endret av MatsG
Lenke til kommentar

 

 

Jeg er overbevist om at RX 480 er et kraftigere grafikkort enn GTX 1060, selv om sistnevnte har benchmarket bedre i dag. Pascal er i grove trekk Maxwell på 16nm FinFET.  Og som med Maxwell mangler Pascal hardware async.

Slutt med det tullet.

Pascal er ikke Maxwell i grove trekk.

Pascal mangler ikke hardware async.

 

Nettopp lest artikkelen om Pascal i anandtech.com, også de gjentar mye av det samme som jeg mente å ha lest tidligere. Nemlig at Pascal og Maxwell i grove trekk er det samme. Det minner litt om et Intel "tick" hvor den forrige arkitekturen krympes. Det er naturlig nok mindre risikabelt å krympe en eksisterende mikroarkitektur enn det er å lage en helt ny mikroarkitektur og krympe den samtidig. Jeg tror det at Pascal har så mye til felles med Maxwell forklarer mye av grunnen til at Nvidia har vært så raskt ute med 16nm FinFET oppfølgerene til 980, 970, 960 og nå senest Titan X.

 

"GP104’s Architecture

Looking at an architecture diagram for GP104, Pascal ends up looking a lot like Maxwell, and this is not by chance. After making more radical changes to their architecture with Maxwell, for Pascal NVIDIA is taking a bit of a breather. Which is not to say that Pascal is Maxwell on 16nm – this is very much a major feature update – but when it comes to discussing the core SM architecture itself, there is significant common ground with Maxwell".

 

Ja? Ryan Smith i AnandTech er enig med meg. Pascal er ikke Maxwell på 16nm . Jeg vet at firkantene på Nvidia sine PR-tegninger sikkert ser ganske like ut på Maxwell og Pascal, men det er ganske stor forskjell på hvordan flere av komponentene i en SM funger. 

 

 

http://www.anandtech.com/show/10325/the-nvidia-geforce-gtx-1080-and-1070-founders-edition-review/4

 

Men ja, pascal har async. Men selv ikke Nvidia har forklart hvordan deres async fungerer. Jeg tror AMD har en bedre og mer effektiv async funksjon enn det Nvidia har med pascal.

 

"Finally, getting back to the subject of dynamic scheduling, I’ve spent some time mulling over what’s probably the obvious question: if dynamic scheduling is so great, why didn’t NVIDIA do this sooner? It’s not a question I have an answer to, but I strongly suspect it’s another one of those tradeoffs that’s rooted in balancing costs and benefits. Dynamic scheduling requires a greater management of hazards that simply weren’t an issue with static scheduling, as now you need to handle everything involved with suddenly switching an SM to a different queue. Meanwhile NVIDIA more than likely paid a die space penalty for implementing dynamic scheduling. GPUs continually sit on the fence between being an ultra-fast staticly scheduled array of ALUs and an ultra-flexible somewhat smaller array of ALUs, and GPU vendors get to sit in the middle trying to figure out which side to lean towards in order to deliver the best performance for workloads that are 2-5 years down the line. It is, if you’ll pardon the pun, a careful balancing act for everyone involved".

Tror det er bedre?

Vel, AMD har tradisjonelt flere ledige/ubrukte ALU-ressurser på en GPU. Der hvor et GTX 1060 kort har 10 SM har RX 480 36 CU.

 

Hvordan er det du mener Nvidia skal forklare hvordan async fungerer? De gjør dynamisk skedulering av SMer. Du har en grafikkø og 32 uavhengige datakøer med støtte for prioritet. Så har du en GMU (Grid Management Unit) som tracker avhengigheter mellom forskjellige kernels og drawcall. På Pascal har GMU fått noen mindre oppdateringer sammenlignet med Maxwell, samt at scheduler dispatch-enhetene i en SM bedre støtter rekonfigurering mellom compute og grafikk.

  • Liker 1
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...