Gå til innhold

Nvidia: Så godt yter GTX 1070


Anbefalte innlegg

Videoannonse
Annonse

Vis man bruker valutakalkulator blir det rundt 3200 kr hvorfor må vi da betale rundt 4500??

Justering mot norsk betalingsevne, frakt, moms eller lignende. Ekstremt sjeldent at man kan ta USD-prisen og bare endre valutaen. Til vanlig ganger man med 10, men siden kursen er såpass dårlig for tiden så blir det ofte mer enn det i tillegg.

Lenke til kommentar

Hvorfor må dem på død og liv sammenligne GTX 1070/1080 med GTX 970 og GTX 980 hele tiden.

Er det for å få Pascal kortene til å virke mye kraftigere enn de egentlig er?

 

Folk flest vil jo mye heller vite hvordan de nye kortene er, sammenlignet med GTX 980ti/Titan X

Endret av Nvidia
Lenke til kommentar

Hvorfor må dem på død og liv sammenligne GTX 1070/1080 med GTX 970 og GTX 980 hele tiden.

Er det for å få Pascal kortene til å virke mye kraftigere enn de egentlig er?

 

Folk flest vil jo mye heller vite hvordan de nye kortene er, sammenlignet med GTX 980ti/Titan X

Mest sannsynlig fordi Nvidia ikke har noen forventninger om å selge dette kortet til de med 980 Ti eller Titan X ;)

  • Liker 3
Lenke til kommentar

 

 

 

Har sagt det før og sier det igjen. GTX1070 og 1080 er fantastiske kort akkurat her og nå, og i DX11. Men når DX12 kommer for fullt kommer begge kortene til å bli parkert fordi begge ikke har støtte for DX12 i arkitekturen. Ergo vil både GTX1070 og 1080 gå ut på dato om kanskje 2 år (avhengig av hvor raskt DX12 fases inn i spill).

 

For å gjenta: Når DX12 kommer, vil det bli svært lite ytelsesforbedring for GTX1070 og 1080, gjennom driveroppdateringer.

Så hva er det som gjelder når DX12 er på høyden?

 

Folk tror at AMD sine kort vil bli magisk langt bedre enn Nvidia kort i alle DX12 titler, basert på et spill som er lagt i sterk samarbeid med AMD for å vise at AMD kort er gode. Det finnes et titalls spill som viser at NVidia kort er langt bedre enn AMD kort. Hvis du nevner disse derimot, så sier folk det er bare Nvidia som ødelegger spill sin ytelse for AMD. Det samme argumentet går ikke andre veien, fordi dette spillet har slengt "DX12" utpå. Siden det er DX12 så beviser det at alle DX12 titler blir akkurat slik som det er.

 

Og på grunnlag av dette alene fant nesten alle på internet på alle forum osv ut at AMD er langt bedre i DX 12. Sannheten er at ingen vet. Det finnes ingen andre skikkelig DX12 spill, og dette spillet kommer til å favorisere AMD uansett om det er OpenGL, Vulkan, DX11 eller DX12. Det er lagt for det. Interessant nok har en nettside funnet ut at om de bruker en open source framcounter fra Intel, så er Nvidia litt foran AMD i dette spillet :p Den innebygde testen og framecounteren derimot viser klar AMD ledelse. AMD favoriseringen i dette spillet er jo ekstremt åpenbar, men de fleste velger å overse dette.

Skjønner ikke helt hvorfor det er så viktig å se bort i fra disse spillene med DX12. De fleste sa ikke noe om eks. Project cars, Witcher 3, Watchdogs, Fallout 4 osv. Da alle disse var infisert av Gameworks. Nei, disse spillene var/er "nøytrale".

 

Og ja om du kommer og sier at Nvidia ikke har ødelagt spill med Gameworks så tar du feil. Det er en grunn til at jeg har denne holdningen ovenfor Gameworks:

- Spillene AMD har støttet har hatt marginal effekt på ytelsen til Nvidia kort. Det samme gjelder teknologien brukt i disse. For eksempel TressFX ble brukt i Tomb Raider 2013. Dette hadde marginal negativ effekt på Nvidia kort. (dette er en opensource teknologi).

- Spillene Nvidia har støttet, eks Project Cars har vært ubruklig på AMD kort. Samme med Witcher i to uker etter release. Samme med Watchdogs. Og hvordan tror du AMD klarer å optimalisere et spill der de ikke vet hva som skjer "under panseret" (Gameworks). Er det rettferdig? For alt vi vet kan Nvidia senke FPSen på AMD kort i alle Gameworks spill.

 

Som du selv sier "Sannheten er at ingen vet". Dette gjelder ikke DX11 med Gameworks i ditt hode selvfølgelig.

 

Du mener spill er "infisert" av Gameworks, som er akkurat det som er poenget mitt. Samtidig mener du AotS er "nøytralt".

 

Det var akkurat det jeg skrev om. Folk som kommer med påstander slik som dette. Det er utrolig åpenbart av innlegget ditt at du er anti-Nvidia og pro-AMD, du har ikke gjort noe for å skjule det heller.

 

Nvidia tapte masse ytelse i Tomb Raider, mye mer enn AMD i Witcher 3.

 

Så takk for at du viste poenget mitt?

 

Og jeg vet ikke hva du snakker om i mitt hodet. Jeg ser objektivt på tester av spill og gjør konklusjoner basert på det. Objektivt sett er AotS biased og kan ikke gi svar på DX12 ytelse, og resten av spillene er med DX12 sticker, men egentlig DX11. Altså ingen skikkelig data for DX12. Hint har vi jo, men det er mer på arkitektur ol enn spilltester. Så du kan like AMD så mye du vil, men det endrer ingenting angående ytelse. 

  • Liker 2
Lenke til kommentar

Nærmer seg 5 år siden jeg kjøpte pcn og har enda ikke oppgradert noe så blir vel kanskje å bytte ut hele greia med noe nytt når disse kommer :) resten av komponentene blir vel kanskje for gamle/dårlige om jeg bare hadde bytta ut gtx 680 (sabertooth x79, i7-3820 blant annet) med 1080? :p

Lenke til kommentar

Nærmer seg 5 år siden jeg kjøpte pcn og har enda ikke oppgradert noe så blir vel kanskje å bytte ut hele greia med noe nytt når disse kommer :) resten av komponentene blir vel kanskje for gamle/dårlige om jeg bare hadde bytta ut gtx 680 (sabertooth x79, i7-3820 blant annet) med 1080? :p

En 6 kjerner cpu med en god overklokk, og du har cpu i flere år til :)

Lenke til kommentar
  • 2 uker senere...

3820 er fremdeles en veldig kraftig cpu, og jeg tror ikke at den kommer til å bottlenecke et 1080 kort. Dersom du leser hardware.no sin test av 6950X så finner de ingen grunn til å ha flere enn fire kjerner i spill. Jeg har en slik liggende jeg og, og satser iallefall på at det går greit dersom jeg skulle gå for 1080 istedenfor 1070. 

 

https://www.reddit.com/r/buildapc/comments/4jxc9i/first_post_will_my_i7_3820_bottleneck_a_future/

 

Litt usikker på om tallene er relavante, men i 3dMark11 så ligger 3820 sånn ca på høyde med 6700K. 

 

http://www.futuremark.com/hardware/cpu

 

Håper iallefall at dette stemmer, fordi skal jeg først bytte ut 3820 med noe nyere så ryker vel også mye annet av innmaten i boksen :)

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...