Gå til innhold

Nvidia: Så godt yter GTX 1070


Anbefalte innlegg

Videoannonse
Annonse

Før noen spør om det... 

 

Det er kun 5 stk. SM som er deaktivert på GTX 1070. Alle cache og ROP-partisjoner er aktive, så alle 8GB kan aksesseres like raskt.

Ellers så er forskjellen at det nå er 8 Gbps GDDR5 minne istedenfor 10 Gbps GDDR5X som på GTX 1080.

  • Liker 2
Lenke til kommentar

Sliter med å forstå hvordan 1070 og 1080 kan være stillere enn 970 og 980 når det tar ut mer typisk Watt...?:

 

Typisk forbruk 150 W 145 W 180 W 165 W

Alle sier jo at de skal kjøre på mindre typisk watt, men tabellene sier noe annet...

Bedre kjøling?

 

Jeg ser her at testene sier mindre støy, men tydeligvis ganske marginalt. Så da får man bare stole på ekspertene:

http://www.guru3d.com/articles_pages/nvidia_geforce_gtx_1080_review,11.html

Endret av maanemann
  • Liker 1
Lenke til kommentar

Hurra! Kanskje jeg skal bytte ut mitt 670-kort i oktober da.

 

Da er vi to! 1070 kommer til å holde leeenge for meg som er gammeldags med 1920x1080 i 24" :) får se an mengden feriepenger om det blir en asus skjerm, i så tilfelle blir det 1080. Er det merkbar forskjell å gå fra 144 til 165hz?
  • Liker 2
Lenke til kommentar

 

Hurra! Kanskje jeg skal bytte ut mitt 670-kort i oktober da.

 

Da er vi to! 1070 kommer til å holde leeenge for meg som er gammeldags med 1920x1080 i 24" :) får se an mengden feriepenger om det blir en asus skjerm, i så tilfelle blir det 1080. Er det merkbar forskjell å gå fra 144 til 165hz?

Nei, det er ikke merkbart forskjell. Jeg har acer predator xb271hu med 165hz merker ingen forskjell mellom 144 og 165 hz så langt, men kanskje senere når vi klarer så høy fps på moderne spill.

 

Men G-sync gjør en forskjell ;-) Jeg kjører på 1440p da :-)

Så ja skaff deg G-sync for veldig god flyt og ingen hakking :-)

  • Liker 1
Lenke til kommentar

Om det virkelig blir å yte 80% bedre bytter jeg glatt ut mitt 970, men tviler på at det blir 80% i praksis. Kan nok se lovende ut for et nytt likevel... :)

Virker som om det er veldig spill avhengig ytelseforbedring (som alltid):

 

Ifra 970 til 1080 virker det til å våre omtrent en slik økning i snitt da:

http://www.guru3d.com/articles_pages/nvidia_geforce_gtx_1080_review,17.html

 

Men ifra 970 til 1070 (som kanskje er en mer relevant sammneligning)er liksom ikke ytelseforbedringen i praksis enorm (se feks på Fallout4).

Jeg trodde først det det var større forskjell på DX12 spill, men både DX11 og DX12 varierer veldig.

Endret av maanemann
Lenke til kommentar

 

 

Hurra! Kanskje jeg skal bytte ut mitt 670-kort i oktober da.

 

Da er vi to! 1070 kommer til å holde leeenge for meg som er gammeldags med 1920x1080 i 24" :) får se an mengden feriepenger om det blir en asus skjerm, i så tilfelle blir det 1080. Er det merkbar forskjell å gå fra 144 til 165hz?

Nei, det er ikke merkbart forskjell. Jeg har acer predator xb271hu med 165hz merker ingen forskjell mellom 144 og 165 hz så langt, men kanskje senere når vi klarer så høy fps på moderne spill.

 

Men G-sync gjør en forskjell ;-) Jeg kjører på 1440p da :-)

Så ja skaff deg G-sync for veldig god flyt og ingen hakking :-)

Pensjoner nok XL2411T snart, G-Sync frister veldig !

Lenke til kommentar

 

Blir 1080 på meg uansett :)

 

Samme her, men founders edition blir det ikke. Jeg kjøpte referansekort da 980 ble lansert, og jeg kunne hjertens gjerne ha gjort det igjen med 1080, men jeg betaler faen ikke ekstra for det. Så da blir det å vente på EVGA.

Helt enig. Blir nok dog å vente på Gigabyte eller lignende. Er veldig fornøyd med eVGA, men de har ikke noen custom kort tidlige ute. eVGA er vel favoritten når det kommer til skjermkort. :)

Lenke til kommentar

Synes tabellen her var svært bra :)

 

Likte den langt bedre enn tabellen som Anandtech har hos seg. De har muligens litt finere grafikk, men selv om denne var enkel så var den lett å lese. Samtidig er infoen her bedre, og jeg liker bedre utvalget av grafikkkort.

 

Spesielt liker jeg at brikkestørrelse tas med. Det er ganske viktig informasjon nå i disse dager med alle problemene. Sier litt om hva de enkelte får til, samt pris og ytelse. Også strålende at det nevnes at GTX 1070 kort er samme brikkene som 1080, bare at det er brikker der alt ikke fungerer slik det skal og er deaktivert. God og forståelig forklaring selv for folk som ikke vet noe om det, samtidig som det ikke er feil eller dårlig formulering i forhold til et avansert perspektiv heller.

 

Alt i alt en veldig god artikkel, som tar med mye, og forklarer. Mange utenlandske sider er ofte bedre på det tekniske osv enn tek, og du får ofte mer informasjon og kunnskap av artikler der. Denne derimot er den beste jeg har lest angående GTX 1070 reveal av specs. Samtidig som den er veldig god, enkel og forklarende for folk som ikke kan noe veldig om det i det hele tatt.

  • Liker 2
Lenke til kommentar

Sliter med å forstå hvordan 1070 og 1080 kan være stillere enn 970 og 980 når det tar ut mer typisk Watt...?:

 

 

Typisk forbruk 150 W 145 W 180 W 165 W

Alle sier jo at de skal kjøre på mindre typisk watt, men tabellene sier noe annet...

Bedre kjøling?

 

Jeg ser her at testene sier mindre støy, men tydeligvis ganske marginalt. Så da får man bare stole på ekspertene:

http://www.guru3d.com/articles_pages/nvidia_geforce_gtx_1080_review,11.html

TDP står for "Thermal Design Power". Det betyr altså at GTX 1070 trenger en kjøler som tar vekk 150W med varme for å holde grunnfrekvensen sin. Den kan da heller ikke booste. Med en bedre kjøler enn 150W vil den kunne booste opp og bruke mer strøm.

 

Selv om 1070 og 1080 har høyere TDP har de lavere strøømforbruk. Grunnen er at 970 og 980 alltid hadde kjølere som tok vekk mer varme enn TDP. Altså boostet kortene opp og trakk en god del mer strøm. Det gjør 1070 og 1080 også, men strømforbruket etter at det har boostet opp som følge av kjøler som tillate det er mindre enn hos 1070 og 1080.

 

Så det går ikke an å se på TDP og ta det som strømforbruk. Det er derfor flere sider tester dette. TDP for Nvidia og AMD er og forskjellig. Nvidia ser jo langt bedre ut enn AMD her, men AMD har ikke like mye boost av frekvenser. Dermed havner typisk strømforbruk for NVidia og AMD nærmere enn TDP tallene tilsier.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...