Gå til innhold

Test: Nvidia GeForce GTX 680


Anbefalte innlegg

Videoannonse
Annonse

GK110 kommer vel ikke før slutten av året. Så sitter du på et forrige generasjonskort kan du nok vente på det.

Prøv sommeren...

 

GK104 har lenge vært ryktet å faktisk være et midrange kort og ikke et toppkort. Om det faktisk stemmer og hvorfor nVidia da har valgt å kalle kortet for GTX680 som skulle tilsi at det er det raskeste singlecore gpuen de lager av den serien, er det bare nVidia som vet.

Tidlige engineering samples av GK104 var faktisk branda GeForce 670 Ti.

 

Men både hyggelig ytelse og hyggelig pris, selv om de er noen måneder for sent ute. :p

Jepp, tre måneder forsinket. Første revisjon av av GK104 og 107 hadde trøbbel med PCIe PHY, og trengte en respin.

Lenke til kommentar

For meg virker det nesten som om de hadde noe kraftigere på gang med tanke på specs, men så trappet de ned litt sånn at de akkurat kunne slå 7970 på ytelse, men da også på pris.

 

Dette er jo nesten bedre for nVidia enn om de hadde gått for å slå AMD med 20-30% men havnet 1000-1500kr høyere i pris.

Nå treffer de 2 kundegrupper samtidig, både de som vil ha best ytelse samme hva prisen er, og også de som vil ha topp ytelse men ikke er villige til å punge ut masse ekstra for det aller beste.

Endret av Apox
  • Liker 2
Lenke til kommentar

For meg virker det nesten som om de hadde noe kraftigere på gang med tanke på specs, men så trappet de ned litt sånn at de akkurat kunne slå 7970 på ytelse, men da også på pris.

Det tar ganske lang tid å "re-enginere" en GPU... ;)

Rekkefølgen man lanserer ting på kan selvsagt bli stokket om ganske lett.

Lenke til kommentar

Jeg kommer til og vente. Misstenker som mange andre at Nvidia slipper et "GTX685" kort senere i år. Forventer at Nvidia har noe mer på lager. De var mange måneder etter AMD og klarer alikevell ikke slippe et kort som er noe annet enn marginalt bedre enn AMD sitt.

 

 

De har også flere valg lagt opp på PCB'en i form av strømtilkobling. Det at de velger en 6+6Pin på topkortet sitt er rart. De har også lagt opp flere valg og slik PCB'en er lagt opp i dag så har de faktisk muligheten til 8+6+6 Pin, Noe som er litt rart...

 

big_gtx-680-back.jpg

 

En TDP på spinkle 195w er også underlig.

 

Nei jeg forventer et 685 om noen måneder som legger seg ca 5-10% over 680 igjen. Og så et 690 (Dual GPU)

Endret av EggMan88
Lenke til kommentar

Økningen fra et 580 til 680 var ikke særlig stor og forventer at Nvidia har noe mer på lager.

 

Dette må du virkelig utdype..

 

De var mange måneder etter AMD og klarer alikevell ikke slippe et kort som er noe annet enn marginalt bedre enn AMD sitt.

 

 

At du mener hva?... Om du tenker på nVidia så er 680 generelt mer en maginalt bedre, det er omtrent på høyde med 590 gtx. (regner med du mente 680 gtx mot 7970)

 

sum sumarum... Har du lest noen tester i det hele tatt?.

Endret av simalarion
Lenke til kommentar

Økningen fra et 580 til 680 var ikke særlig stor og forventer at Nvidia har noe mer på lager.

 

Dette må du virkelig utdype..

 

De var mange måneder etter AMD og klarer alikevell ikke slippe et kort som er noe annet enn marginalt bedre enn AMD sitt.

 

 

At du mener hva?... Om du tenker på nVidia så er 680 generelt mer en maginalt bedre, det er omtrent på høyde med 590 gtx. (regner med du mente 680 gtx mot 7970)

 

sum sumarum... Har du lest noen tester i det hele tatt?.

 

Fjernet 680 vs 580, de har klart og presset mer ut av 680 enn det jeg først hadde som intrykk. Men GTX680 er bare 5% kraftigere enn 7970 og Nvidia har de senere årene alltid ligget en del over AMD i ytelse når det gjelder topkortene.

 

Det med PCB layouten er noe som undere meg veldig og det er nok hovedgrunnen til mine spekulasjoner. 6+6 Pins er odde for et topkort, og det ligner ikke Nvidia og ofre ytelse fremfor effekt. Det hadde lignet dem mer og slippe et kort med 6+8 og en TDP på rundt 225w og da enda en 5-10% ytelse økning. Kortet er også overraskende lite for og være et topkort.

Lenke til kommentar

Kan dere ikke ha litt mer fokus på "totalpakken" også? Ytelse er vel og bra, men strengt tatt er det jo ikke akkurat vanvittig mye fremfor 7970.

 

Har nVidia andre ting ved siden av å by på? Hvordan fungerer flerskjermsløsningen i forhold til AMD?

At kortet er kjøligere og dermed åpner for lavere støynivå enn AMD er jo f.eks et pluss.

Hva med driverpakken? Brukervennlighet? Stabilitet

 

osv osv.

 

Ellers et fint review :)

Hei,

 

Av forskjellige grunner som tidsbruk, lengde på testene, hvor lenge før en lansering vi får et skjermkort, for enkelheten og presentasjonen har vi valgt å skille ut slike ting i egne saker. Denne testen er kobinert med en mineguide på de to første sidene som tar for seg de nye funksjonene, så har vi egen egen sak på teknologier som Eyefinity og 3D Vision.

 

Jeg har også et ønske om å få kjørt egen egen test av Nvidias nye flerskjermsystem. Jeg skal se hva jeg kan få ordnet der :-)

 

Når det gjelder stabilitetstesting av drivere er det dessverre noe som tar ufattelig lang tid å utføre i praksis på en skikkelig måte. Nvidia selv har en massiv testlab i Russland som tester et sted mellom 40 000 og 70 000 konfigurasjoner i året nettopp for dette formålet, noe som sier litt om skalaen. Det er så ufattelig mange variabler at det for oss vil væren nesten umulig og gjennomføre i praksis, synd som det er. På akkurat dette området må nok brukererfaringer rundt om på nettet ta over.

 

 

http://www.hardware....vision-2/105002

http://www.hardware....eyefinity/78811

 

 

Det er mange år siden jeg kjøpte skjermkort sist, derfor spør jeg: Hvorfor er det slik at samme kort finnes under flere merkenavn?

 

Asus, Gigabyte, Zotac, Msi osv. er det man kaller SKU-er: http://en.wikipedia....ck-keeping_unit

 

Nå skal jeg ikke uttale meg på vegne av AMD eller Nvidia, men et slikt prinsipp brukes ofte av to konkrete grunner. Den første er at det åpner for at flere produkter kan selges, med mer penger i kassa, samtidig som det skaper mangfold og mer konkurranse.

 

Den andre er at det for et selskap, som Nvidia eller ATI i sin tid, er utrolig vanskelig å få på plass et skikkelig distribusjonsnettverk og rutiner for kvalitetstestesting når et relativt lite selskap i oppstartsfasen. Distribusjon og testing er massive oppgaver. Så ved å få med seg SKU-er på laget gir det langt større muligheter til å vokse seg ut av oppstartsfasen for Nvidia og ATI.

 

Trenger man PCI-E 3.0 for å dra full nytte av GTX 680 eller er et PCI-E 2.0 x16 lane godt nok?

...og hvis man skal sette 2 stk opp i SLI, blir da 2 * PCI-E 2.0 x8 spor for lite?

 

PCIe 2.0 16x er godt nok. Kortet bruker ikke PCIe 3.0, det bare støtter det - som et lite steg inn i fremtiden. Hverken Nvidia eller AMD binder seg til PCIe 3.0 enda, fordi hverken hovedkortene eller prosesorene er særlig utbredt enda. Standarden er riktig nok bakoverkompatibel, men du vil i dag få full ytelse selv på PCIe 2.0

 

Citat:

Ett område Nvidia har satset hardt på, er at skjermkortet skal gi god per watt det trekker. Hele testmaskinen vår, med GTX 680 innabords, henter maksimalt 275 W fra veggen, en verdi som ligger et betydelig hakk under AMDs toppmodell HD 7970.

Nvidias kandidat trekker imidlertid noe mer strøm når det står på tomgang, fordi AMD har en spesiell innebygget strømsparingsfunksjon som kan senke forbruket helt ned til 2,5 W.

/End Citat.

Jag slutade att läsa här. När blev 18 watt av betydande karaktär? Kör du load 100% av tiden kan jag vara enig, men hur många kör maskiner liknande du testar med 100% load 24/7? AMD drar enligt er lista 2 watt mindre idle. DET är av betydande karaktär för 99% som köper dessa kort. Nvidia har gjort det förbannat bra med detta kort, men av det lilla jag läst så ser inte jag denna test som annat än reklam. Beklagar.

 

Hei,

 

Dette var synd å høre, så her kommer forklaringen på hvorfor jeg har valgt akkurat de ordene:

 

GTX 680, og HD 7970, er entusiastkort for spilling. Da når du raskt full belastning (effektmålingen er gjort under spilling). Sett i forhold til historien på akkurat dette området er det faktumet at Nvidia nå ligger nesten 20 W (6,5 %) under i dette segmentet, en betydelig endring for selskapets produkter, og dermed konkurransen i mellom de to. Maskinen til folk flest når nok mye idle-bruk, der forskjellen er på litt over 2 prosent. Det gir utslag, men ikke fullt så mye som hva det gjør under spilling når man regner kroner spart på det hele. Står en maskin med et slikt skjermkort innabords veldig mye på Idle, og brukeren bryr seg om effektforbruket, burde jo maskinen egentlig skrus av. Det er først når skjermen skrus av, harddisker stoppes og maskinen nesten går inn i dvale at AMDs Zero Core-teknologi sparker inn.

Endret av Nilsen
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...