Gå til innhold

Test: Nvidia GeForce GTX 680


Anbefalte innlegg

Er oppgradering fra Asus 570 til 680 verdt det?

 

Etter min mening ja. Det er sikkert noen som er uenig med meg her.

Hvis man sitter med gtx580 eller 590 er det ikke så meningsfylt å oppgradere så sant man ikke har hovedkort med PCI-E 3.0 og ønsker full pott på utnyttelse.

Etter hva jeg har lest vil adaptive v-sync og TSAA også bli implementert i 400 og 500 serien.

 

Det kommer jo litt anpå hvor kresen du er og hva lommeboka sier :)

 

Her har du en test som inneholder sammenligninger mellom gtx570 og 680. Les den og se hva du selv synes:

http://www.anandtech...x-680-review/10

Endret av Araghorn
Lenke til kommentar
Videoannonse
Annonse

Kjøpe GTX 680 og sette GTX 580 til pyshx? (eller hva det heter)

 

Det er jo fullt mulig, men GTX580 til PhysX er vel noe overkill?

Det skal sies at jeg ikke har sjekket noe særlig rundt det. Jeg ville nå solgt gtx580, nå som du kan få igjen en del for det, og kjøpt en noe lavere modell. Men har du powersupply til det og god råd... hvorfor ikke :)

Lenke til kommentar

Som jeg misstenkte: GK110 Spec Aprox

 

Even as launch of the GK104-based GeForce GTX 680 nears, it's clear that it is emerging that it is not the fastest graphics processor in the GeForce Kepler family, if you sift through the specifications of the GK110 (yes, 110, not 100). Apparently, since GK104 meets or even exceeds the performance expectations of NVIDIA, the large-monolithic chip planned for this series, is likely codenamed GK110, and it's possible that it could get a GeForce GTX 700 series label.
  • Liker 1
Lenke til kommentar

Som jeg misstenkte: GK110 Spec Aprox

 

Even as launch of the GK104-based GeForce GTX 680 nears, it's clear that it is emerging that it is not the fastest graphics processor in the GeForce Kepler family, if you sift through the specifications of the GK110 (yes, 110, not 100). Apparently, since GK104 meets or even exceeds the performance expectations of NVIDIA, the large-monolithic chip planned for this series, is likely codenamed GK110, and it's possible that it could get a GeForce GTX 700 series label.

 

At det kommer et større kort senere i år er vel ganske sikkert. Men foreløbig er alt bare rykter og ingenting er fastslått. Det har flyti rykter om GK110 i en god stund allerede :)

Lenke til kommentar

Tviler litt. Det er nok mer sannsynelig at det vil være et noe mer middelklassekort som kommer til konsollene. Det har aldri vært noe toppkort eller state of the art grafikkort i konsoller. Rett og slett fordi det tar lang tid å lage konsollene, og om de begynner å lage Xbox 720 NÅ, så vil den kanskje komme om et år eller to, og da er maskinvaren allerede utdatert.

Xenos (Xbox360 GPU'en) er en skreddersydd design og det var ikke slikt at den var ferdig utviklet da dem begynte å utvikle Xbox360. Xenos var mer funksjonsrik og hadde mer shader ytelse enn noen andre GPU'er på den tiden Xbox360 ble lansert, og generelt på nivå med GeForce 7800GTX (med forskjellige styrker og svakheter).

Første Xbox hadde en GPU som overgikk GeForce 3 Ti500, som var det kraftigste skjermkortet den gangen.

 

Strømforbruket og dermed varmeutviklingen har nok økt for mye til at det skjer med neste generasjon konsoller, men jeg tror absolutt ikke GK104 er en umulighet for XboxNext, men ikke med de klokkehastighetene GTX680 kjører på.

Endret av MistaPi
Lenke til kommentar

Som jeg misstenkte: GK110 Spec Aprox

 

Even as launch of the GK104-based GeForce GTX 680 nears, it's clear that it is emerging that it is not the fastest graphics processor in the GeForce Kepler family, if you sift through the specifications of the GK110 (yes, 110, not 100). Apparently, since GK104 meets or even exceeds the performance expectations of NVIDIA, the large-monolithic chip planned for this series, is likely codenamed GK110, and it's possible that it could get a GeForce GTX 700 series label.

 

At det kommer et større kort senere i år er vel ganske sikkert. Men foreløbig er alt bare rykter og ingenting er fastslått. Det har flyti rykter om GK110 i en god stund allerede :)

I know. Er ofte lenge mellom hver stor slipp av skjermkort og antar at "GTX700" serien blir det siste store fra Kepler før vi går over til Maxwell. Mtp at korta jeg har nå yter på høyde med SLI 680 ser jeg liten vits i og bytte, venter til "700" serien kommer mest sannsynligvis om 6mnd tid og slår til på 2 slike.

Lenke til kommentar

Hvilken driver versjon er brukt i testen? Ser nVidia kom med ny driver igår (301.10), ser at andre som har testet har brukt 300.99..

Noen som veit eventuellt hvor mykje bedre ytelse den nye driveren gir? Tidligere har det jo vist seg at ytelsen kan forbedres betraktlig mellom driverversjonene.

Lenke til kommentar

 

Jeg har AMD HD6870 og vurderer å bytte. Mitt primære behov er film og media; det skal se bra ut og kvalitet er viktigst.

 

Deretter spillbehovet.

 

Først og fremst snuser på toppmodellen fordi prisen er solid bra og jeg vil ha et skjermkort som virkelig kan levere varene.

 

Hva er best til film: AMD eller nVidia?

 

spiller ingen rolle så lenge du bruker madvr til resize av video.

 

noe jeg syntes er merklig er hvor lite det blir snakket om at nvidia har ofret mye compute krefter for mer spill krefter. leste ganske nøye gjennom anand testen, skumleste bare mellom denne, siden det ofte bare blir oversettelse av presseuttalelser om hva som er nytt og veldig lite dybde. jeg syntes HW bør begynne å berøre litt GPGPU ytelse også i testene.

Lenke til kommentar

Ser bra ut,litt over hva jeg har lyst å bla opp for et kort men det kutter prisene ellers får man håpe.

 

Bare så kjipt jeg skaffet meg et 570-kort nylig,gikk ifra 460,så kansje et 580 hvis prisen dropper der,sjeldent jeg har det aller siste,bruker mest gå for s,k mellomkort så det har vært ati(da) 4850,nv 260,nv 460,og nå nv 570,men så har jeg bruk for cuda og inn i mellom.Dvs boinc/fah sånn i ny og ne så 580 er det plass til :)

Er det noen som vet hvor mye disse bidrar i SETI/FAH?

Ikke sett noen nummer enda, i jevnførelse står gtx 570 på runt 20K ppd her i F@H (P8032).

Endret av jaxawier
Lenke til kommentar

som jeg ante. veldig bra og imponerende kort, med mye spennende teknologier. men man ser jo på høye oppløsninger og AA at 256bit minnebuss er en tabbe. skjønner ikke hvorfor de fant på det. burde jo vært 512 bit. mitt for lenge siden pensjonerte GTX 280 hadde jo 512 bit minnebuss.

Lenke til kommentar

som jeg ante. veldig bra og imponerende kort, med mye spennende teknologier. men man ser jo på høye oppløsninger og AA at 256bit minnebuss er en tabbe. skjønner ikke hvorfor de fant på det. burde jo vært 512 bit. mitt for lenge siden pensjonerte GTX 280 hadde jo 512 bit minnebuss.

Nei, 256bit minnebuss er nok smart trekk for Nvidia denne gangen, og var vel veldig forventet.

Husk at dette ikke er var ment som toppkortet deres, og verken kjernen eller PCB'en er ment for å gi maksimal ytelse. Dette er et kort hvor ytelse og produksjonskostnader møtes på "midten".

At det faktisk endte opp med å bli en formidabel slager med god ytelse er nok noe overraskende for flere.

 

De har nok gode marginer og kunne nok sikkert skrudd ned prisen uten å tape noe veldig på det. Men det faktum at Nvidia sitt skjermkort danker ut et dyrere (på produksjonssiden) HD 7970 på de fleste områder betyr at de kan sette en formidabel pris og tjene enda mer penger.

 

512bit- minnebuss gir et langt mer innviklet kort, større og ikke minst dyrere. (PCB-kortet blir dyrere, det krever flere minnebrikker og bedre strømforsyningskretser) 384bit eller 512bit er nok noe vi generelt ser mest av på de største kjernene, aka GK110. ;)

Endret av Andrull
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...