Gå til innhold

Geforce GTX 9xx Tråden


Anbefalte innlegg

 

Jeg får rundt 12 000 poeng med 980 x2 på stock clock (SLI er aktivert i Nvidia kontroll panelet).... Noe som ikke stemmer. Får helder ikke overclocket CPUen da Asus hovedkorte sende meg rett til "overclock failed" skjermen ved bootup, uansett hvor lite jeg har clocket. Vært en problemfylt build hele denne PCen...

Det er noe merkelig med vanlig FireStrike. Laster ikke kortene skikkelig i SLI. Sliter med det samme med 780Ti Classy på faseriggen. Kjør Extreme istedet :)

 

 

Fikk ordnet det, var Asus Swift monitoren som skapte problemer av en eller annen grunn. Når jeg kjørte testen på en 1080P standard LG monitor ble scoren en helt annen http://www.3dmark.com/3dm/4160499?

 

Sliter dog med at jeg ikke får vertifisert scoren når jeg kjører extreme testen av en eller annen grunn, etter hva jeg har lest så tyder det på at clocken min er ustabil, noe som en halltime i Prime95 for CPUen sin del motbeviser, samt en god stund i furmark for GPU klokken. Så jeg vet ikke helt... Her er vertfall scoren i Extreme http://www.3dmark.com/fs/2828339

 

Edit : Og 3dmark insisterer og på at jeg har en 5960X CPU, når jeg "bare" har en 5930K.

 

Endret av Evil-Duck
Lenke til kommentar
Videoannonse
Annonse

 

 

Jeg får rundt 12 000 poeng med 980 x2 på stock clock (SLI er aktivert i Nvidia kontroll panelet).... Noe som ikke stemmer. Får helder ikke overclocket CPUen da Asus hovedkorte sende meg rett til "overclock failed" skjermen ved bootup, uansett hvor lite jeg har clocket. Vært en problemfylt build hele denne PCen...

Det er noe merkelig med vanlig FireStrike. Laster ikke kortene skikkelig i SLI. Sliter med det samme med 780Ti Classy på faseriggen. Kjør Extreme istedet :)

 

 

Fikk ordnet det, var Asus Swift monitoren som skapte problemer av en eller annen grunn. Når jeg kjørte testen på en 1080P standard LG monitor ble scoren en helt annen http://www.3dmark.com/3dm/4160499?

 

Sliter dog med at jeg ikke får vertifisert scoren når jeg kjører extreme testen av en eller annen grunn, etter hva jeg har lest så tyder det på at clocken min er ustabil, noe som en halltime i Prime95 for CPUen sin del motbeviser, samt en god stund i furmark for GPU klokken. Så jeg vet ikke helt... Her er vertfall scoren i Extreme http://www.3dmark.com/fs/2828339

 

Edit : Og 3dmark insisterer og på at jeg har en 5960X CPU, når jeg "bare" har en 5930K.

 

 

Hah da så. Hadde aldri i verden tenkt på at det kunne være Swift-skjermen.

Lenke til kommentar

Hvor stor forskjell er det på 2 stk Gtx 980 i sli på 2 x PCIe 3.0 x16 (dual x8) vs dual x16 ?

Tror ikke det er mye forskjell. Jeg har nå god usage i alt utenom FireStrike og vil regne med at det som nevnt over er barnesykdommer e.l.

 

Har bencha mye på 1440p-skjermen min (QNIX) og hadde aldri problemer. Loada begge GPU'ene fint i FireStrike. Tror nok det er de nye driverne som kom med GTX900-serien.

 

Gjorde en kjapp test nå, Grafikk score skalerer 45% i Firestrike og 75% i 3dmark11 P og 98% i 3dmark11 X så det stemmer nok.

Lenke til kommentar

 

Bf4 på ultra preset med 200% res scale fløyt fint med rund 40-60Fps (Ikke intenst spilling, Kun sprenge måting på Test map :)

 

Kortet var stabilt på 155+/405+, Så tar jeg core til 1489Mhz og boost er på 1539Mhz :D

40fps er så langt fra flytende i mine øyne at hjelp!

 

Hehe, Så sitter jeg med en 60Hz monitor da, Lurer litt på om Aoc G-Sunch skjermen er noe :hmm:

Lenke til kommentar

 

For Kepler vet jeg bufferbegrensningen i GPU-minnet var 16384² (med 32-bit rgba), så 4xSS er naturligvis det meste disse GPUene kan klare.

Kjenner ikke umiddelbart igjen hvor 16384^2 kommer fra eller hva , eller hvordan sammenheng det har med 32-bit RGBA. :hmm: Jeg lytter gjerne. Snakker vi om hele framebufferen (RAM på 3GB her) inklusive teksturer ?

 

Var 4xSSAA teoretisk maks ved 2560x1440, og dermed ikke mulig på høyere skjermoppløsninger?

 

Keplers minnekontroller kan allokere bufre i dimensjoner opptil 2^14x2^14x4 byte (=1GB). Som du vet lagres bufre gjerne i RGB- eller RGBA-format, hvilket opptar henholdsvis 3 eller 4 byte per piksel. Det største bildet du da kan allokere er 16384x16384, som også er kjent som maksimal tekstur-/bufferstørrelse.

 

Hvis vi skal bruke en (frame-)buffer til rendering med AA gjelder naturligvis bufferbegrensningene nevnt ovenfor. Med 4xSS bruker som kjent hver piksel 4x4 samples som betyr at maksimal oppløsning med 4xSS er teoretisk 4096x4096. Hvis du har lyst til å kjøre 8xSS må du altså ha en GPU som kan adressere større bufre, eller kjøre med lavere oppløsning.

 

Begrepet framebuffer kan ofte være misledende. Jeg sikter her til en spesifikk allokert buffer i GPU-minne. Noen bruker derimot "framebuffer" som synonym med GPU-minne, men dette gir ikke lenger mening siden det lagrer mye mer enn en enkel "frame". Dette er nok noe som henger igjen fra gamle dager da skjermkortets minne bare var en buffer for nåværende bilde.

 

Gav det mening?

Endret av efikkan
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...