Gå til innhold

XFX GTX 260 overklokking


Mann_Av_Gull

Anbefalte innlegg

Kjøpte for ikke lenge siden et demo1 XFX GTX 260 fra komplett.no til ca. 1800,-. Alt fulgte med. t.o.m spillet Assassins Creed. Ser nå at prisene har stupt. Men gjorde dog ikke noe dårlig kjøp siden jeg fikk alt med og kortet så ut til å nesten være ubrukt. Kan hende noen har sendt det tilbake på angrefrist.

 

Dette er 192 Shader versjonen av GTX 260. Har drevet å klokket det litt. Og kommet frem til at min maximum hastighet er 729 - 1458 - 1188, GPU - Shader - Minne. Greier litt mer på minnet men synes det er nok hastighet.

 

Brukte Nibitor til å få viften til å øke hastighet litt hurtigere etterhvert som tempen økte. Siden kortet ble alt for varmt med standard vifteoppsett. Nå ligger jeg ca. rundt 70 grader på max last og vifta ligger da gjerne på rundt 65% hastighet. Har også prøvd å øke Volt med Nibitor uten at dette hjalp for å få Shader til 1512MHz.

 

Selv om jeg er stabil på disse hastighetene så valgte jeg til slutt å flashe det til 702 - 1404 - 1188. Liker å være 101% sikker når jeg skal ha 24/7 oppsett.

 

Det som er med disse kortene er at man har stegvise økninger. GPU-Z og endel andre programmer kan godt vise at man kjører GPU på f.eks 700MHz. Men i realiteten vil man da kjøre 702MHz. Dette kan man se med f.eks Rivatuner eller EVGA Precision. Dette gjelder Shader og minne også. For å ta noen eks: GPU: 621 - 648 - 675 - 702 - 729 osv... Shader: 1404 - 1458 - 1512 - 1566 osv...

 

En annen ting som er verdt å merke seg er at GPU klokken aldri kan kjøres på over halvparten av Shader. F.eks kan man ikke kjøre GPU på 729MHz og Shader på 1404MHz. Da vil kortet klokke seg ned til 2D frekvenser automatisk. Shader må i dette tilfellet minst være nøyaktig det dobbelte av GPU. Altså 1458MHz. Man kan jo sef. unlinke og kjøre Shader høyere. F.eks GPU på 729MHz og Shader på 1512MHz.

 

Derfor overrasker det meg litt at enkelte produsenter selger fabrikkoverklokkede kort hvor de hevder at klokkefrekvensen er f.eks 666MHz. Dette blir da i realiteten 675MHz. Disse stegene var likedanne på 8800 serien også. Iallefall 8800GTX og GTS 320/640.

 

Så det jeg lurer litt på er hva andre greier å klokke disse kortene til? Forresten meget bra ytelsesgevinst av å klokke. Disse kortene skalerer veldig bra med klokkefrekvensen og klokker igrunn veldig bra.

 

En ting som kan være verdt å nevne er at jeg har fått inntrykk av at Core 216 kortene i mange tilfeller klokker dårligere enn Core 192 versjonene. Etter å ha lest litt rundt på nettet. Core 216 kortene er jo i utgangspunktet ca. 5% raskere enn Core 192 kortene. Men hvis de klokker dårligere så blir jo dette jevnet ut uansett. Men ta dette med en klype salt. Hadde vært artig å fått mer data på dette.

 

GTX 280 kortene klokker iallefall i snitt dårligere enn GTX 260 kortene. Og et GTX 260 kort, selv 192 Shader versjonen som er kraftig klokket kan faktisk hevde seg mot et standard klokket GTX 280.

Endret av OcMax
Lenke til kommentar
Videoannonse
Annonse

jeg har akkurat samme kort selv, og jeg kjører det på 700/1400/1200 til daglig. noe høyere har jeg ikke testa, men det du sier om shader klokk vs core klokk er interessant. det kan forklare problemene jeg hadde da jeg testa kortet første gangen.

 

jeg skal ta meg litt tid en dag og sjekke å høyt jeg kommer på shaderne, for jeg tror core og kanskje rammen har litt mer å gå på.

 

idle temp nå er ca 41 på core og 35 ambient. da går vifta på 40% har ikke sjekka load på en stund, men den er ikke så ille med tanke på at romtempen er sikkert rundt 25 grader her.

Lenke til kommentar

Shaderen stopper meg fra å komme videre med GPU klokken iallefall. I og med at Shader ikke vil 1512MHz så får jeg heller ikke GPU klokken over 729MHz. Høyeste shader hos meg er som sagt 1458MHz. Og da blir jo GPU max 729MHz. Siden den ikke kan klokkes høyere enn halvparten av Shader klokk.

 

GPU-Z er fin å bruke hvis du skal logge temperaturer og viftehastighet under last (spilling).

 

Og Spirre, du kjører da i realiteten 702 - 1404 - 1188 GPU - Shader - Minne på ditt kort. Og det er akkurat samme frekvenser som jeg har flashet mitt kort med.

 

En ting til, da jeg prøvde på 1512MHz Shader så så det ut som det var mye mer stabilt om jeg klokket i linked modus. Altså når GPU var halvparten av Shader. Hvis jeg valgte unlinked og holdt GPU hastighet under halvparten av Shader så ble det enda mer ustabilt. Men uansett, kortet var overhodet ikke stabilt med 1512MHz Shader under noen omstendigheter som hadde med heavy 3D belastning å gjøre.

Endret av OcMax
Lenke til kommentar

Helt siden jeg kjøpte kortet, har jeg hatt lyst å klokke det :)

Men så var det en som sa det ikke ga spess mer ytelse med klokka GPU. Curse him! :p

 

Ser at du skriver "ytelsesgevinst".

 

Kan noen av dere guide meg gjennom how-to? :)

 

Det eneste kravet er vel et stabilt system! Gaming rig vettu ;)

 

jeg har dette kortet.. Altså det "dårligste" :p

Bruker rivatuner til fan control ;)

Lenke til kommentar
Helt siden jeg kjøpte kortet, har jeg hatt lyst å klokke det :)

Men så var det en som sa det ikke ga spess mer ytelse med klokka GPU. Curse him! :p

 

Ser at du skriver "ytelsesgevinst".

 

Kan noen av dere guide meg gjennom how-to? :)

 

Det eneste kravet er vel et stabilt system! Gaming rig vettu ;)

 

jeg har dette kortet.. Altså det "dårligste" :p

Bruker rivatuner til fan control ;)

 

Vel, klokk med Rivatuner eller EVGA Precision. Ellers ser du 'intervallene' på klokkefrekvensene jeg har skrevet i bla. det første innlegget. Så øker du gradvis og tester om kortet er stabilt. Kjør det mest krevende spillet du finner og sett alt på max. For å få skjermkortet presset skikkelig.

 

Ut fra tester jeg har sett og erfart selv så ser det ut til at hvis du klokker kortet f.eks 20% så får du 20% ytelsesgevinst igjen. Da særlig når ikke CPU er flaskehals. Dvs. når skjermkortet blir skikkelig presset. Og det er jo det som er vitsen med å ha et skjermkort av dette kaliberet. Nemlig å kunne kjøre max eyecandy på høye oppløsninger. Tenker da særlig på 1920x1200 og oppover. Dette var grunnen til at jeg oppgraderte fra 8800GTX (Som nå står i min sekundære maskin) til dette kortet. Nemlig fordi de nyeste spillene begynte å 'slite' litt i 1920x1200 på min 24 tommer LCD. Hadde jeg hatt en 22 tommer så hadde jeg ikke sett noen hensikt i å oppgradere enda. Da 8800GTX holder fint på 1680x1050 eller 1600x1200 (4:3)

Endret av OcMax
Lenke til kommentar
Har en 22" Samsung Syncmaster 225MW.

 

Den takler ikke C:Warhead på fullt, med høyeste oppløsninga (kan gå ned til 15fps i "overaktive" scener)

 

Skal prøve å klokke :)

 

BTW, kjøre benchmark med alt på max? Antialiasing og?

 

Ser bort fra Crysis. For ingen skjermkort greier å drive det på max på någelunde høye oppløsninger. Men Crysis er ikke som alle andre spill :)

 

Du kjører høy AA og mest mulig på max når du skal teste stabiliteten på skjermkortet. Press det så hardt som mulig.

 

Jeg har foreløpig ikke funnet noe som varmer opp skjermkortet mitt mer enn Oblivion. Og det er en spesiell plass i Oblivion. Nemlig farmen som ligger utenfor Anvil. Dit kan man ta fast travel. Her er det veldig høyt gress, med høy tetthet. Bruker dette som test. Lar bare figuren stå i gresset, uten å spille. Kjører med det meste på max da. Real-time HDR IBL er også fin å bruke for testing. Denne greier nesten å kjøre skjermkortet like varmt som Oblivion. Spes. om man setter multisample til 16x.

 

Fallout 3 og andre spill jeg har prøvd kjører noen grader lavere enn de 2 overnevnte.

Endret av OcMax
Lenke til kommentar
jeg tror du kan sette opp til 702/1404/1188 med en gang. det virker som de korta klarer det ganske lett.

 

jeg anbefaler rivatuner, men det kan virke litt avansert til å begynne med. evga precision har jeg ikke testa.

 

Vil tro de fleste GTX 260 kortene greier 702/1404/1188 ja. Iallefall mange av dem.

 

Evga Precision er veldig lett å bruke. Veldig greit lite program.

Lenke til kommentar

Satt opp til detta på evga..

Klarte ikke å sette den til akkurat det dere sa :p

 

Har ikke oblivion ._.

Så må finne et eller annet annet spill å teste med ._.

sljztv.jpg

 

EDIT:

Hva er den profile tingen?

 

EDIT2:

LOOOOL!! xD xD

 

Alt på MAX (Enthusiast) +1680x1050 res, og x16Q AA!!

Sitter nå med 1.5FPS xD

Filmen i Crysis Warhead var i 12 da, xD

Men det var bare en svart skjerm xD (med litt hvit tekst på, og lyd i bakrugnnen) xD

Endret av HLSolbjorg
Lenke til kommentar

HLSolbjorg,

 

Tenkte vel mer når jeg sa maksimale innstillinger at du skulle stille max slik at du fortsatt hadde någenlunde flyt. For er ikke sikker på at du får presset skjermkortet når du er nede i noen få bilder i sekundet.

 

Jeg tester i Oblivion med max innstillinger hvor spillet faktisk er meget spillbart.

Endret av OcMax
Lenke til kommentar

EVGA sitt program ser veldig lovende ut.. hadde et 8800GTS 320 som har standart 1600 på minnet.. klokka til 1800 med gainward sitt EXPERtool.. det er også veldig enkelt lite programm, men kortet mitt det var stabilt, selv med max klokk som man kunne oppnå med EXPERtool.. lwl.. har 9800GX2, som er på 1000 på minnet på hver GPU.. skal sjekke temp på det, men vil dette klare fes 1200 på hver GPU?

 

"LEIF"

Endret av eXclusive1337
Lenke til kommentar

Startet crysis. Spilte til første Save Game. Så fikk jeg en helt svart skjerm.

Så avslutta jeg crysis (via taskmanager), og fikk en liten boble, skjrmdriveren er gjennopprettet etter en feil. nvdll**** (og noe mer)

Startet crysis på nytt, og startet også oppdraget på nytt.

Rett etter jeg landet i vannet (tidligere enn forrige gang), slutta skjermen å virke (den var på, men sånn no signal drit). Skrudde den av og på, og da kom det opp en BSOD! (vet ikke hvorfor jeg endra størrelsen der :p :p

 

Klokker litt ned igjen jeg :p

Lenke til kommentar
Startet crysis. Spilte til første Save Game. Så fikk jeg en helt svart skjerm.

Så avslutta jeg crysis (via taskmanager), og fikk en liten boble, skjrmdriveren er gjennopprettet etter en feil. nvdll**** (og noe mer)

Startet crysis på nytt, og startet også oppdraget på nytt.

Rett etter jeg landet i vannet (tidligere enn forrige gang), slutta skjermen å virke (den var på, men sånn no signal drit). Skrudde den av og på, og da kom det opp en BSOD! (vet ikke hvorfor jeg endra størrelsen der :p :p

 

Klokker litt ned igjen jeg :p

 

Hvilke klokkefrekvenser kjørte du da?

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...