Gå til innhold

Post dine 8800 GTS OC her! Spørsmål tas her også!


Anbefalte innlegg

Videoannonse
Annonse
Nei, kun standard slik jeg har forstått det. Det fungerer som en nedlastningsdatabase for de som har fucket sin egen bios, samt at han som driver siden, Mavke, bruker disse til å utvikle programmet sitt Nibitor, (som er til redigering av bios).

9628655[/snapback]

Ja, det er vel ikke noe fornuftig å få ut av biosflash på 8800GTS, eller har jeg gått glipp av noe?

 

Sist jeg flashet bios på grafikk-kort var da jeg hadde ATI X1800XT som jeg flashet til PE (med høyere klokk og spenninger) Gjorde noe liknende med Nibitor på 6800GT, men da var det vel verdier fra Ultra man la inn om jeg ikke husker helt feil.

 

Men er det mulig å endre V-core og V-dimm, eller noe annet nyttig med nibitor på 8800GTS? Har intrykk av at det er fysiske mods det går i, som blyant, eller innsetting av motstand/potmeter... :hmm:

Lenke til kommentar

Nei riktig, det var vel det jeg hadde intrykk av Bradbury, det er kanskje gjerne der man har en "storebror" som er teknisk lik, det oftest er gode slike muligheter...

Mitt gamle 6800GT går forøvrig i daglig bruk på 1,4V og relativt bra klokk fremdeles, så det var en velykket operasjon på de kortene ja :) .

Lenke til kommentar
Nei riktig, det var vel det jeg hadde intrykk av Bradbury, det er kanskje gjerne der man har en "storebror" som er teknisk lik, det oftest er gode slike muligheter...

Mitt gamle 6800GT går forøvrig i daglig bruk på 1,4V og relativt bra klokk fremdeles, så det var en velykket operasjon på de kortene ja :) .

9629047[/snapback]

på mine 7800 GT også :) (ble lodding etterhvert på de da. )

Ang Vmod.. skal gjøre det når jeg får meg vannblokk til kortet

men vil helst se resultater først da

Lenke til kommentar

Jeg har testet forskjellen i FPS i siste crysis-multiplayerbeta. Ved standardklokk 1240x1024 max på alt fikk jeg (etter det jeg klarte å observere med fraps) en økning på 15-30 FPS (alt etter hvor harde bilder det var snakk om å tegne) når jeg satt på min max-overklokking-profil. Dette vil jeg si meg ganske fornøyd med siden det er snakk ombare overklokking av skjermkort... Nå blir sikkert grafikkmotoren til crysis forbedret etter hvert også, så kan hende dette øker ved litt bedre tuning av motor;)

 

Meeeeeget nice grafikk btw.

Lenke til kommentar

Jeg legger merke til en ting nå... Hvis jeg setter core til f.eks 640 Mhz i Rivatuner, da vises denne som 648 i hardware monitor. Denne endrer seg ikke før den hopper helt opp til 675. Jeg har hele tiden trodd at det er disse valgene jeg reelt sett har, men jeg ser nå i GPU-Z at den leser av core til 640 når jeg har valgt dette i Rivatuner. Kan det være at hardware monitor har en bug, eller går kortet reelt sett på 648 selv om det er klokket til 640?

Lenke til kommentar

Det er sånn trinnvis Bradbury, og det var også grunnen til at jeg tok med litt ekstra info om dette under 14251poeng- 741/1135Mhz "skryteposten" litt tidligere.

meg selv,

741/1135 er satt med ATI Tool, dette gir i følge Rivatuner 729/1134 og shader 1728Mhz (i følge ATI tool er det 734Mhz core...)

 

Her har jeg altså satt klokken i ATI Tool, men kunne like gjerne gjort det i Rivatuner. 741Mhz er egentlig 729Mhz, men grunnen til at jeg likvel satte 741Mhz er at shaderclock da ligger høyere enn om jeg hadde satt 729Mhz.

"Neste stopp" på core er 756Mhz, og det klarer ikke mitt kort. På minnet er 1152Mhz neste over 1134Mhz.

 

Det finnes noen lister over disse trinnene (bla i Simalarion's 8800 tråd) men såvidt jeg kan se går de ikke langt nok for meg, og jeg er heller ikke sikker på om det er likt på GTS og GTX. Om jeg ikke husker feil blir avstanden mellom trinnene også noe lenger med høyere fart.

 

Det jeg syns gjør det enda mer vanskelig er at ATI tool viser noe annet enn Rivatuner, samt at jeg får den til å stoppe på forskjellige trinn avhengig av om jeg går oppover, eller nedover med slideren... :ohmy:

 

Jeg har dog intrykk av at Rivatuner er den som viser mest riktig, men er altså ikke sikker. Er ikke bare bare å bli klok på disse kortene. :)

Lenke til kommentar
Hvordan i alle dager får du GTS-kortet ditt til 730 på core? Mitt stopper på 640 :hmm:

9650655[/snapback]

Nei si det, noe av grunnen/forskjellen er vel denne;

 

110371.jpeg

 

Utover det så har jeg rett og slett vært meget heldig med mine Gainward/Nvidia kort. Har hatt 6600GT GLH, 6800GT, og nå 8800GTS 640 som alle med vann har klokket særdeles godt :)

Lenke til kommentar

Ahh :)

 

Må si det på en måte er komplisert å klokke grafikkort, selv om det i teorien bare er å flytte på sliderene.

 

ATITools klikker rambo og PC-en må restartes om jeg bruker core 641, mens i Rivatuner går <650 helt fint til benchmark.

 

Og når du driver å scanner for artifacts med ATITool, så når du først har fått den første artifacten, må jeg laaangt tilbake før artifactsene forsvinner. Meget forunderlig.

Lenke til kommentar

Ja, jeg må få si meg ening 2bb1, mitt forrige X1800 kort var mer komplisert med tanke på verktøy for klokking, og jeg husker jeg savnet Nvidia og Cool Bits i begynnelsen med det kortet.

Men dette 8800 blir jeg liksom ikke helt 100% fortrolig med, og jeg føler ikke at jeg har helt kontroll og oversikt over hva som skjer, eller hvilke verdier jeg skal stole på...

 

Det du sier med at du må laaangt tilbake på minnet når det feiler, kan vel muligens også være pga disse trinngreiene? Det gjelder jo i alle fall minnet også.

 

641Mhz core satt i ati tools er altså 648Mhz core i følge Rivatuner monitor, men når du går fra 640Mhz til 642 med Ati Tool forblir core det samme, men shader domain spretter fra 1458Mhz og opp til 1512Mhz. Så kanskje dette kan være grunnen til at det klikker akkurat der. Jeg vet ikke, og det forklarer unansett ikke hvorfor det bare skjer med AtiTool og ikke Rivatuner :innocent:

Lenke til kommentar

Jeg har aldri brukt AtiTool før, fordi jeg har ikke fått det til å fungere i Vista. Testet det i XP og programmet hostet opp en maksklokk på 689/1099. Jeg klokket litt ned til 683/1095 og gjennomførte 3dmark06 med Q6600 @ 3822 (En dag skal jeg virkelig guts'e på med volt og se hva denne jævelen klarer under litt press!).

 

Resultatet ble i hvert fall 13519.

 

Jeg legger ved et (noe rotete) skjermbilde.

post-39805-1191704832_thumb.jpg

Lenke til kommentar
Blir det ikke litt feil å bruke totalscoren i 3dmark på lista, eller er jeg bare helt på gjordet? :p

 

De som er gærne på å overklokke skjermkort, men som har en tragisk prosessor, skal ikke de fortjene en plass på topp 3 lista? :whistle:

Er derfor han har en liste utenom 3dMARK hvor det er scoren på skjermkortet som teller ;)

Lenke til kommentar
Blir det ikke litt feil å bruke totalscoren i 3dmark på lista, eller er jeg bare helt på gjordet? :p

 

De som er gærne på å overklokke skjermkort, men som har en tragisk prosessor, skal ikke de fortjene en plass på topp 3 lista? :whistle:

Fikset det nå, Last ned GPU-z å post linken din her så kommer du på listen så langt du har det som trengs ;)

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...