Gå til innhold

Overklokker GeForce 8800 GTS


Anbefalte innlegg

Gjest Slettet+6132
Ehm, ikke helt fått med deg at det har kommet en ny 8800GTS? :thumbup:

 

Synes MSI-kortet lå bra i pris, men det er jo litt merkelig at ikke minnet er klokket noe. Pleier de ferdige OC-kortene å være presset til grensen, eller er det noe å hente på å klokke disse selv vs. å klokke et stock-kort selv?

 

Hmmm, nei. Det har jeg ikke oppfattet. :)

 

Så denne varianten av 8800GTS fra MSI er basert på ny GPU? PCI-E 2.0?

 

Og du synes en pris > 2x3850 er ett bra tilbud?

 

Me thinks not.. :)

 

Edit:

Har oppgradert meg nå mhp hva slags kort dette er :)

Så det er defintivt jeg som var "noob" her ja. :blush:

Endret av Slettet+6132
Lenke til kommentar
Videoannonse
Annonse

TJa, man selger kortet og legger 800kr til og kjøper seg GTS(om man har gtx). Ser ikke hva som ers å fryktelig galt i det. Ang sli\crossfire så har jeg ikk HK som støtter det, sikkert fler i samme båt.

 

Så får jeg bedre pris for GTS en jeg haddet fått for GTX og kjøper topp kortet når det kommer.

 

God jul :thumbup:

Endret av simalarion
Lenke til kommentar

Er det forresten noen som har funnet tester med sammenligninger av:

geforce 8800 GTS 512MB vs. Radeon HD 3850/3870 Crossfire?

 

Sortert på pris:

~1050 kr: Geforce 8600 GTS 256MB

~1150 kr: Radeon HD 3850 256MB

~1350 kr: Radeon HD 3850 512MB

~1500 kr: Radeon HD 3870 512MB

~1550 kr: Geforce 8800 GT 512MB

~2300 kr: Radeon HD 3850 256MB Crossfire

~2350 kr: Geforce 8800 GTS 512MB

~2650 kr: Radeon HD 3850 512MB Crossfire

~3000 kr: Radeon HD 3870 512MB Crossfire

~3350 kr: Geforce 8800 GTX 768MB

~4500 kr: Geforce 8800 Ultra 768MB

 

Jeg tenkte jeg skulle sette opp en XY-graf over ytelse vs pris for disse kortene.

Lenke til kommentar
Simen1 har et bra innlegg lengre opp i tråden.

Hvis man tar en titt på hva som brukes på standard oppløsning i 3dmarkxx etc så ser man svaret til hvorfor nvidia gjør akkurat som de gjør (sikkert ati også).

 

1280*1024 er oppløsning benche programmene kjører på, allerede utdatert mener jeg.

1. Nå begynner jo 3Dmark 06 å bli 2år gammelt, og det kan nok ha noe med saken å gjøre.

2. Oppløsningen kan ikke økes stort mer, da dette også setter et krav til skjermen av de som benchmarker, og setter de f.eks oppløsningen til 1600x1200 så blir alle nødt til å enten kjøpe seg 5:4 format LCD skjerm med den oppløsningen, eller en skjerm med høyere oppløsning. (1920x1200 ++)

Setter de den til 1680x1050, så må alle skaffe seg en 20" Widescreenskjerm eller høyere. De med f. eks 20" 5:4 format skjerm (1600x1200) vil da ikke kunne kjre oppløsningen.

 

med andre ord støter de på et lite problem ved at mange med 5:4 skjermer eller 16:10 skjermer mister muligheten til å kjøre 3Dmark ved høyere oppløsninger enn 1280x1024, da den oppløsningen kan kjøres på de aller fleste skjermer. Ville tro de heller satte på Eye-candy istedenfor.

 

Edit: har du 24" med 1920x1200 derimot, så er du "reddet" og kan kjøre alle nevnte oppløsninger.

Endret av andrull
Lenke til kommentar
On to the overclocking, we pretty much maxed out the options on Asus' overclocking utility raising the GPU to 750MHz, Shader Clocks to 2000MHz and the memory to 2140MHz! All these on just the stock cooler!

 

Dette er Asus kortet jeg har bestilt i dag klokket med programmet som følger med, er ganske sikker på at jeg drar fra GTX kortet på crysis på dette. Blir uansett morro og få testet noe nytt igjen

 

http://www.vr-zone.com/articles/Nvidia_880...ors/5441-7.html

Endret av simalarion
Lenke til kommentar
Ehm, ikke helt fått med deg at det har kommet en ny 8800GTS? :thumbup:

 

Synes MSI-kortet lå bra i pris, men det er jo litt merkelig at ikke minnet er klokket noe. Pleier de ferdige OC-kortene å være presset til grensen, eller er det noe å hente på å klokke disse selv vs. å klokke et stock-kort selv?

 

Hmmm, nei. Det har jeg ikke oppfattet. :)

 

Så denne varianten av 8800GTS fra MSI er basert på ny GPU? PCI-E 2.0?

 

Og du synes en pris > 2x3850 er ett bra tilbud?

 

Me thinks not.. :)

 

Det sier heller noe om at 3850 er godt priset. Tenkte mer i forhold til prisen på stock-versjonene av 8800GTS 512MB (blir mer og mer irritert på navngivningen kjenner jeg :thumbdown: ).

 

Den nye 8800GTS bygger på samme teknologien som 8800GT (G92-brikke, skyt hvis jeg roter), men er hakket vassere.

Lenke til kommentar

 

Simen1 har et bra innlegg lengre opp i tråden.

Hvis man tar en titt på hva som brukes på standard oppløsning i 3dmarkxx etc så ser man svaret til hvorfor nvidia gjør akkurat som de gjør (sikkert ati også).

 

1280*1024 er oppløsning benche programmene kjører på, allerede utdatert mener jeg.

1. Nå begynner jo 3Dmark 06 å bli 2år gammelt, og det kan nok ha noe med saken å gjøre.

 

2. Oppløsningen kan ikke økes stort mer, da dette også setter et krav til skjermen av de som benchmarker, og setter de f.eks oppløsningen til 1600x1200 så blir alle nødt til å enten kjøpe seg 5:4 format LCD skjerm med den oppløsningen, eller en skjerm med høyere oppløsning. (1920x1200 ++)

Setter de den til 1680x1050, så må alle skaffe seg en 20" Widescreenskjerm eller høyere. De med f. eks 20" 5:4 format skjerm (1600x1200) vil da ikke kunne kjre oppløsningen.

 

med andre ord støter de på et lite problem ved at mange med 5:4 skjermer eller 16:10 skjermer mister muligheten til å kjøre 3Dmark ved høyere oppløsninger enn 1280x1024, da den oppløsningen kan kjøres på de aller fleste skjermer. Ville tro de heller satte på Eye-candy istedenfor.

 

Edit: har du 24" med 1920x1200 derimot, så er du "reddet" og kan kjøre alle nevnte oppløsninger.

Nå er ikke 3Dmark kjent for å ta spesielt hensyn til de med litt aldrende PC-utstyr. De tar jo sikte på å måle fremtidig ytelse, noe de også gjenspeiler i navnet Futuremark.

 

Dessuten kan man fint teste en maskin på f.eks 1920x1200 selv om skjermen bare takler 1280x1024. Det gjør at man får sort skjerm og meldingen "out of range" under testen men det er ikke noe som påvirker skjermkortet. Signalene går jo bare en vei: fra skjermkort til skjerm. Det har null og niks å si for ytelsen eller skjermkortet om signalet mottas og tolkes av skjermen eller ikke. Etter testen vil man falle tilbake til normal oppløsning og dermed få vist dialogboksen med resultatet. Det vil sikkert fortsatt bli mulig å teste med lavere oppløsninger om man ønsker det. Akkurat som før.

Lenke til kommentar

 

Simen1 har et bra innlegg lengre opp i tråden.

Hvis man tar en titt på hva som brukes på standard oppløsning i 3dmarkxx etc så ser man svaret til hvorfor nvidia gjør akkurat som de gjør (sikkert ati også).

 

1280*1024 er oppløsning benche programmene kjører på, allerede utdatert mener jeg.

1. Nå begynner jo 3Dmark 06 å bli 2år gammelt, og det kan nok ha noe med saken å gjøre.

 

2. Oppløsningen kan ikke økes stort mer, da dette også setter et krav til skjermen av de som benchmarker, og setter de f.eks oppløsningen til 1600x1200 så blir alle nødt til å enten kjøpe seg 5:4 format LCD skjerm med den oppløsningen, eller en skjerm med høyere oppløsning. (1920x1200 ++)

Setter de den til 1680x1050, så må alle skaffe seg en 20" Widescreenskjerm eller høyere. De med f. eks 20" 5:4 format skjerm (1600x1200) vil da ikke kunne kjre oppløsningen.

 

med andre ord støter de på et lite problem ved at mange med 5:4 skjermer eller 16:10 skjermer mister muligheten til å kjøre 3Dmark ved høyere oppløsninger enn 1280x1024, da den oppløsningen kan kjøres på de aller fleste skjermer. Ville tro de heller satte på Eye-candy istedenfor.

 

Edit: har du 24" med 1920x1200 derimot, så er du "reddet" og kan kjøre alle nevnte oppløsninger.

Nå er ikke 3Dmark kjent for å ta spesielt hensyn til de med litt aldrende PC-utstyr. De tar jo sikte på å måle fremtidig ytelse, noe de også gjenspeiler i navnet Futuremark.

 

Det gjør at man får sort skjerm og meldingen "out of range" under testen men det er ikke noe som påvirker skjermkortet. Signalene går jo bare en vei: fra skjermkort til skjerm. Det har null og niks å si for ytelsen eller skjermkortet om signalet mottas og tolkes av skjermen eller ikke.

Hehe, stemmer det. :p

Ikke like "spennende" da, men det går vel under nød ville jeg tro ja.

Nå er ikke 3Dmark kjent for å ta spesielt hensyn til de med litt aldrende PC-utstyr. De tar jo sikte på å måle fremtidig ytelse, noe de også gjenspeiler i navnet Futuremark.

Sant nok.

Kommende 3Dmark vil vel kreve Vista og DX10 HW om jeg ikke tar feil.

Ja, jeg er vel sikkret på denne siden også. :new_woot:

Lenke til kommentar
Linux/OS X benchmarks?

 

Just for kicks, we asked if Linux will ever be a consideration and why it isn't already (admit it, glxgears is a bit of a downer). As suspected, at least for 3DMark, it has to do with its API of choice, DirectX.

 

"DirectX is what we have been using all the way from the beginning, and we are confident that utilizing one API thoroughly on the PC is better than supporting two API's perhaps less thoroughly."

 

Of course, it would probably also have to do with the gaming populace and PC gaming's almost complete existence on the Windows platform.

 

"In order to support any other operating systems than Windows on the PC's, we would need to re-write our engines to support OpenGL and that is simply not feasible."

 

"Currently we have no plans to port our PC engine and tools to OpenGL," he says.

 

Linux graphics benchmarks do exist, however, just not for the PC. "On the mobile side we do support Linux, but not in our publicly available benchmarks," likely speaking of SimulationMark and possibly 3DMark Mobile 2006.

 

"We are of course monitoring the need for PC benchmarks like PCMark or 3DMark in the world of Linux (or OSX), but if we will ever end up creating PC benchmarks for other operating systems than Windows is something we haven't decided upon."

 

The need is there but it would seem it's not great enough. Basically, if you're not running Windows, 'no Futuremark for you.'

http://apcmag.com/node/4763

 

Det er et utdrag av en gammel artikkel, men det sier jo litt om instillingen til Futuremark.

 

Skal du måle grafikkytelse i linux kan du skrive glxgears i terminal foresten :p

Lenke til kommentar
Kommende 3Dmark vil vel kreve Vista og DX10 HW om jeg ikke tar feil.

Jeg sjekket nå og du har rett. 3DMark08 vil kreve Vista. Den støtter også kun prosessorer fra ca 2002 og nyere. (Pentium4, Athlon64, Pentium M og nyere prosessorer basert på disse). Det krever også minst 1GB ram.

 

hm. dumt at man MÅ ha vista. vill ikke ha vista jeg. prøvde det i 2 mnd. bare tull og tøys. Vista = pent men tregt og ustabilt. xp = ikke like pent, men raskt og stabilt.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...