Gå til innhold

4400+ X2 til geforce 8800gtx?


SirRobert

Anbefalte innlegg

Videoannonse
Annonse

Folk har en syk oppfatning av hva et 8800 GTX krever spør du meg. Selv sitter jeg på en Athlon 64 X2 3800+ som er klokket til 2,5Ghz. Oppgraderte for litt siden fra et 7950 GX2 til et 8800 GTX og det er merkbar forskjell når man spiller på høye oppløsninger. Det hører med til historien at jeg har en 24" lcd skjerm slik at jeg spiller på enda høyere oppløsninger enn det du vil gjøre, men det betyr ikke at det ikke vil være en god oppgradering for deg.

 

Selvsagt vil du få enda mer ut av begge de skjermkortene jeg nevnte over med f.eks en C2D prosessor med tilhørende hardware. Det betyr ikke at det ikke er verdt å oppgradere til 8800 nå. Det er allikevel et kort du kan ta med deg videre hvis du senere kjøper C2D osv.

 

Det du ikke nevner er hva slags grafikkort du sitter med idag, det vil selvsagt ha et ord med i spillet. Dessuten er spørsmålet om du planlegger å anskaffe Vista eller ei. 8x00 serien er isåfall absolutt aktuell. Hvis man ikke vil vente på Ati sitt DX10 kort istedenfor da selvsagt.

 

Et siste "apropo", hvorfor 3 minnebrikker? Det er ikke akkurat optimalt for "dual-channel". Man bør ha 2 eller 4 minnebrikker i et system som du har.

Lenke til kommentar

Folk har en syk oppfatning av hva et 8800 GTX krever spør du meg. Selv sitter jeg på en Athlon 64 X2 3800+ som er klokket til 2,5Ghz.

 

Enig. Mange tror vist at man minimum må [email protected] før man bør tenke å kjøpe 8800.

 

 

Et siste "apropo", hvorfor 3 minnebrikker? Det er ikke akkurat optimalt for "dual-channel". Man bør ha 2 eller 4 minnebrikker i et system som du har.

7723784[/snapback]

 

Ikke for å være frekk, men "folk har en syk oppfattning av hva" Dual Channel utgjør på et AMD system. :-) Så fort hypen ga seg viste det seg vel at du kunne nå en ytelsesgevinst på hele maskinen på ca 2%. Altså ikke noe man MÅ ha.

1.5Gb høres veldig passe ut i dag. Selv ikke med de tyngste spillene trenger man mer og ytelsesreduksjonen er nok langt mindre enn om man skulle offret en brikke for å få Dual Channel og 1 GB.

Lenke til kommentar
Ikke for å være frekk, men "folk har en syk oppfattning av hva" Dual Channel utgjør på et AMD system. :-) Så fort hypen ga seg viste det seg vel at du kunne nå en ytelsesgevinst på hele maskinen på ca 2%. Altså ikke noe man MÅ ha.

1.5Gb høres veldig passe ut i dag. Selv ikke med de tyngste spillene trenger man mer og ytelsesreduksjonen er nok langt mindre enn om man skulle offret en brikke for å få Dual Channel og 1 GB.

7723927[/snapback]

Ikke for å være frekk tilbake men har du dual-channel og har du forsøkt å kjøre med en eller tre brikker? Min erfaring er ihvertfall at det er veldig merkbart om man har dual-channel aktivert eller ei. Legg til at man sitter med en dobbelt-kjerne prosessor som har alle muligheter for multitasking så finner man fort ut hvorfor AMD og Intel har gått for dual-channel. Akkurat som 3DMark så skal du ikke ta syntetiske minnetester for den fulle og hele sannhet. Maskinen blir ingen racer av å kjøre dual-channel men den blir smidigere.

 

Ikke at  8800gtx "krever" en c2d cpu for funke , men at du tjenter mye "fps" på  a high end cpu  på dette kort.

7724047[/snapback]

Jeg er nysgjerrig på hva definisjonen av mye er. Greit nok at man kan nok tredoble fps (sikkert mer og) med raskere minne og raskere cpu hvis man kjører 800x600. Men sannheten blir noe helt annet hvis man kjører 1920x1200 med AA/AF. Utrolig hvor fort man klarer å få et skjermkort til å bli en begrensende faktor. Ikke at jeg sier jeg ikke ville tjene noe på å oppgradere til C2D med tilhørende minne og hovedkort. Men forskjellen utgjør ikke MYE fps i min bok ihvertfall. :)

Lenke til kommentar
Ikke for å være frekk, men "folk har en syk oppfattning av hva" Dual Channel utgjør på et AMD system. :-) Så fort hypen ga seg viste det seg vel at du kunne nå en ytelsesgevinst på hele maskinen på ca 2%. Altså ikke noe man MÅ ha.

1.5Gb høres veldig passe ut i dag. Selv ikke med de tyngste spillene trenger man mer og ytelsesreduksjonen er nok langt mindre enn om man skulle offret en brikke for å få Dual Channel og 1 GB.

7723927[/snapback]

Ikke for å være frekk tilbake men har du dual-channel og har du forsøkt å kjøre med en eller tre brikker? Min erfaring er ihvertfall at det er veldig merkbart om man har dual-channel aktivert eller ei. Legg til at man sitter med en dobbelt-kjerne prosessor som har alle muligheter for multitasking så finner man fort ut hvorfor AMD og Intel har gått for dual-channel. Akkurat som 3DMark så skal du ikke ta syntetiske minnetester for den fulle og hele sannhet. Maskinen blir ingen racer av å kjøre dual-channel men den blir smidigere.

 

Ja jeg har mulighet til å kjøre dual channel og nei, jeg gjør det ikke ettersom jeg også bruker 3 brikker.

Så vidt jeg vet påvirker ikke single/dual Core effekten av dual/single channel minne. Helt riktig at man ikke skal se på sytetiske tester. Disse viser en markant forskjell. Tester av spill og liknende derimot... Kan ikke se at maskinen blir særlig mer smidig, særlig ikke hvis alternativet er å fjerne minne for å oppnå DC. Da vil jeg heller si tvert i mot. Jeg kan bare snakke utfra meg selv og hva tester jeg leser viser. Et ganske sannenliknbart oppsett som trådstarter har brukes i denne testen

og viser omtrent hvor mye man tjener på Dual Channel. Jeg har tatt meg friheten til å linke til ikonklusjonen og så kan man heller bla bakover i testen for å se måleresultater. Merk at vi snakker om AMD her. Intel er en helt annen sak. Intels design er langt mer sulten på båndbredde og den reelle ytelsesendringen langt større.

Endret av Babelfisken
Lenke til kommentar

den der kombinasjonen funker bare fint, klart du ville sett forskjell i tester som 3dmark, men man kjører aldri så lave oppløsninger. og ved fps måling i spill også. men du vil trolig ikke klare og se noe forskjell. allt over 50 fps flyter perfekt og det er vel ganske sjelden dette kortet dropper inder det uansett oppløsning.

Lenke til kommentar

Takker for tips.

 

Skjermkortet jeg bruker nå er ett Asus EAX1900XT 512 mb som absolutt er bra. Men planen er å kjøre Vista (dx10), og bl.a kjøre Oblivion med Quarl`s texture pack + diverse andre modder, og siden jeg liker meg godt på 1680x1050 så tar det sin toll på maskinen min

 

Grunnen til at jeg har 3 brikker er faktisk helt tilfeldig. Jeg visste ikke at dette hadde noe å si på ytelsen. Men skal bytte de ut uansett

Endret av SirRobert
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...