Gå til innhold

Girer opp Geforce 9800 GTX


Anbefalte innlegg

Videoannonse
Annonse
Legg merke til at størrelsen på brikken går opp og shader-frekvensen går ned. (forutsatt at tallene stemmer)

 

Konkurranse er en god ting for brukerne, om det ikke går for langt ;)

Prod-teknikken går ned og brikken blir mye større, noe som tyder på at det kan bli mye kraft i denne i forhold til vanlige 9800gtx

Lenke til kommentar

4850 kommer alikevel til å være et bedre kjøp, selv om 9800GTX+ yter noen prosent bedre. Det er lager mindre varme, er singelslot, støtter opptil 4 kjerner i CF, kan kjøre i CF med sine brødre (4870 og 4870X2), og tilogmed kansje med 38x0 serien. Så slipper man nVidia chipsett som er helt ubrukelige mm. man kjøper 790i, og de hovedkortene koster 2300kr og oppover. 4850 er og endel bedre på video.

 

4850 har vunnet :)

Lenke til kommentar
Legg merke til at størrelsen på brikken går opp og shader-frekvensen går ned. (forutsatt at tallene stemmer)

 

Konkurranse er en god ting for brukerne, om det ikke går for langt ;)

Prod-teknikken går ned og brikken blir mye større, noe som tyder på at det kan bli mye kraft i denne i forhold til vanlige 9800gtx

Det forstår nå selv jeg. Transistortallet blir ikke bare litt større, men mye større. Tipper de setter inn en del flere shadere som gir bedre ytelse, og så justerer de ned frekvensen for at effektforbruket og varmeutviklingen (nært beslektet) ikke skal bli for stort.
Lenke til kommentar

Tror vi skal vente med å ta seieren på forskudd, en refresh av 9800GTX viser jo at nvidia er desperate og faktisk ikke greier å få ned produksjonskostnadene og produksjonsteknikken på Gt200 serien fort nok til å kunne konkurrere mot Ati sit mainstream produkt.

 

Regner med at Nvidia ikke kommer med de nye kortene før I september / oktober noe som betyr at Ati allerede vil ha fått kortene sine godt ute hos mainstream segmentet.

 

Edit : Greit nok at artikkelen sier slutten av Juli, men som med alle skjermkort produsenter så betviler jeg at de får nok av produktet ut på gatene til den tid og at om krympingne har blitt foretatt nå (altså produksjonsprossesen) så må man nesten forvente litt mulig ekstra tid.

 

Blir uansett spennende å se om de greier å holde datoen eller ei, jeg tviler dog på det.

Endret av Malvado
Lenke til kommentar
Legg merke til at størrelsen på brikken går opp og shader-frekvensen går ned. (forutsatt at tallene stemmer)

Huff, vi rotet her, det skulle være motsatt - altså at shader-frekvensen øker og størrelsen på brikken går ned på Geforce 9800 GTX+ :)

 

Beklager rotet, fikset nå!

Lenke til kommentar
todda: Alt for tidlig å komme med en slik fanatisk uttalelse.

Nei, egentlig ikke. Vis de senker effektforbruket, kan de ikke øke ytelsen så masse. Da vil det bli en konkurrent til 4850. Vis de beholder effektforbruket, og øker ytelsen, da vil det yte en del bedre enn 4850, men komme i en helt annen gruppe når det kommer til effektforbruk.

 

9800gtx kan kjøre tri-sli vs quad cfx.

Akkuratt, det var det jeg sa. 9800GTX kan kjøre i Tri-SLI, noe som foreløpig er "bugga" (bare sjekk ut Wheelman sitt prosjekt med 3x 8800GTX), utvikler ekstrem varme, bruker vanvittig mye strøm, og gir dårlig ytelse kontra to kort. Crossfire X kan ha et kort til, og dette kortet kan du velge etter økonomien din.

Det er de færreste hovedkort som har fire PCI-EX porter, men siden 4850 er Singelslot trenger man ikke tenke på å bytte kjøler til f.eks vannkjøling ettersom portene ofte står tett i sammen. Crossfire skalerer en del bedre fra to til tre kort kontra SLI, og skaleringa fra tre til fire kort er omtrent/litt dårligere enn skaleringa fra to til tre kort fra SLI.

Lenke til kommentar
Legg merke til at størrelsen på brikken går opp og shader-frekvensen går ned. (forutsatt at tallene stemmer)

Huff, vi rotet her, det skulle være motsatt - altså at shader-frekvensen øker og størrelsen på brikken går ned på Geforce 9800 GTX+ :)

 

Beklager rotet, fikset nå!

Da ser det straks mer ut som en vanlig krymping med påfølgende høyere frekvenser, og selvsagt mindre forbedringer. Virker mer logisk forøvring, som jeg hadde en anelse om.
Lenke til kommentar

Ser at riktig Die Size er omtrent 231mm noe som tilsvarer at brikken faktisk er 71% av størrelsen til 65nm brikken.

 

En die size reduksjon fra 65 til 55 nm har vanligvis skullet tilsvare en brikke på ca 271mm så her er det noe som muligens er fjernet fra brikken (eller at krympingen fra 65 til 55 nm ikke tilsvarer en 16.5% reduksjon i størrelse).

 

Noen som vet?

Lenke til kommentar
Nei, egentlig ikke. Vis de senker effektforbruket, kan de ikke øke ytelsen så masse. Da vil det bli en konkurrent til 4850. Vis de beholder effektforbruket, og øker ytelsen, da vil det yte en del bedre enn 4850, men komme i en helt annen gruppe når det kommer til effektforbruk.

 

vi må ikke glemme pris i denne sammeligninga, 4850 skal ned i 170$ innen en måned. fra 200$

Lenke til kommentar
Tror vi skal vente med å ta seieren på forskudd, en refresh av 9800GTX viser jo at nvidia er desperate og faktisk ikke greier å få ned produksjonskostnadene og produksjonsteknikken på Gt200 serien fort nok til å kunne konkurrere mot Ati sit mainstream produkt.

Vel...

Nå har G92b (55 nm versjonen) vært planlagt lenge.

G92 kommer til å være nVIDIA sin mainstrem brikke helt frem til slutten av året. Det har vært planen hele veien.

Lenke til kommentar
Ser at riktig Die Size er omtrent 231mm noe som tilsvarer at brikken faktisk er 71% av størrelsen til 65nm brikken.

 

En die size reduksjon fra 65 til 55 nm har vanligvis skullet tilsvare en brikke på ca 271mm så her er det noe som muligens er fjernet fra brikken (eller at krympingen fra 65 til 55 nm ikke tilsvarer en 16.5% reduksjon i størrelse).

 

Noen som vet?

Du har bare regnet litt galt. Når de krymper fra 65 til 55mm så er det ikke bare i bredden av brikken men også i lengden.

 

65 -> 55 = ca 15% reduksjon av bredden

65 -> 55 = ca 15% reduksjon av lengden

65 -> 55 = ca 30% reduksjon av arealet

 

324 mm2 -30% = ca 231 mm2. Altså en ganske ren og lineær krymping uten nevneverdige endringer. Arealet er ca 10% mindre enn Radeon 4850 og vil gi Nvidia en liten økonomisk fordel i produksjonen av selve brikken. Antall shadere, TMU osv blir nok identisk. Forskjellene blir klokkehastigheter og varmeutvikling.

 

Konkurransen har giret kraftig opp de siste dagene og det er svært gode nyheter for oss forbrukere. :)

Lenke til kommentar

1. Først så kjøper ikke alle flere kort, fleste har et kort, så en må tenke på hvilken oppsett det skal konkurere i.

2. Hvis prisen står til ytelsen så er det et bra kort, noe vi må vente til nye kortet kommer ut og driveren er klar.

4. Hvilken oppløsning yter det bra på? Er ikke alle så har 22+

3. Synsing hører ikke heime noen plass.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...