Gå til innhold

Ny grafikk-konge kommer


Anbefalte innlegg

AMD\ATI har i den siste tid vunnet mye på pris\ytelses fronten. Jeg frykter at dette vil skje i dette tilfellet også. Med mindre nVidia skjerper seg skikkelig.

 

Selv prioriterte jeg HD 3870 foran 8800GT rett og slett fordi AMD\ATI har jobbet bra med å presse prisene ned! (Tross for alle de nye teknologiene de har fått stappet inn i skjermkortene!)

Lenke til kommentar
Videoannonse
Annonse

Det kan da ikke være spesielt varmevennlig med et dobbeldekker-kort, om det hadde vært et svært enkelt kort med to GPUer kunne de jo laget en svær og relativt bred kjøler med bra effekt.

Da hadde helt sikkert produsenter vært ute med vannblokker innen 1 måned etter kortet ble sluppet :thumbup:

Lenke til kommentar
Om 9800GX2 er to består av 2 fullverdige GTS tror jeg det kommer til å bråke noe sykt, samt bli veldig varmt. Ut i fra bildene har vær av PCBene tilsvarende kjøleløsning som 8800GT og vi vet alle hvor mye den bråker og hvor varm 8800GT blir. Tenk deg nå at du plasserer 2 8800GT i SLI med 0 spacing i mellom og at du overklokker begge til 8800GTS specs. Da har du trolig lyden og varmen som du vil få i 9800GTX.

 

Videre trur jeg ikke 9800GTX blir særlig venlig for after-market kjøleløsninger. Om du skal vannkjøle kortet (noe som du bør med den varmen og støyen det gennererer) må du kjøpe en spesiallagd vannblok som kun kan brukes til det kortet og er svindyr.

 

HD3870x2 derimot er stille og kjøling (til at det er en to GPU løsning) og lar seg lett kjøle av after-market kjølere. Kortet er gunstigt for folk som allerede har vannkjøling ettersom standart GPU-vannblokker og minnekjølere kan brukes/tilpasses til dette kortet

 

Prisen blir å intresant. 8800GTS 512MB koster jo gjerne 2500kr i de nettbutikkene som faktisk har det inne. Det kan bety at reel utsalgspris på 9800GX2 blir rundt 5000kr, noe som gjør det helt konkuranseudyktig. Videre vet vi ikke hvordan tilgjengeligheten blir (kan fort bli samme greia som med 8800GT).

Har hatt 2 stk. 7950gx2 og kan skrive under at denne måten å lage kortene på gjorde at de ble enormt varme selv om de er basert på mer energieffektive 7900 brikker. De lå på 70-75 grader idle og noen og 90 grader load. Dette førte til at kortenes komponenter fort tok kvelden. Ene kortet mitt måtte jeg kjøre rma på etter kort tid, noe jeg har sett var et stort problem med disse kortene. Tviler på at brikker med enda høyere effektutslipp vil bli noe mindre varme. Både 7950x2 og 8800 gts 320/640 og 8800gtx krevde også nye kjøleblokker kontra 6800/7900 serien. Tror Ati har valgt den beste løsninga, mens Nvidia har valgt den enkleste.

Lenke til kommentar
Det jeg liker best med dette kortet er at det burde senke 8800-prisene dramatisk. :) Litt som at jeg skulle ønske jeg hadde en Bugatti Veyron, så jeg kunne solgt den, kjøpt en golf, og satt resten i banken.

Det senker neppe prisen noe som helst da det blir et toppkort som legger seg over dagens dyreste skjermkort. 8800gtx/ultra har i det siste falt ganske kraftig i pris. Det tilbyr jo heller ikke noe ny teknologi framfor 8800gt/gts. Det er bare bedre.

Lenke til kommentar
Tenkte på det samme. Synes ikke det ver imponerende å bruke "gammel" teknologi i en ny serie. Men det er gjerne et salgstriks? Sikkert mange som vil kjøpe 9* bare fordi det er 9* serien.

Tja... Si det til ATi,

De gikk fra HD 2900 til HD3800 med kun små endringer...

Er jo mere forskjell fra 2900 serien til 3800 serien enn fra 8800gts til 9800x2. 3800 serien innførte jo dx10.1(selv om dette mest er noe å skrive på papiret) mye lavere effektbruk. Mens 9800gx2 kun er SLI med 2 stk. 8800gts på et interface, nøyaktig like lite nyskapende som 3870x2 kontra 3870.

Endret av Onanias
Lenke til kommentar
Tenkte på det samme. Synes ikke det ver imponerende å bruke "gammel" teknologi i en ny serie. Men det er gjerne et salgstriks? Sikkert mange som vil kjøpe 9* bare fordi det er 9* serien.

Tja... Si det til ATi,

De gikk fra HD 2900 til HD3800 med kun små endringer...

Haha, som tatt rett fra en Nvidia FUD-kampanje. SÅ prosesskrymping, halvering av minnebussen og oppgradert UVD m.m. på HD 3850/3870 forsvarer ikke et nytt produktnavn, mens to G92-kort i ett uproblematisk kalles 9xxx-whatever kontra 8800GX2 som tross alt de fleste entusiaster ville skjønt tankegangen bak ihvertfall? Genialt.

Lenke til kommentar
Haha, som tatt rett fra en Nvidia FUD-kampanje. SÅ prosesskrymping, halvering av minnebussen og oppgradert UVD m.m. på HD 3850/3870 forsvarer ikke et nytt produktnavn, mens to G92-kort i ett uproblematisk kalles 9xxx-whatever kontra 8800GX2 som tross alt de fleste entusiaster ville skjønt tankegangen bak ihvertfall? Genialt.

G92 = forbedret PureVideo, prosesskrymping, halvering av minnebus osv...

 

Vil heller si at det var en tabbe av nVidia å bruke 8800GT og 8800GTS 512.

Personlig mener jeg at at de burde gått for 8900

Lenke til kommentar
Det kan da ikke være spesielt varmevennlig med et dobbeldekker-kort, om det hadde vært et svært enkelt kort med to GPUer kunne de jo laget en svær og relativt bred kjøler med bra effekt.

Da hadde helt sikkert produsenter vært ute med vannblokker innen 1 måned etter kortet ble sluppet :thumbup:

Du har ikke fått med deg hvordan dette kortet ser ut?

Det er to PCB som blir kjølt av en kjøleribbe i midten...

Lenke til kommentar
*litt edit* frykter jeg litt at nVidia skal "ta en ny 7950GX2" her.

250W peak er mye! særlig når det antagelig blir snakk om én single-slot kjøler pr kort. Kjøleløsningen på 8800GT har jo vist seg å ikke være verdens beste, og her er det to stk 8800GTSdet er snakk om. 8-pins PCI-E kontakt er jo også dårlig nytt siden det ikke er voldsomt mange som sitter på PSU'er med slike kabler.

*litt edit*

Må til slutt si at nVidias navnegivning er på trynet for tiden ja :hrm: Først forvirrer de folk ved å lansere en ny GTS og nå "misleder" de folk ved å lansere en "uekte" 9-serie modell. De burde kalt nye GTS for 8900 og dette for 8900GX2.

*litt edit*Jeg har et 7950GX2, men sendte det til nedstøving her om dagen

Ble så lei av at driverene ikke fungerte skikkelig. Mystiske tilfeller av svart skjerm og driver krasj på Vista, og det var lenge ikke mulig å bruke det i SLI konfig.

 

7950GX2 var et skikkelig bastard kort som ble dårlig støttet. Det fungerte bra der det fungerte, men ... for mange unntak - og AA ytelsen var heller dårlig sett i forhold til 8800 serien.

 

Jeg ville tenkte meg lenge om før jeg hostet opp en formue for nok et 2 in 1 SLI kort. Det er nok en ny kjerne på trappene - 7950GX2 kom bare et par måneder før 8800 serien.

Haha, som tatt rett fra en Nvidia FUD-kampanje. SÅ prosesskrymping, halvering av minnebussen og oppgradert UVD m.m. på HD 3850/3870 forsvarer ikke et nytt produktnavn, mens to G92-kort i ett uproblematisk kalles 9xxx-whatever kontra 8800GX2 som tross alt de fleste entusiaster ville skjønt tankegangen bak ihvertfall? Genialt.

G92 = forbedret PureVideo, prosesskrymping, halvering av minnebus osv...

 

Vil heller si at det var en tabbe av nVidia å bruke 8800GT og 8800GTS 512.

Personlig mener jeg at at de burde gått for 8900

 

Helt enig, tenker også på 7950gx2 "floppen", at dette kortet kan komme til å bli samme "floppen" versjon 2, med dårlig driverstøtte osv.

Psu er bare å kjøpe større av, uno problemo ;)

Og hva det gjelder nvidia og kjøre g92 som g8800, som mange andre ja det burde vært g8900 istedet på g92.

Om jeg skulle finne på å bruke penger på dette kortet, så skal det jaggu være 100% (ikke som 7950gx2)før jeg blar opp.

Endret av KenBjork
Lenke til kommentar
Crysis er enten ineffektivt programmert eller har fylt på med for mange detaljer i forhold til maskinvaren dagens spillere har. Spillere burde vente et års tid eller to før de begynner å spille det. Da er maskinvaren bra nok. Produsenten har rett og slett vært for tidlig ute med et grafisk overlesset spill. De burde enten slanket grafikken eller ventet et år eller to før de lanserte det.

Eventuelt kan folk skru detaljene ned et par hakk og ha det moro lell. Crytek kan ikke lastes for at de tillot spillerne å aktivere nestegenerasjonsgrafikk. Jeg for min del synes Crysis er gøy selv med alt på low. Hva som menes med at Crysis bare handler om grafikk forstår jeg veldig lite av.

Lenke til kommentar

Crysis ble av en klok person her på forumet (husker ikke hvem) omtalt som "Bare innrøm det! Crysis er et jævla pent slideshow"

 

Jeg humret når jeg leste det. :wee: Det er så tatt på kornet.

 

Men jeg synes produsenten kan lastes for å ha overlesset spillet med alt for krevende grafikk. De har rett og slett overvurdert hvor kraftig maskinvare spillere har i 2007-2008 og lansert et spill som passer for PC'er anno 2009-2010. Mengden tung grafikk er et designvalg og her mener jeg de har bommet grovt.

Lenke til kommentar
Så hva som er best av Crossfire og SLi kan diskuteres, jeg personlig ville vell gått for SLi (om det hadde vært mulig med dagens Intel brikkesett) for da har jeg hvert fall en skjermkort løsning som jeg vet vil gi meg en grei ytelsesøkning i samtlige spill.

 

Er enig med deg i at hva som er best kan diskuteres, men stusser litt over at du ville gatt for Sli (om det hadde vært mulig med dagens Intel brikkesett). Som vi alle vet er det ikke mulig med en tradisjonell Sli losning i dag, og nettopp derfor er Sli uaktuelt. Den som i dag - etter alle rapporterte problemer med 680i og 780i - kjoper ett av disse bor fa sjekket... Mulig ting vil endre seg med 790 chipsetet. Haper det.

 

ps. beklager mangelen pa visse bokstaver, men det er ikke alt en kan fa nar en sitter i syden med parasoll drinker... :tease:

Endret av Rob Halford
Lenke til kommentar
Så hva som er best av Crossfire og SLi kan diskuteres, jeg personlig ville vell gått for SLi (om det hadde vært mulig med dagens Intel brikkesett) for da har jeg hvert fall en skjermkort løsning som jeg vet vil gi meg en grei ytelsesøkning i samtlige spill.

 

Er enig med deg i at hva som er best kan diskuteres, men stusser litt over at du ville gatt for Sli (om det hadde vært mulig med dagens Intel brikkesett). Som vi alle vet er det ikke mulig med en tradisjonell Sli losning i dag, og nettopp derfor er Sli uaktuelt. Den som i dag - etter alle rapporterte problemer med 680i og 780i - kjoper ett av disse bor fa sjekket... Mulig ting vil endre seg med 790 chipsetet. Haper det.

 

ps. beklager mangelen pa visse bokstaver, men det er ikke alt en kan fa nar en sitter i syden med parasoll drinker... :tease:

 

 

Hvorfor stusset du over det jeg sa?

Jeg hadde jo faktisk skaffet meg SLi om det ikke var fordi nVidia ikke gav Intel SLi lisens :p

 

Personlig har jeg mistet helt troa på nVidia og brikkesettet, de har i flere år nå vist at brikkesett er noe de ikke kan :thumbdown:

Også da attpåtil prøve å tvinge folk over på sine egne dårlige løsninger fordi de nekter å gi Intel SLi muligheter, sånt har jeg svært lite respekt for :nei:

Men det kalles vell business, selv om jeg er overbevist om at nVidia taper på dette i lengden, da de selger færre skjermkort av det.

Lenke til kommentar
Det kan da ikke være spesielt varmevennlig med et dobbeldekker-kort, om det hadde vært et svært enkelt kort med to GPUer kunne de jo laget en svær og relativt bred kjøler med bra effekt.

Da hadde helt sikkert produsenter vært ute med vannblokker innen 1 måned etter kortet ble sluppet :thumbup:

Du har ikke fått med deg hvordan dette kortet ser ut?

Det er to PCB som blir kjølt av en kjøleribbe i midten...

Hadde egentlig ikke det nei :blush: , men sånn jeg tenker så burde det vel være greiere å ha kun ett kort? sånn som HD 3870x2 er(?)

Lenke til kommentar
Men jeg synes produsenten kan lastes for å ha overlesset spillet med alt for krevende grafikk. De har rett og slett overvurdert hvor kraftig maskinvare spillere har i 2007-2008 og lansert et spill som passer for PC-er anno 2009-2010. Mengden tung grafikk er et designvalg og her mener jeg de har bommet grovt.

Som sagt: Det er jo bare å skru ned grafikkvaliteten. Eller er det slik at folk irriterer seg så enormt over at spillet kan se så mye bedre ut at de bare sette alt på maks? Og er det i så fall Crytek sitt problem?

Lenke til kommentar
Men jeg synes produsenten kan lastes for å ha overlesset spillet med alt for krevende grafikk. De har rett og slett overvurdert hvor kraftig maskinvare spillere har i 2007-2008 og lansert et spill som passer for PC-er anno 2009-2010. Mengden tung grafikk er et designvalg og her mener jeg de har bommet grovt.

Som sagt: Det er jo bare å skru ned grafikkvaliteten. Eller er det slik at folk irriterer seg så enormt over at spillet kan se så mye bedre ut at de bare sette alt på maks? Og er det i så fall Crytek sitt problem?

 

 

Helt enig, så lenge det er mulighet for å sette ned grafikken og dermed fint klare å kjøre det selv på middels maskiner, så fatter jeg ikke helt hvorfor mann skal klage på CryTek.

 

Det er jo ikke snakk om at spillet er umulig å kjøre her, det er bare å sette innstillingen der hvor det passer best for ditt system ;)

Lenke til kommentar

De nye Catalyst driverne skal jo virkelig ha slått an.

En ytelse økning på 20% for flere single-GPU løsninger, og over 30% for Crossfire løsninger :eek:

 

Hvorvidt det gjør noe med de spillene hvor Crossfire ikke skalerer i det hele tatt vet jeg ingenting om

AnandTech kommer vell med en test snart :)

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...