Gå til innhold

GeForce 8600 i kulissene


Anbefalte innlegg

Videoannonse
Annonse
Takker for tilbakemeldinger. Grunnen til at vi fikk se disse kortene og høre om ytelsen var at en viss medarbeider hos en viss produsent av skjermkort var for å si det mildt - svært irritert - over at en annen produsent viste frem 8600-produkter på messen, i full åpenhet.

 

Jeg spurte vedkommende om de ikke har noen DX10-kort å vise frem, og fikk som svar at "nei, det har vi ikke, de er under NDA og Nvidia tillater oss ikke å vise de frem". Jeg svarte at MSI viser de jo frem - så hvorfor kan ikke dere gjøre det?

 

Vedkommende hisser seg da opp, uttaler noen stygge gloser i retning MSI og nærmest skriker ut: "Jo, vi har disse kortene vi også - skal MSI vise de frem - skal også vi - kom her!" En dør ble låst opp og en eske kom på borden. Oppe i esken lå de fire kortene.

 

Specs ble bekreftet og vi fikk en hint om ytelsen. Vi hadde ingen avtale med produsenten på forhånd og vi har ikke underskrevet noen NDA med noen som helst. Mulig vi ble lokket, men det var på eget initiativ og vi hadde ingenting imot å få denne infoen :)

8194891[/snapback]

 

Kan jo hende dette er litt av spillet, å sørge for lekkasjer. Hvorfor hadde de 8600/8500 kort liggende gjemt ellers..? :hmm:

Lenke til kommentar

Synes ikke 3Dmark-resultatene var overvettes imponerende.. Men kanskje de eksisterende 3Dmark-testene ikke reflekterer ytelsen til DX10 kort ennå (selv om de kjører DX9-spill)? Altså: kan det tenkes at 8600 GTS yter bedre enn X1900XTX og GeForce 7900GTX selv om det har samme 3Dmark-score? :hmm

 

Noen som har hørt noe mer om det kommer bærbar-variant av 88xx eller 86xx forresten? Siste jeg hørte var at det skulle komme noe i 86xx-serien før sommeren.. men det blir vel neppe særlig knall ytelse på det, siden 8600 GTS trenger ekstern strøm. :(

Lenke til kommentar
Hvorfor hadde de 8600/8500 kort liggende gjemt ellers..?  :hmm:

8194913[/snapback]

Hvis Nvidia opphever NDA på kort varsel så er det kjekt å ha kortene tilgjengelig så man kan være først ute med å vise de til pressen. NDA kan jo være satt lengre frem i tid enn nødvendig for å skape usikkerhet rundt lanseringstatoen og for å være sikker på at lanseringssted og tid ikke blir utsatt i siste liten. F.eks om hovedscenen på Cebit plutselig er dobbeltbooket eller noe annet tull skjer.

 

Håvard: Smart triks å si at "jammen de andre viser jo kortene...". Den kan kanskje brukes flere ganger med hell. :D

Lenke til kommentar

Interessen for disse korta skyldes at de fleste, selv gamere faktisk kjøper disse kortene. De liker kanskje ikke å inrømme det, og de tar det kanskje ikke med i signaturen sin her på forumet, men det er veldig mange av oss som kjører på mellomklassekort.

 

Jeg har selv spillt data fra lenge før 3DFX Voodoo kom på markedet, og spiller mange nye spill (om ikke veldig *mye*), men har aldri brukt mer enn 2000kr på et grafikkkort. Sitter på et 6800GT nå. Pleier altid å hoppe over annenhver serie. (Hadde GF1 og GF4 før det.)

 

Native-oppløsning på skjermen min er 1600x1200. Mange spill, som WoW og UT2004 kjører fint i denne oppløsninga. Men det er på tide å oppgradere. Spiller en del TitanQuest, og der må jeg sette ned oppløsninga, noe som gir meg ubehag i øya og hodepine. Har ikke spillt noe særlig av de andre DX9 spilla. (Oblivion droppa jeg da jeg fant ut at det var VANSKELIGERE å vinne en kamp med samme fiende for hver ding, og ingen av FPSene som har kommet siden UT2004 gitt samme følelse av fart og action med 3-4 spillere.)

 

Likevell føler jeg for å oppgradere. Mange andre spill jeg ønsker å prøve. Men jeg er ikke interesert i å bruke mer enn 2000-2500kr på skjermkort. Derfor er jeg virkelig spent på disse korta. Ser jo ut som jeg for den prisen kan få ytelse som jeg måtte ha betalt 4-5000kr for i forrige generasjon. Det er *det* som er poenget her.

Endret av _proxima_
Lenke til kommentar
Hvor mange år går det mellom hver gang vi får en ny versjon DirectX støtte i selve GPU'ene? Når kommer DirectX 11?

8195733[/snapback]

Det har variert hvor lang tid det har gått mellom hver generasjon. Dx7 var nytt og populært rundt 2001. Forhåpentligvis kommer aldri Dx11, men det er vel for mye å håpe på. Altså at den åpne OpenGL får dominerende markedsmakt. Microsoft grøsser sikkert med tanken.

Lenke til kommentar
Hvor mange år går det mellom hver gang vi får en ny versjon DirectX støtte i selve GPU'ene? Når kommer DirectX 11?

8195733[/snapback]

Det har variert hvor lang tid det har gått mellom hver generasjon. Dx7 var nytt og populært rundt 2001. Forhåpentligvis kommer aldri Dx11, men det er vel for mye å håpe på. Altså at den åpne OpenGL får dominerende markedsmakt. Microsoft grøsser sikkert med tanken.

8195947[/snapback]

Nå er det iofs ett fett for meg om ogl eller dx dominerer (jeg kjører sånn derre proprietært os, så jeg får i pose og sekk uansett), men kan du forklare hvorfor MS skulle skjelve ved tanken på ogl i en tid da PC-markedet blir mindre og mindre viktig for alt annet enn noen få genre? De sitter da vel uansett med bukten og begge endene når det gjelder markedet for hjemme-PC?

Lenke til kommentar
Likevell føler jeg for å oppgradere. Mange andre spill jeg ønsker å prøve. Men jeg er ikke interesert i å bruke mer enn 2000-2500kr på skjermkort.

8195419[/snapback]

 

Kjøpte nettopp Asus 8800GTS 320mb for 2500,- på komplett. Med litt klokking synes jeg det gir god ytelse for en akseptabel sum penger.

Lenke til kommentar
Hvorfor hadde de 8600/8500 kort liggende gjemt ellers..?  :hmm:

8194913[/snapback]

Hvis Nvidia opphever NDA på kort varsel så er det kjekt å ha kortene tilgjengelig så man kan være først ute med å vise de til pressen. NDA kan jo være satt lengre frem i tid enn nødvendig for å skape usikkerhet rundt lanseringstatoen og for å være sikker på at lanseringssted og tid ikke blir utsatt i siste liten. F.eks om hovedscenen på Cebit plutselig er dobbeltbooket eller noe annet tull skjer.

 

Håvard: Smart triks å si at "jammen de andre viser jo kortene...". Den kan kanskje brukes flere ganger med hell. :D

8195099[/snapback]

 

Ja det er jeg enig i. Men dersom Nvidia kjører en strikt politikk på dette området burde egentlig saken være klar. Men jeg tror at Nvidia (m.fl.) ser seg tjent med bestemte lekkasjer. Med det mener jeg å skape forventninger i markedet, spesielt når en lansering er nært forestående.

 

Håvard: utspekulert, men smart. Hehe.

Lenke til kommentar
Hva er egentlig poenget med et slikt kort?

8193458[/snapback]

Poenget er vel bedre ytelse per watt og krone forutsatt at man belaster kortet med den samme grafikken (les: Dx9). Når det kommer spill som også kan kjøres i Dx10-modus så har de sikkert lagt inn flere og mer avanserte teksturer, shadere osv som trekker ned ytelsen. Man jo ikke kjøre i Dx10-modus selv om spillet støtter det.

Hovedmålet med DX10 er effektivisering, så det ville vært dumt å ikke kjørt det i DX10-modus, noe man neppe vil få et valg om. Effekter og detaljnivå ellers kan likevel nedjusteres.

Lenke til kommentar

Hva slags strømforbruk kan man forvente av disse? Spesiellt toppmodellen jeg tenker på... 8600gts? Er det for drøyt å håpe på å få kjørt et slikt kort på en 400watts strømforsyning? Sammen med en core2duo, 2gig ram og 2-3 disker?

 

Er ikke særlig sugen på å bruke nærmere tusenlappen på strømforsyning når jeg først går for å spare penger ved å kjøpe et budsjett-kort.

 

Og... kan man forvente å drive Oblivion på tilnærmet Max graphics i 1280x1024?

Endret av Dummst
Lenke til kommentar
Hva slags strømforbruk kan man forvente av disse? Spesiellt toppmodellen jeg tenker på... 8600gts? Er det for drøyt å håpe på å få kjørt et slikt kort på en 400watts strømforsyning? Sammen med en core2duo, 2gig ram og 2-3 disker?

Det er en lenke i artikkelen til spesifikasjoner. Der står det at det forventes et effektforbruk på inntil 71W for 8600GTS. Det bør altså være godt rom for å bruke det på ditt system med 400W PSU. Hvor mye effekt bruker det skjermkortet du har nå? Er det overklokket? (les: forhøyet effektforbruk)

 

Og... kan man forvente å drive Oblivion på tilnærmet Max graphics i 1280x1024?

8208101[/snapback]

Det vil jo vise seg når det kommer tester ;) Det er neppe lenge igjen.

Lenke til kommentar

Takker for kjapt svar. Høres lovende ut det du sier om 400w :)

For øyeblikket har jeg bare onboard video, i påvente av at det blir rimeligere å hoppe over på dx10. Gir vel ikke et særlig godt sammenligningsgrunnlag for strømforbruk, som jeg ærlig talt ikke har peiling på hva ligger på ;)

Endret av Dummst
Lenke til kommentar
Hva slags strømforbruk kan man forvente av disse? Spesiellt toppmodellen jeg tenker på... 8600gts? Er det for drøyt å håpe på å få kjørt et slikt kort på en 400watts strømforsyning? Sammen med en core2duo, 2gig ram og 2-3 disker?

 

Er ikke særlig sugen på å bruke nærmere tusenlappen på strømforsyning når jeg først går for å spare penger ved å kjøpe et budsjett-kort.

 

Og... kan man forvente å drive Oblivion på tilnærmet Max graphics i 1280x1024?

8208101[/snapback]

 

tviler veldig sterkt på at disse korta klarer oblivion på 1280 på maks. mtp kun 128 bit minnebuss.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...