Gå til innhold

De første offisielle benchmarks i Half-life 2! Fra Valve! :)


YpsiNine

Anbefalte innlegg

Videoannonse
Annonse

Nå leste jeg nettop den artikkelen om CineFX 1 & 2...All infoen må nok synke inn litt. Men jeg er også spent på Det.50.xx driverne...SKAL laste ned og prøve til helga når jeg kommer hjem. Men hvilken bench skal jeg bruke da...hm...må vel vente til den 30.sept.

Den artikkelen om CineFX forklarte jo en del av problemene med arkitekturen og hvordan kortene opererer med PS 2.0...men nå begynner jeg å bli litt nysgjerrig på hva som er greia med DOOM3 - som det forøvrig har vært stille om(?) en god stund nå...Vil FX av en eller annen grunn yte bedre der enn Radeon?(uten Iq-beksotning)...bah.

jeg blir sprø!

Hvorfor kunne ikke dette falt for mine øyne FØR jeg brukte pengene mine.

Jaja..

Lenke til kommentar
FX kortene er 100% DX9 kompatible, hvis du husker de tidligste omtalene, så har de på papiret større registere, flere buffere osv enn R3xx kortene. Det er ikke det som er problemet. Alle DX9 spesifikasjonene er oppfylt og vel så det. Man må derimot begynne å lete andre steder for å forklare ytelsesforskjellene.

 

Foreløpig så avventer jeg til final versjon av detonator50 driverne, og ser hvordan bildet ser ut da. Det kommer sikkert til å komme endel interessante artikler på temaet, når NVidia hørst har fått ut drivere som de mener utnytter kortene til fulle.

*host*

 

Jobber du i Nvidia eller? Eller er det vanskelig å se at FX serien

ikke er det den burde vært? Eller vil du ikke se det kanskje?

 

Hadde FX kortene vært 100% DX9 kompatible så kunne de kjørt den

samme pathwayen som ATi sine kort kan. Men neida, det går ikke, fordi

Nvidia har villet lage sin egen pathway. Som Gabe Newell i Valve sa, så

måtte de bruke 5 ganger så lang tid på å kode Half-life 2 for bruk med

FX kortene enn med ATi sine kort. Og allikevel så sakker FX kortene

etter.

 

Microsoft definerte hvordan DX9 skulle være, ATi fulgte standarden,

Nvidia gjorde det ikke og får nå svi på pungen for det.

Lenke til kommentar
"]Nå leste jeg nettop den artikkelen om CineFX 1 & 2...All infoen må nok synke inn litt. Men jeg er også spent på Det.50.xx driverne...SKAL laste ned og prøve til helga når jeg kommer hjem. Men hvilken bench skal jeg bruke da...hm...må vel vente til den 30.sept.  

Den artikkelen om CineFX forklarte jo en del av problemene med arkitekturen og hvordan kortene opererer med PS 2.0...men nå begynner jeg å bli litt nysgjerrig på hva som er greia med DOOM3 - som det forøvrig har vært stille om(?) en god stund nå...Vil FX av en eller annen grunn yte bedre der enn Radeon?(uten Iq-beksotning)...bah.

jeg blir sprø!

Hvorfor kunne ikke dette falt for mine øyne FØR jeg brukte pengene mine.  

Jaja..

 

Som nevnt før når det gjelder doom3:

Nv3x kortene kjører en egen driverpath, alle andre kort kjører ARB32 path'en(inkludert ATi). Hvis Nv3x kortene bruker denne får FX5900 omtrent halve hastigheten av et Radeon 9800Pro.

 

Les også min thread om tidlige reviews av billedkvalitet og hastighet på Detonator 51.75

Lenke til kommentar
"]men nå begynner jeg å bli litt nysgjerrig på hva som er greia med DOOM3 - som det forøvrig har vært stille om(?) en god stund nå...Vil FX av en eller annen grunn yte bedre der enn Radeon?(uten Iq-beksotning)

Husk først på at Doom3 er et OpenGL basert spill.

 

For å unngå dårlig ytelse på nv3x-baserte kort i Doom3 så får disse kortene (som SBS påpeker) en egen path i koden (separat for den standard ARB2 veien som ATI kortene går). Nv3x-koden vil ha lavere presisjon enn ARB2-koden, noe som kommer til å gå på bekostning av IQ.

Lenke til kommentar

Jobber du i Nvidia eller? Eller er det vanskelig å se at FX serien

ikke er det den burde vært? Eller vil du ikke se det kanskje?

 

Hadde FX kortene vært 100% DX9 kompatible så kunne de kjørt den

samme pathwayen som ATi sine kort kan. Men neida, det går ikke, fordi

Nvidia har villet lage sin egen pathway. Som Gabe Newell i Valve sa, så

måtte de bruke 5 ganger så lang tid på å kode Half-life 2 for bruk med

FX kortene enn med ATi sine kort. Og allikevel så sakker FX kortene

etter.

 

Microsoft definerte hvordan DX9 skulle være, ATi fulgte standarden,

Nvidia gjorde det ikke og får nå svi på pungen for det.

 

Nei jeg jobber ikke i NVidia. Jeg påpeker kun noe som er sant, nemlig at FX kortene er 100% DX9 kompatible. Det er ingenting som mangler av DX9 støtte. Dette trenger ikke henge sammen med ytelse i det hele tatt, noe jeg OGSÅ påpekte. Les litt nøyere før du prøver å dømme alle og enhver til fanboys her...

Lenke til kommentar

Hadde FX kortene vært 100% DX9 kompatible så kunne de kjørt den

samme pathwayen som ATi sine kort kan.

 

NV3x kan kjøre samme codepath som ATI sine kort, men det er alt annet enn optimalt for NV3x arkitekturen.

 

Microsoft definerte hvordan DX9 skulle være, ATi fulgte standarden,

Nvidia gjorde det ikke og får nå svi på pungen for det.

 

Mer nøyaktig var det R300 som ble brukt som "standarden". Noe Nvidia ikke ville eller ikke kunne følge.

 

Nei jeg jobber ikke i NVidia. Jeg påpeker kun noe som er sant, nemlig at FX kortene er 100% DX9 kompatible. Det er ingenting som mangler av DX9 støtte.

 

NV3x støtter bl.a ikke multi render target og FP24, men DX9 innebærer også PS/VS 3.0 så sånn sett er det ingen kort idag som støtter D3D9 funksjonaliteten fullt ut.

 

Shaderkode skrevet i MS sin egen DX9 HLSL er lite egnet for NV3x arkitekturen, men det alene forklarer nok ikke den store ytelse forskjellen. I motsetning til R300 som kjører full float point units så har NV3x flere integer (DX8) shader units enn floating point (DX9). Nvidia sier nærmest selv at de vil helst kjøre PS1.4 shaders fremfor PS2.0.

Dette kan kanskje forklares med at NV3x er en videreutvikling av NV20 og kanskje aldri var tiltenkt DX9 i utgangspunktet.

Lenke til kommentar

Sant, jeg hadde glemt PS3. Kan vel heller formulere det slik at begge parter tilfredsstiller dagens DX9 behov. R300 har noen ting innenfor spesifikasjonene som NV3x ikke har, mens NV3x på sin side faktisk både oppfyller og går langt utover kravene på andre områder.

 

Men det er åpenbart at problemet ikke ligger i hva som støttes, men derimot hvordan disse tingene praktisk gjøres i hardwaren. Nå er ikke alle drivere på et modent nok stadium til å bruke DX9 features til fulle ennå, og det skal som sagt bli veldig interessant å se hvordan dette ser ut når noen går det nøye etter i sømmene om et par måneder.

 

 

Oppdatering:

 

Tenkte jeg skulle ta med en link til å backe opp det med hardware støtte, før Collapse og andre begynner å bjeffe igjen....

http://www.tomshardware.com/graphic/200211...forcefx-01.html

Lenke til kommentar
Sant, jeg hadde glemt PS3. Kan vel heller formulere det slik at begge parter tilfredsstiller dagens DX9 behov. R300 har noen ting innenfor spesifikasjonene som NV3x ikke har, mens NV3x på sin side faktisk både oppfyller og går langt utover kravene på andre områder.

 

Men det er åpenbart at problemet ikke ligger i hva som støttes, men derimot hvordan disse tingene praktisk gjøres i hardwaren. Nå er ikke alle drivere på et modent nok stadium til å bruke DX9 features til fulle ennå, og det skal som sagt bli veldig interessant å se hvordan dette ser ut når noen går det nøye etter i sømmene om et par måneder.

 

 

Oppdatering:

 

Tenkte jeg skulle ta med en link til å backe opp det med hardware støtte, før Collapse og andre begynner å bjeffe igjen....http://www.tomshardware.com/graphic/20021118/geforcefx-01.html

Les MistaPi sitt siste avsnitt.

 

Virker som du er sta. Kan du ikke bare innse at FX korta er mye dårligere enn de burde vært?

 

Og at du refererer til en snart ett år gammel artikkel

skrevet av Tom`s Hardware er jo bare til å fnyse av.

 

Greit, hvis du føler for å forsvare ett kjøp av et FX kort så kan jeg

forstå hvorfor du engasjerer deg sånn. Hvis du ikke har et, så skjønner

jeg ikke hvorfor du på liv og død skal overbevise folk om at FX korta

er så mye bedre enn noe annet og at de er 100% DX9 spesifiserte.

 

Spør du meg, så synes jeg Nvidia graver sin egen grav.

Lenke til kommentar

Unnskyld at jeg spør, men leser du hva jeg skriver i det hele tatt? Enten det, eller så leser du denne tråden med ganske merkelige briller... Et par eksempler:

 

Jeg har ikke anbefalt å kjøpe hverken NVidia eller ATi i denne sammenhengen. At du sier dette om meg, forteller bare at du ikke har lest innlegget mitt.

 

Jeg har heller ikke sagt at noen av alternativene er dårligere eller bedre. Slutt å legge ord i munnen på meg...

 

Artikkelen henviste jeg til med tanke på DX9 støtte, og at dette oppfylles mer enn nok av NV3x, i noen tilfeller i større grad enn R3xx. Deretter sier jeg, som jeg har presisert 2 ganger allerede (!) at dette ikke behøver ikke ha noe med ytelsen å gjøre. Grunnen til at jeg tok det opp er dine påstander om manglende DX9 kompatibilitet. Når du selv tok det opp så bør du vel ikke kritisere meg med å si at det er irrelevant?

 

Gammel artikkel? Ja, men den forteller fakta om chippen, dette er ikke benchmarks. Fakta går ikke ut på dato. Det får da være grenser for usaklig kritikk, du har tydeligvis ikke trykket på linken siden du kritiserer meg for akkurat dette....

 

Jeg er sta? Hvis det at jeg korrigerer noe som er feil oppfattes slik, så får det heller være. MistaPi fikk presisert en del ting, og korrigerte også meg med tanke på funksjoner hverken NV/ATi støtter. Du må bare tåle at folk påpeker slikt. Bortsett fra dette så holder jeg de aller fleste muligheter åpne såvidt jeg kan se. Men hvis det er noe du vil ta meg for, så vær mer spesifikk enn å kalle meg "sta".

 

Jeg har ikke forsøkt å sette noen av partene i bedre lys enn den andre. At jeg "på død og liv prøver å overbevise folk om at FX kortene er så mye bedre" faller dermed på sin egen urimelighet. Man må være litt paranoid for å klare å lese dette mellom linjene.... For det står definitivt ikke i det jeg har skrevet.

 

Ja, NVidia kortene har _sannsynligvis_ et ytelsesproblem med DX9. Jeg har aldri nektet for den muligheten. Jeg ser hva som har kommet av tester foreløpig, og jeg avventer også i spenning hva som skjer når det kommer nye drivere.

 

 

 

Hvis du føler for å ha en samtale istedenfor å tillegge meg en rekke utsagn jeg aldri har sagt, så si i fra. I mellomtiden ser jeg det som ekstremt lite nyttig å snakke med deg, når du ikke leser hva jeg skriver, når svarene jeg får er det samme hver gang, og det er lettere å ha en intelligent samtale med en murvegg.

Lenke til kommentar
Unnskyld at jeg spør, men leser du hva jeg skriver i det hele tatt? Enten det, eller så leser du denne tråden med ganske merkelige briller... Et par eksempler:

<snip>

<snip....>

Hvis du føler for å ha en samtale istedenfor å tillegge meg en rekke utsagn jeg aldri har sagt, så si i fra. I mellomtiden ser jeg det som ekstremt lite nyttig å snakke med deg, når du ikke leser hva jeg skriver, når svarene jeg får er det samme hver gang, og det er lettere å ha en intelligent samtale med en murvegg.

Jeg har en ting å si, og det er at man kan lese seg i hjel

på tekniske spesifikasjoner, men så lenge det ikke fungerer

i praksis så er det jo allikevel meningsløst!

 

Oh well, du får gå å snakke med en murvegg du da. :)

 

nv_bob2.jpg

Lenke til kommentar

ja her kommer det mye rart frem :wink:

 

jeg ble så usikker etter etter at jeg fikk lest dette om HL2. så det jeg gjorde var å kjøpe meg et ATI 9800pro selv om jeg har Nvidia 5900 Ultra,

så da er jeg sikker iallefall at jeg får spillt spillet :D

Og da får jeg testet selv hvem av de to kortene som funker best til spillet når de siste driverne blir released.

ingen ting er Bestemt før man får testet selv veit dere;)

Lenke til kommentar
Ler av de som kjøpte ati kort for å kjøre HL2 også ...60fps er jo alt for lite..må ha 100 minst../me venter på NYE skjermkort ...bedre en det vi har i dag..fx suger jo uanz TI4600 er jo nesten like bra :lol:

60 fps er perfekt det, vel og merke hvis det kan holde seg der konstant.

 

De fleste personers øyne kan som regel ikke se

noe forskjell når det går over 60 bilder per sekund.

 

Du må ikke blande dette med oppfriskningsfrekvens.

 

Det går fint ann å kjøre 60 f/s med 100 hz oppfriskningsfrekvens.

Lenke til kommentar

Vi får bare smøre oss med tålmodighet, R9800 PRO halter gjennom mens FX5900Ultra gir GF4 feel. Hverken ATI eller Nvidia's neste 'oppfriskning' blir noen revolusjon og det lover heller dårlig (spesielt for nvidia) for oss som vil ha 1280x1024 eller mer og "flyt" i spillet, som nok krever mer enn 60FPS i snitt.

 

Så glad jeg ikke kjøpte FX5900 Ultra'n jeg så til 3300 kroner her for noen uker siden :o

Lenke til kommentar

Jeg har en ting å si, og det er at man kan lese seg i hjel

på tekniske spesifikasjoner, men så lenge det ikke fungerer

i praksis så er det jo allikevel meningsløst!

 

Oh well, du får gå å snakke med en murvegg du da. :)

 

Endelig litt respons, om enn av det furtne, overlegne og ignorante slaget!

 

Jeg observerer at du ikke velger å kommentere noe av det jeg skrev, så som tidligere, var den energien fra min side bortkastet på deg. De tekniske spesifikasjonene har jeg kommentert, jeg har også kommentert hvor lite/mye relevante de kan være, og her velger du også total ignoranse. Det var du som brakte dette temaet på banen, ikke hakk på meg for at jeg klarer opp i det.

 

Det siste jeg vil si er at hvis du ønsker å fungere normalt i samfunnet, eller på et hardware-forum for den saks skyld, så lønner det seg å lytte til hva folk sier. Du hadde bestemt deg angående meg på forhånd, og jeg har kastet bort mange minutter på å nyansere standpunktene dine, påvise faktiske feil, og lete frem fakta.

 

Det eneste jeg får i retur er vulgære hint om at jeg benekter, da jeg faktisk er den som holder de fleste muligheter åpne. Ganske frekt spør du meg, når jeg er den eneste som har puttet fakta på bordet. Mitt håp er at du etter dette har lært å behandle andre forum medlemmer og mennesker med respekt, og ikke tillegge folk meninger de ikke har, selv etter at de har forklart seg.

 

Hvis du vil vise at du er voksen, svar meg skikkelig og les hva jeg har skrevet, eller dropp det totalt. Det siste du skrev egner seg ikke som svar på et innlegg av den typen jeg skrev, det senker seriøsiteten, det svarer ikke på mitt innlegg, og det har null med det opprinnelige temaet på tråden å gjøre.

 

Lykke til videre på forumet!

Lenke til kommentar
De fleste personers øyne kan som regel ikke se

noe forskjell når det går over 60 bilder per sekund.

 

Du må ikke blande dette med oppfriskningsfrekvens.

 

Det går fint ann å kjøre 60 f/s med 100 hz oppfriskningsfrekvens.

 

Hvorfor skal man ikke blande inn oppdateringsfrekvens? I praksis blir jo en oppdateringsfrekvens på 100 hz omtrent som 100 fps, sånn for øyet sin del. Det er jo såklart en diskusjonsak hvor vi vil sette grensen (siden det koster mye maskinkraft, og har liten praktisk effekt når man begynner å få mange fps), men jeg vil si at man ofte ser forskjell på 60 fps og feks 100 fps, men over 100 antar jeg man begynner å merke mindre forskjell (har ikke prøvd så mye).

 

AtW

Lenke til kommentar

Selv 30fps ser ganske fint ut så lenge det er konstant, hverken mer eller mindre. Så konstant fps er det viktigste for at spillingen skal oppfattes som "smooth". Selv merker jeg at 100fps konstant ser hakket bedre ut enn 60, men nå har jeg lcd, og er veldig fornøyd med 60 (i realiteten vises det enda litt mindre).

 

Men øyet kan derimot oppfattet langt mer enn 60fps, faktisk ting som skjer i mindre enn 1/1000 av et sekund. Så den teoretiske grensen er vi ikke i nærheten av ennå...

Lenke til kommentar

Endelig litt respons, om enn av det furtne, overlegne og ignorante slaget!

 

Jeg observerer at du ikke velger å kommentere noe av det jeg skrev, så som tidligere, var den energien fra min side bortkastet på deg. De tekniske spesifikasjonene har jeg kommentert, jeg har også kommentert hvor lite/mye relevante de kan være, og her velger du også total ignoranse. Det var du som brakte dette temaet på banen, ikke hakk på meg for at jeg klarer opp i det.

 

<snip>

<snip...>

 

Lykke til videre på forumet!

I alle dager, det var da voldsomt så alvorlig du tok dette da!

 

Og at du begynner å leke hobbypsykologen min er å dra det litt langt.

 

Hvem er du til å si om jeg fungerer "normalt" eller ikke i et samfunn?

 

Det jeg ikke skjønner er hvorfor du hardnakket påstår at FX kortene er

100% DX9-kompatible når Valve går ut og sier at de har brukt fem ganger

så lang tid på å kode spillet for bruk med Nvidia`s hardware enn med ATi

sin hardware. Og når Microsoft kommer med utsagn som at Half-life 2

er et verdig bevis på hva man kan oppnå med DX9.

 

Du har puttet "fakta" på bordet slik du ser dem, og

det er da greit nok for min del. Men hva skal man

med fakta når sluttresultatet allikevel ikke strekker til?

 

Det er jo bare å innse at Pixel Shader`ene i FX-serien er

langt svakere enn f.eks ATi sine, alle tester så langt tyder på det!

 

Aquamark

Tomb Raider

Halo

Half-life 2

 

At Nvidia kommer med nye drivere i 50-serien som er raskere

skulle jo bare mangle, men når de igjen tukler med

bildekvaliteten så er det jo umulig å ta det firmaet seriøst!

 

Hvorfor er du så forferdelig keen på å forsvare FX-serien til Nvidia?

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...