Gå til innhold

x800 knuser alt i 3dmark'05


Grillbabe

Anbefalte innlegg

Gjest Slettet+6132
Sjekk litt da fanbois... 9600XT *pryler* 5950Ultra...

Kommer nok noen optimaliserte drivere fra nVidia rimelig fort skal en se!

Både ATI og nVidia har optimaliserte drivere klare:

Speaking of which, ATI and NVIDIA both managed to get new drivers certified by Futuremark by midday yesterday, and we've used those drivers in our testing. Futuremark prefers the use of certified drivers, so they can verify that the drivers don't include benchmark-specific optimizations.

Så langt er dette de beste driverne nVidia har klart å lage.

Hmmmm... Merlin.. hmmm...

Åja.. nå husker jeg... ikke ATI-fanboi... :p

 

Spøk til side....

Det er nok noe i arkitekturen til ATI som slår veldig ut i benchmarks som 3DMarknn.

Jeg har 9600XT, 9700Pro, 9800Pro.. og 5900XT i 4 forskjellige maskiner...

Det er *ingen tvil* om at i tester som f.eks. "Mother Nature"...dvs. tester der PS benyttes så er ATI rimelig overlegen for å si det slik..

I Aquamark derimot.. som tester *hele* systemet sammen med GPU.. så er FX5900 helt på høyde med 9800Pro...

Og det er da stort sett ikke særlig merkbare forskjeller i spill (som disse korta tross alt er laget for).

Men det er jo status å ha høy score i 3DMark.. det er jo klart.. :p

Lenke til kommentar
Videoannonse
Annonse
Nei, her synes jeg ikke det er nvidia som må skjerpe seg. Det er FutureMark som bør se å lage tester som viser resultater nærmere virkeligheta.

Dette kan vise seg å bli ganske nærme virkeligheta.

 

3DMark03 viste oss tidlig før noen DX9 spill var ute at GeForceFX hadde svak DX9 ytelse. Dette går enda klarere igjen nå da 3DMark05 er en 100% DX9 benchmark. Nå viser 3DMark05 oss at X800XT PE drar ifra GF6800Ultra i fillrate/shader intensive situasjoner, noe jeg tidligere har speskulert i vil bli tilfelle i "the-real world" når spill blir mer fillrate/shader begrenset.

Endret av MistaPi
Lenke til kommentar
Dette kan vise seg å bli ganske nærme virkeligheta.

 

3DMark03 viste oss tidlig før noen DX9 spill var ute at GeForceFX hadde svak DX9 ytelse. Dette går enda klarere igjen nå da 3DMark05 er en 100% DX9 benchmark. Nå viser 3DMark05 oss at X800XT PE drar ifra GF6800Ultra i fillrate/shader intensive situasjoner, noe jeg tidligere har speskulert i vil bli tilfelle i "the-real world" når spill blir mer fillrate/shader begrenset.

Testene blir jo ikke rettferdig uansett..

Å teste ett kort for hva det er godt i fremtiden er greitt nokk, men så har man da heller ikke drivere som er optimaliserte nokk for de spillene.

At ATi i dag har kort/drivere som er bedre optimalisert for fremtidens spill er greitt nokk, men hjelper ikke mye nå i dagens spill der ytelsen ligger vanvittig jevnt

Lenke til kommentar
Ok, ro dette ned nå begge to .. ellers vet dere hva som skjer.. ;)

Ja.. jeg beklager den kommentaren. Det var tåpelig av meg. Men jeg syns det er ødeleggende for diskusjoner og kun egnet til å provosere med slike kommentarer som Valent kom med uansett om det er ment som en spøk eller ikke.

 

Men, men.. beklager altså. Skal holde meg rolig :p

Lenke til kommentar
Testene blir jo ikke rettferdig uansett..

Å teste ett kort for hva det er godt i fremtiden er greitt nokk, men så har man da heller ikke drivere som er optimaliserte nokk for de spillene.

At ATi i dag har kort/drivere som er bedre optimalisert for fremtidens spill er greitt nokk, men hjelper ikke mye nå i dagens spill der ytelsen ligger vanvittig jevnt

Hvor har du ifra at driverene til nVidia er dårligere optimalisert for fremtidens spill?

 

Selv om et syntetisk benchmark gir et helt feil bilde om hvordan skjermkortene yter i dagens spill så betyr det ikke at det ikke har noe verdi, det er ofte heller ikke poenget med syntetiske benchmark. Poenget med 3DMark er å belaste skjermkortet maks slik at det blir en ren skjermkort test og prøve å forutsi hvilken arbeidsmengde fremtidens spill vil ha. Hvis du vil vite hvordan disse kortene yter i dagens spill så kan du bare se på tester fra dagens spill.

Lenke til kommentar

Den viser bare at ATi har en mer "ryddig" måte å kjøre sine shadere på enn nVidia i DirectX, det er slik jeg har tolket det hittil. Det er dette, slik som en har nevnt før, som kalles arkitektur forskjeller, måten GPU/VPU er bygd opp er forskjellig mellom nVidia og ATi, løsningene er forskjellige for hvordan å behandle den shaderen i forhold til den andre shaderen. Sekvensen for å kjøre en shader (rekkefølgen) og måten den blir kjørt på er forskjellig... Og når det gjelder DX9 (ikke c da ;p) så har ATi pr. i dag den beste løsningen. (Ser det ut som)

Det at de ikke støtter model 3.0 synes jeg egentlig var helt ok, det kommer spill snart som drar nytten av det, men snart skal visstnok R5xx kommer også som, ifølge ryktene, har model 3.0.

 

nVidia, som dere har påpekt før, er overlegne i OGL benchmarks, dermed blir dette behovsorientert mer enn at syting hjelper. De tilbyr produktene sine med sine løsninger, man kan som regel ikke få katta og musa til å leke sammen (eg. Man kan ikke få både pose og sekk). Hvordan gjør nVidia det i GLExcess f.eks i forhold til ATi? (Noenting jeg ikke har sjekka)

Lenke til kommentar
Og når man ser at nvidia og ati ligger høvelig likt i ytelse i spill, så skal et program som måler syntetisk ytelse si noe annet? hvem ville man ha hørt mest på? 3dmark eller den reelle spill ytelsen.

Jeg ville hørt mest på 3Dmark. 3Dmark05 utnytter skjermkortenes muligheter på en helt annen måte enn noen av dagens spill. Poenget med 3Dmark er ikke å måle ytelse i spill som teknologisk sett er langt underlegne benchmarken. Derimot er poenget å måle et skjermkorts generelle 3D-ytelse i applikasjoner som virkelig kan utnytte kortets kapasitet. Ingen av dagens spill gjør dette på linje med 3Dmark05, så denne benchmarken er nok mer egnet til å måle ytelsen i spill som ligger et stykke frem i tid.

Endret av ShAvAnO
Lenke til kommentar

ok frister å kalle en hel del av dere IDIOTER! men jeg gjør ikke det, altså 3dmark05 er et test program! Ikke noe annet, at et 9600XT slår De gamle topp kortene til Nivida viser jo bare at det er driver opptimalisering. At det er fortsatt folk som kjøper grafikk kort for hva de får i 3dmark ja..huff!!

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...