Gå til innhold

De første offisielle benchmarks i Half-life 2! Fra Valve! :)


YpsiNine

Anbefalte innlegg

Videoannonse
Annonse
ser ut som nVidia vet at benkmarkene til hl 2 ikke var så bra:

 

nVidia on the other hand are not so happy about the tests that have been released, and say that they are meaningless since their new Detonator 50 will be optimized for Half Life 2 and show a lot better performance. Valve advise reviewers not to test Half Life 2 with the present Detonator 50 simply since they lowers the quality too much.

 

men prøver og gå andre veier med nye drivere som skal ha bedre ytelse

på hl 2:

 

According to Valve, nVidia has already been at it again and optimized their drivers to for example not render smoke/fog in the game. The question is whether these kinds of optimizations is what we users want to make our 500$ graphics cards deliver sensible performance...

 

men hl 2 uten effekter(røk,tåke)høres ikke noe morsomt ut...

vet bare at jeg skal ha ati,virker som fx-kortene ikke gjør det bra i direct

x9 spill(Tomb Raider: The Angel of Darkness)

 

Ja jeg syns det var litt mistenktsomt at Nvidia prøver å trøkke på reveiwere uofisielle drivere.

 

As you can tell from looking at the list in the slide above, Newell was concerned particularly with some of the techniques NVIDIA has used in recent driver releases, although he didn't exempt other graphics hardware makers from his complaints. He said they had seen cases where fog was completely removed from a level in one of Valve's games, by the graphics driver software, in order to improve performance. I asked him to clarify which game, and he said it was Half-Life 2. Apparently, this activity has gone on while the game is still in development. He also mentioned that he's seen drivers detect screen capture attempt and output higher quality data than what's actually shown in-game.

 

Flotte greier.

 

det er flere litt morsomme ting som skjer her med denne benchmarken, men det ingen nevner er at Nvidia bruker 32bits floating point precision på nesten alle testene, mens ATI bruker 24bits, som krever en god del mindre gpu-kraft.

 

ATI kjører FP32 internt i noen av rendering stegene.

 

Dette var en ting John Carmack snakket ganske mye om i forbindelse med Doom 3s grafikkmotor i forhold til de forskjellige GPUene.

 

Men allikevel kjører Doom3 på NV3x hardware i FP16 og FX12.

 

En annen ting er at Valve er kjøpt og betalt av ATI, som alle vet. Hvor mye denne summen er på er ukjent, men man kan anta at det ikke er snakk om småpenger.

 

Med det mener du hva? At Valve har men hensikt gjordt det slik at HL2 går dårlig på NV3X? Det ville være å skyte seg selv i foten. Det er en egen code-path for NV3x og dem har brukt mye tid å optimalisere mot NV3x.

Dem har en "cross-marketing" ting med ATI, det betyr ikke at Valve er kjøpt og betalt av ATI. Det er Nvidia som har skylden for dette ikke Valve.

 

Synes, som noen andre har nevnt, at det er ganske rart at Nvidia og ATi kort yter ganske jevnt over alt ellers bortsett fra i HL2.

 

Hvor mange spill er det som bruker PS2.0? TR:AoD som er et "TWIMTBP" tittel og diverse syntetiske DX9.0 benchmarks viser det samme.

Lenke til kommentar
det er flere litt morsomme ting som skjer her med denne benchmarken, men det ingen nevner er at Nvidia bruker 32bits floating point precision på nesten alle testene, mens ATI bruker 24bits, som krever en god del mindre gpu-kraft. Dette var en ting John Carmack snakket ganske mye om i forbindelse med Doom 3s grafikkmotor i forhold til de forskjellige GPUene.

 

Ja, og når Nv3x brukte den spesialtoptimaliserte renderingen som Valve brukte *****ig lang tid på å utvikle, og kjørte på 12bit/16 bit, så var ATi FREMDELES raskere enn GFFX5900Ultra (!)

 

Og det var når ATi brukte alle DX9.0 sine funksjoner.

Lenke til kommentar

så det dere sier er, i bunn og grunn, at jeg bør bytte ut GF FX5900 Ultra kortet i den ene PCen min med et ATI Radeon 9800Pro kort?

 

Som jeg sa kjører jeg også ATi (9700 Pro), og venter derfor spent på hvordan spillet vil se ut på de to maskinene.

 

Eneste vi kan gjøre er å vente til HL2 benchmarken kommer ut til de uavhengige sidene, når det skjer får vi sikkert se andre resultater.

 

Får også se når de offisielle 50.xx driverne til Nvidia kommer med å se på faktisk ytelse i spillet.

 

Forresten, dette minner litt om AMD vs. Intel snakk... hver gang "the underdog" slår den regjerende mesteren i en test jubler alle fanboyene med en gang og minner alle oss andre på hvor dumme vi var som valgte det andre kortet... Kan ikke helt si jeg liker den mentaliteten, men, det er vel menneskelig natur.

 

Samme det, får se hvordan det går. Vi vet heller ikke noe om hvordan settings spillet er kjørt med, så vi får se når det kommer ut nærmere info om testen.

Lenke til kommentar

Jeg er hverken ATI fanboy eller AMD fanboy, men jeg støtter dem begge, pga at monopol det er vi ingen tjent med.

 

Uansett back to topic, her viser det seg at ATI gjør det ganske mye bedre enn Nvidia i HL2, og mange skriker at ATI støtter Valve.

 

Hva gjør da Nvidia med ID software?

 

http://www.hardocp.com/article.html?art=NDc0

 

Ok, den Doom testen ble sluppet i mai, men avlikevel. Ett eller annet sted er noe galt.

Når HL2 og Doom III testene spriker så mye, så lurer jeg faktisk litt på hvor mye penger egentlig har å si for dem som lager spill. Kanskje veldig mye når alt kommer til alt?

Lenke til kommentar
Synes, som noen andre har nevnt, at det er ganske rart at Nvidia og ATi kort yter ganske jevnt over alt ellers bortsett fra i HL2.

 

 

Dette er jo latterlig tullpreik....

 

ALLE tester som er ute og som benytter DX9.0 / Pixelshader 2.0 viser/har vist at ATI kortene har vært mye bedre på dette.

 

3dMark 03

TR:AOD

HL2

ShaderMark

 

for å nevne noen.

Lenke til kommentar
ATI has had what they call "Shader Day" - they've gathered a bunch of press together (the links already collected represent most of the people invited) to explain more about shaders and why we are seeing a shift in games (and also benchmarks). We've had a number of very interesting technical presentations today, most from ATI (Eric Demers - sireric did an interesting presentation on R300's shader architcture, and there were some new, interesting details in there) and from MS and Softimage as well. Anyway, Valve rounded off the days presentations - their remit was to talk about the shader utilisation in HL2, but it soon became apparant that Gabe wanted to take a difference slant on things, and ended up talking about benchmarking and the issues surrounding that.

 

Valves issue is that they feel that benchmarks at the moment are fairly meaningless and it will actually loose Valve money when their users go out and buy board X and expect a certain level of performance, only to find out that it doesn't actually perform that well when they run the game (or make an update to the game) - Valve (and other game devs's) are the ones that are going to loose money when games are returns due to porr performance (hence the "Our users will be pissed" quote), and this was very much valves angle on benchmarking.

 

Gabe wasn't backward about coming forward about this and quite frankly the candour was more than surprising to the entire room - including ATI who were expecting a talk on shaders. I'm hearing that the presentation took this slant very last minute because some of the "optimisations" that were listed in the presentation have turned up in the newly released Det 50's, which Valve only recieved recently as well.

 

Dave Baumann

-Beyond3D

 

Ser ut som Det. 50 fikk Newell til å tenne på alle pluggene.

 

http://www.techreport.com/etc/2003q3/valve...ve/index.x?pg=1

Lenke til kommentar

Det var interesant lesning hos http://www.techreport.com/etc/2003q3/valve...ve/index.x?pg=1

Men samt sørgelig å se til hvike skritt Nvidia er villige å gå til på forbrukernes bekostning (tenkte på det i det50) at de til og med legger inn gjennkjenning i driverne slik at når man tar en screenshot for man IKKE det man ser på skjermen i øyeblikket, er dette juks eller bare en ny form form opptimalisering. :-?

Nei det er bare en ting å si utover dette og det er at jeg håper på det sterkeste at Nvidia tar seg sammen og kommer øverst på pallen igjen slik at det ikke sitter en og er "kongen på haugen "som kan ta hva de vil for korta sine.

Vi som forbrukere trenger konkuranse dog på Ærlig plan

Lenke til kommentar

OT.

 

Men det absolutt største spørmålet er vel: Hva i all verden har skjedd med Gabe Newell?? Han har jo blitt en skikkelig galte gjennom de siste årene!! Bare se det bildet! :lol::lol: Holdt på å le meg skakk da jeg så dette. Det er hvertfall ikke slik jeg husker ham fra de tidlige half-life årene.

 

spotlight.jpg

Lenke til kommentar

Well, Well!!

 

http://www.anandtech.com/video/showdoc.html?i=1863

 

During Gabe Newell's presentation, he insisted that they [Valve] have not optimized or doctored the engine to produce these results. It also doesn't make much sense for Valve to develop an ATI-specific game simply because the majority of the market out there does have NVIDIA based graphics cards, and it is in their best interest to make the game run as well as possible on NVIDIA GPUs.

 

Gabe mentioned that the developers spent 5x as much time optimizing the special NV3x code path (mixed mode) as they did optimizing the generic DX9 path (what ATI's DX9 cards use), thus it is clear that a good attempt was made to get the game to run as well as possible on NVIDIA hardware.

Lenke til kommentar

 

Dette er jo latterlig tullpreik....

 

ALLE tester som er ute og som benytter DX9.0 / Pixelshader 2.0 viser/har vist at ATI kortene har vært mye bedre på dette.

 

3dMark 03

TR:AOD

HL2

ShaderMark

 

for å nevne noen.

 

Uhm, det vi diskuterer her er HL2, så hvorfor står det på listen din?

 

3dmark og Shadermark er syntetiske benchmarks, førstnevnte definitivt ikke til å stole på.

 

Det eneste du da argumenterer med er TR spillet. Det har jeg ikke testet, så jeg kan ikke kommentere det, men jeg reagerer på det pretensiøse forsøket på å bevise noe ut ifra manglende tester. Gjør det rett og redelig ihvertfall....

Lenke til kommentar
Den eneste grunnen for og ikke vise tallene for det50 er jo

at de liger langt over ATI sin score og Value har en avtale med ATI ;)

 

Leste du svaret fra Nvidia nevnt like over ?

Svar fra Nvidia

 

 

Part of this is understanding that in many cases promoting PS 1.4 (DirectX 8 ) to PS 2.0 (DirectX 9) provides no image quality benefit

.

Nvidia vil bruke shadere fra directx 8 i stedenfor versjon 9. Dette er lagt inn i versjon 50. + andre feil. Feil kvalitet hvis du tar screen shot, uten tåke....

 

Så kanskje de har bedre tempo i versjon 50, men ikke fullt directx 9.

Lenke til kommentar

Det er absolutt ikke noen lovende resultater som kom frem her, men det er et par ting som er viktig å huske på.

 

1. Spill blir gitt ut langt tidligere enn før, pga økonomiske hensyn. Det kan bety at det er mye som kan bli forbedret i de første patchene.

 

2. Drivere blir i veldig stor grad optimalisert for de store spilltitlene. Hverken ATi, og ihvertfall ikke NVidia har fått sjansen til å lage en driverversjon ETTER å ha testet spillet.

 

Optimaliseringer skjer stadig vekk, og at begge parter vil kjøre dette spillet betraktelig raskere i løpet av et par måneder er det liten tvil om. Bare se på ATi sin Catalyst changelog, stadige rettinger av typen "Game X now runs 30% faster in high resolutions". Så siden så mye arbeid gjenstår, kan vi på ingen måte dømme noen av partene ennå.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...