Gå til innhold

De første offisielle benchmarks i Half-life 2! Fra Valve! :)


YpsiNine

Anbefalte innlegg

forresten, høres litt morsomt ut det med screenshot som viser bedre kvalitet enn den som faktisk vises under spilling..

hvordan har nvidia fått til dette via en driver ?

vet ikke stort om slikt, men hørtes litt merkelig ut.

 

Der er jeg nok like blank som deg :-)

 

Aner ikke hvordan de har gjort det, men Valve fant denne effekten når de laget/testet benchmark av HL2..... Det skal dog sies at de ikke har sagt noe om HVEM som har denne funksjonen, så det kan jo likegodt være ATI, men jeg holder en knapp på Nvidia.

Lenke til kommentar
Videoannonse
Annonse

ThomasM:

Er nok ikke så vanskelig å få gfx kortet til å kjøre opp alle detaljer når screenshot blir tatt. Det er jo tross alt et stopp i selve spillingen.

 

Selv om du har et poeng med Doom 3 vs HL2, så er HL2 ferdig. En benchmark lanseres til presse 30 sept., og spillet kommer ut kort tid etter det, hvis ikke samtidig. Doom 3 lanseres når det er ferdig, og det ser ut til å bli i første kvartal 04.

 

Er og enig med deg at vi skal vente på Det. 50, men hvis det viser seg at Nvidia gjør noe muffens med de driverene så har de mistet all min respekt.

 

En ting som og er å merke seg med Doom 3, er at Id-software har også laget et slikt "mixed" mode for NV30/35. Hvis de kjører samme path'en som ATi/andre kort, går det fryktelig tregt. Dette har John Carmack presisert flere ganger. Synes det er synd at alle må tilpasse spillene sine for FX-serien slik at den går noenlunde bra...

Lenke til kommentar
Regner med å ligga da på rundt 4xaa 16xaf osv i 1280x1024 0g pushe alt av detaljer på fullt  :D

 

hehe du kan jo prøve men den er tvilsom...

 

tror jeg kan komme til å kjøre det på 1024*768 med alt på max... kanskje 2xfsaa og 4xaf

 

det er jo bare å se på ytelsen som de fikk på anandtech

 

 

 

Tror du ikke en XP3000+ cpu og en Radoen 9800 pro 256 mb klarer å kjøre HL2 i 1280x1024x32 med 4xaa/16xAF med full detalj?

Det var jo der den ekstra minnen skulle slå til å redde dagen :o

Lenke til kommentar
Gjest Slettet-80wCWpIM
ThomasM:

Er nok ikke så vanskelig å få gfx kortet til å kjøre opp alle detaljer når screenshot blir tatt. Det er jo tross alt et stopp i selve spillingen.

 

Selv om du har et poeng med Doom 3 vs HL2, så er HL2 ferdig. En benchmark lanseres til presse 30 sept., og spillet kommer ut kort tid etter det, hvis ikke samtidig. Doom 3 lanseres når det er ferdig, og det ser ut til å bli i første kvartal 04.

 

Er og enig med deg at vi skal vente på Det. 50, men hvis det viser seg at Nvidia gjør noe muffens med de driverene så har de mistet all min respekt.

 

En ting som og er å merke seg med Doom 3, er at Id-software har også laget et slikt "mixed" mode for NV30/35. Hvis de kjører samme path'en som ATi/andre kort, går det fryktelig tregt. Dette har John Carmack presisert flere ganger. Synes det er synd at alle må tilpasse spillene sine for FX-serien slik at den går noenlunde bra...

 

skal være en kjekk funksjon hvis den peiser opp alle detaljene i det millisekundet du trykker print screen

Lenke til kommentar
Optimaliseringer skjer stadig vekk, og at begge parter vil kjøre dette spillet betraktelig raskere i løpet av et par måneder er det liten tvil om. Bare se på ATi sin Catalyst changelog, stadige rettinger av typen "Game X now runs 30% faster in high resolutions". Så siden så mye arbeid gjenstår, kan vi på ingen måte dømme noen av partene ennå.

 

Valve har nok jobbet tett med både Nvidia og ATI med bl.a å optimalisere drivere for HL2 og disse optimaliseringene vil sannsynligvis være tilgjengelig i de offisielle driverene når HL2 kommer ut på markedet. Det vil nok være mer å hente, men hvis vi skal vente med å dømme ytelse til en spill til det ikke er mer å hente fra driver optimalisering så blir det ganske håpløst. For å sette det litt på spissen så har siste Catalyst driver en ganske grei ytelse økning i Ut2003 for kort som er over 1 år gamle. Hvor lenge skal vi ennå vente før vi kan dømme ytelsen til disse kortene i UT2003?

 

3dmark og Shadermark er syntetiske og irrelevante for spill. I tillegg har de spilt seg utover sidelinjen både på grunn av seg selv, og på grunn av hva NVidia/ATi har foretatt seg.

 

Ja og TR:AoD og HL2 har virkelig vist hvor irrelevante disse testene er..

 

Nå som endelig disse spillene begynner å komme på markedet så er det på tide å fokusere på dem. TR kan være et godt eksempel, men det er dessverre det eneste foreløpig. Si hva du vil, men det er ikke noe grunnlag for å trekke dine konklusjoner ennå, med tanke på spillene som er ferdige og klare for testing i dag...

 

Når 3DMark03, Shadermark, Dawn wrapper og spill som TR:AoD og HL2 viser det samme og i tillegg kommentarer fra diverse spill utviklere, bl.a John Carmack bekrefter det, så er det vel ikke lenger så mye tvil om at NV3x serien henger kraftig igjen når det kommer til shader ytelse.

 

Jeg skal være enig i at Valve skulle ha ventet med å vise benchmark resultater til spillet var ute på markedet og det er mulig at Det. 50 vil sette Nvidia i en del bedre lys (hvis ytelse økningen ikke går utover bildekvaliteten), men jeg har lite tro på at en driver etter så lenge vil snu alt dette på hodet.

 

så du tror at grunnen til at de rusher ut en benchmark er fordi de misliker en beta driver som nvidia jobber med ? høres litt mystisk ut...  

at de baserer noe slikt på en driver som er ferdig er jo rett og slett idioti, da kan vi like godt klage på alt av bugs som var i doom3 alphaen...

 

Det er forskjell på bugs og cheats. Sier du at alt dette er et skuespill for å sette nvidia i et dårlig lys? Valve har mange kunder med nvidia kort, hvor sannsynlig er det at dem vil overkjøre alle disse.

 

men den er jo langt fra ferdig vil nok mange si, SO WHAT, det gjelder også detonator 50 driveren.

 

Ifølge Nvidia selv vil Det. 50 være ute innen kort tid.

 

kjære gabe og valve burde nok vente til de ser det fullstendige resultatet av en driver før de går ut og dømmer den til døden.  

selvfølgelig vil valve det, men tror du nvidia vil ha misfornøyde kunder i skjermkortmarkedet?

 

Spørsmålet er vel kanskje heller hvor mange misfornøyde kunder vil Nvidia få med uakseptabelt ytelse i HL2 kontra hvor mange dem vil få med nedgradert bildekvalitet.

 

skal være en kjekk funksjon hvis den peiser opp alle detaljene i det millisekundet du trykker print screen

 

Det høres ikke så usannsynlig ut en kan driver laste opp "uforurenset" pixler til framebufferet for et frame når en applikasjon ber om et screencapture.

Lenke til kommentar
pixelshadervertex shader testene gir en pekepinn på hvordan ytelsen vil være hvis vi opplever at fremtiden blir dønn lik spill-situasjonen som var når 3dmark 03 implenterte testene.

Hvordan forklarer du da at samtlige dx9-baserte tester peker i nøyaktig samme retning??? Her tror jeg du misforstår ganske betydelig. (endel av de tingene du skriver tidligere i tråden angående 3dmark og syntetiske tester tyder også på det) Foreslår at du leser denne artikkelen for å få et litt mer nyansert bilde av hvilken verdi som ligger i 3dmark 03.

 

skal være en kjekk funksjon hvis den peiser opp alle detaljene i det millisekundet du trykker print screen

Dagens beste... Liten tiltro til hvor raskt datamaskina jobber eller??? :wink:

 

Angående ditt savn av Det50, så er svaret såre enkelt: stort sett alle nettsted med litt respekt for seg selv har som prinsipp at drivere som brukes ved testing skal være offentlig tilgjengelig. Grunnen til dette er enkel: det har vært enkeltepisoder hvor man har gjort nytte av spesialskrevne drivere til testing hvor disse driverne aldri har sett dagens lys for den vanlige bruker. Go figure...

 

Følgende fra GamersDepot oppsummerer rimelig bra:

We are very suspect that drivers can act as a big enough “band-aid” to make up a 200-300 percent performance delta. GD holds that NVIDIA’s current architecture is simply not as robust as the R300 technology from ATI.

 

NVIDIA has been telling GD that the recent benchmarks are using an “unreleased game” and that they hope folks won’t hold any weight into these performance findings. Of course we had to remind them that they sure weren’t bitching about the early Doom3 benchmarks that they orchestrated earlier this year – an “unreleased game” being benchmarked.

 

They are also baffled that Valve chose to use the publicly available Det45 driver instead of the beta Det50 - the answer is simple to us and Valve. There have been too many times when drivers are supplied to the press and other industry professionals that don't see the light of day.

Lenke til kommentar

Det blir for mye for meg å svare på alt jeg vil svare på siden jeg først nå har lest gjennom hele tråden - men jeg skal komme med noe *s*

 

Det jeg tror, eller rettere sagt lurer på, er dette rundt NV3x arkitekturen og shadere. Hva kan være grunnen? Har det noen sammenheng men disse fine stjernene (*) som man ser i spesifikasjons-listene på alle tester, der det står at det er "8 xxx per pass" hvis det er sånn og sånn? For da må det jo gå an at et spill blir utviklet til å "passe" bedre til NV3x sin arkitektur i stedet for R3xx sin....just a thought.

 

Skal vi se...jo, Valve sin benchmark. Hm, man kan jo lure på hva som er på gang nå da. Er det Nvidia som har problemer med sine DX9 grafikkort? Eller har Valve - som (hva er det - blir betalt eller er eid av ATI), med vilje gjort ting kompliserte for nVidia? "Valve har jo mange Nvidia kunder blablabla..." ..Men hvis ATI (og) Valve har "gått inn" for å promotere at "Nvidia sux!" og "ATi rocks" i HL2, så er det klart at det vil booste salgene av ATI sine grafikkort + minske troverdigheten til nvidia = ati tjener mye mer (+tar over markedet?) og får nok fortjeneste, slik at Valve slipper å bekymre seg over sine "tapte nvidia-eier fortjenester"... Kun spekulasjoner dette ;). Men ærlig talt, hvorfor skal ATi være så skinnhellige? Forklar meg det.

 

Personlig håper jeg at dette med HL2 og GeForce FX familien ikke "stemmer"...eller at det i det minste kan rettes opp, da jeg sitter her med et GeForce FX 5900 Ultra, som ikke ble kjøpt på Tier'n ;)

Kan ikke si at jeg venter spent på HL2, siden jeg egentlig aldri har spilt noe særlig HalfLife, men det er klart jeg har lyst på det, også pga grafikken!

Men nå venter jeg mest på Need For Speed Underground...så jeg stresser ikke :)

 

Night! :-)

 

EDIT: Ser du stor forskjell i spill på 8xAF og 16xAF, Slabbedasken?

Lenke til kommentar

Nå tror jeg det meste har blitt sagt her i denne tråden. Men jeg kan ikke dy meg for å nevne en ting, til de som tror at Valve "prøver" å knekke nVidia.

 

Synes ikke dere at det er en smule mistenkelig av nVidia å gi ut drivere som gir et "bedre" bilde når du tar en screenshot, enn det du har på skjermen? (ref: en eller annen i denne tråden)

Jeg må muligens kjøpe meg nytt skjermkort, for mitt et nå defekt, jeg går seff for 9800PRO.

 

Njaal

Lenke til kommentar

Syns denne http://www.3dchipset.com/#351 forklarer vel litt av saken.

 

There has been a lot of discussion on why nVidia's FX running Half Life 2 slower then ATi's offering people jump to wild conclusions, like "ATi & Valve are out to screw nVidia". Or better yet I like this one, "Valve optimized their game to ATi's hardware because they teamed up with ATi". When it came down to it, ATi & Valve have followed Microsofts strict DX9 specifications where nVidia's GeForce FX has not. nVidia is promoting Direct X 9 Compatibility and isn't directly saying the card is "DirectX 9". One of our readers, Xzibit-A brings us some word on the subject:

 

Microsoft DirectX 9 is the issues here with Half-Life 2. Nividia from the start presented Microsoft with its new code for their NV3x. When Microsoft publicly annouced the final DirectX 9 API Nvidia started shouting foul because it didnt get its way and put them at a disadvantage because they wanted they're code to be the standard. ATI was behind but decided to make there next gen chip cater to DirectX 9. Which is why its at an advantage cause it uses the standard and no programmers have to re-code their products to make them run specificly for a certain hardware.

 

Nvidia thought it could convince Microsoft to make their code standard to take advantage of their architecture. That was the biggest mistake. Now they have to put out Driver updates for each game that comes under DirectX 9 until they can put out NV4x chip family and hopefully correct their problem.

We all could give a million excuses to why nVidia's FX is slow in DX9 applications, but the fact remains is that the FX isn't a true DX9 derivative built card. The specs on each card tell the story.

 

Kan virke som Nvidia hadde litt høye tanker om seg selv og trodde de kunne diktere hvordan DX9 skullle være. Vel MS hadde noe å si på det.

 

Ang. at Valve er 'kjøpt' av ATI, så sa Gabe Newell at de laget benchmarken først, testet de forskjellige kortene og valgte det som kunne presenter deres spill med best ytelse og visuell kvalitet, og denne gangen var det ATI.

 

Hvorfor skulle Valve 'slå hånden av' 60-70% av potensielle kjøpere (som har nvidia) bare for å få noen millioner av ATI, det er bare ikke logisk.

Faktum er at alle kan spille HL2, men man kan ikke spille med alle grafiske goddiser på. Spillet skal jo være spillbart på DX6 skjermkort iflg minimums spec'ene.

 

Til de som tror at det ferdige spille vil gi andre score's må tro om igjen, spillet kommer ut om ca to uker, selve grafikk motoren har nok vært 'låst' en god stund, dvs man gjøre ikke drastiske endringer i grafikk motoren to uker før spillet blir gitt ut, da må man gå gå igjennom hele spillet og bug-sjekke det gjen.

Lenke til kommentar

Mine 14,8 øre (dersom dollar-kursen fortsatt er 7.40):

 

Det virker gjennomgående at de som tror mest på ATI, også har lest artiklene til de "proffe" nettstedene som har gått grundig gjennom Valves presentasjon. De som ser konspirasjoner mot nVidia overalt, derimot, har stort sett ingen kilder å referere til, og det virker som de sier dette på bakgrunn av sin egen uinformerte tolkning av situasjonen.

 

Hvis folk kun leser hw.no, og tror de har fullstendig oversikt over situasjonen må de tro om igjen. Hw.no skraper kun i overflaten av nyhetene, og skriver veldig generelt (med unntak av en del tester). Andre internasjonale hw-sider kan skrive 10-siders artikler der man også lærer mye om hvordan og hvorfor ting fungerer som de gjør, f.eks. grafikk-kort. (NB! Dette er ikke kritikk av hw.no, men er stadfestelse av noe som går mange hus forbi.)

 

"]For da må det jo gå an at et spill blir utviklet til å "passe" bedre til NV3x sin arkitektur i stedet for R3xx sin....just a thought.

I prinsippet en god tanke, gompen. Intel og AMD har CPUer med vidt forskjellige arkitekturer, så overall performance kan påvirkes en del av hvordan man skriver et program. Men enda mer påvirkes benchmarks av hvilken type operasjoner man ønsker å gjøre. Med forbehold om at jeg husker rett i farten, så er f.eks. alltid Intel P4 bedre på encoding, mens AMD Athlon XP alltid er bedre på flyttallskalkulasjoner (FPU) sett i forhold til klokkefrekvens. Kan det tenkes at ATI alltid er bedre enn nVidia på DX9-operasjoner?

 

Jeg tror hvertfall at man på samme måte kan dele opp hva forskjellige grafikk-brikker er gode på. Eks: NV3x (og andre vanlige spill-kort) har elendig OpenGL-ytelse sammenlignet med workstation-skjermkort som koster fra 10.000 kr og oppover (ATI FireGL X1, nVidia QuadroFX 2000, 3Dlabs Wildcat VP970, etc). Og dette kan ikke endres, selv OpenGL-programmet optimaliseres for NV3x.

 

Tilsvarende, er det her antakeligvis snakk om at ATI sine kort rett og slett har bedre DX9-shader-støtte enn nVidia sine FX-kort, helt uavhengig av om programmet skrives for ATI eller nVidia. Det er nemlig det disse benchmarkene tyder på, og ikke at Valve har optimalisert HL2 for ATI.

 

Urk, tror denne posten kommer til å bli alt for lang, men la meg likevel dra en annen sammenligning fra bilenes verden. En formel-1-bil og en gammel Lada har helt forskjellige arkitekturer. På veier (baner) som er beregnet for formel-1 vil Lada-en bli KNUST. Likevel vil antakeligvis Lada-en slå formel-1-bilen i et terreng-løp (fordi formel-1-bilen vil sette seg fast). Dette er fordi bilene er HELT forskjellige.

 

Sammenligner du derimot en Lada med en elendig motor, med en Porsche med glimrende motor, hvor bilene ellers (utvendig) er like, så vil nok Porschen alltid slå Ladaen. Dette er fordi bilene er beregnet på det samme, men den ene er simpelt hen mye bedre. Ingen vei/bane vil kunne endre på dette resultatet.

 

For å dra dette tilbake til skjermkortene igjen: DX9 er en ting som både ATI- og nVidia-kortene er designet for å takle. Men hvis ATI har laget kort med dobbelt så kraftig "motor", så er simpelt hen ATI mye bedre. Intet program vil kunne endre på dette resultatet. ATI er Porsche i DX9-operasjoner og nVidia er Lada i DX9-operasjoner uansett.

 

En ting mange ikke har fått med seg her: Valve har brukt MYE tid på samarbeid med nVidia for å lage en egen NV3x-optimalisert shader-kode. Dette gjorde Valve fordi NV-kortene ikke gjorde det bra nok ellers. Tror dere ikke nVidia hadde skreket høyt hvis dette arbeidet faktisk med vilje resulterte i dårligere ytelse for nVidia? Tror dere ikke nVidia har en HL2-kopi, som de tester og utvikler drivere mot? Tror dere ikke nVidia har kompetente nok folk til å oppdage det dersom den vanlige HL2-koden gjorde det bedre på NV-kortene enn den "optimaliserte" koden?

 

Hvis noen svarer nei på spørsmålene over, så har dere et paradoks: Dere tror nVidia er kompetent til å lage et DX9-kort som er markedets beste, men dere tror derimot IKKE at de er kompetent nok til å oppdage bevisst juks fra Valve? Oh, come on...

 

Det er dessverre en del av detaljene i arkitekturen til disse grafikk-brikkene som ikke publiseres, men Anandtech prøver her å ressonnere seg frem til hva som er dårligere hos nVidia ut i fra hvilke optimaliseringer Valve har gjort for NV3x: http://www.anandtech.com/video/showdoc.html?i=1863&p=4

 

"]Men ærlig talt, hvorfor skal ATi være så skinnhellige?

Tror du blander betydningen av hellig og skinnhellig, men uansett: ATI ville nok definitivt overtalt Valve til å trashe nVidia hvis det overhodet var mulig. Hvis ATI tjener penger på noe, så gjør de det nok. Her er de nok helt lik som nVidia, og de fleste andre selskaper som ønsker å tjene penger. ;)

 

Men spørsmålet er ikke om ATI ville gjort det; spørsmålet er om Valve ville gjort det. Og som har vært nevnt mange ganger tidligere: Hvorfor skulle Valve ønske dette?

 

Anbefaler folk å lese følgende side som tar for seg denne problemstillingen, og forklarer punkt for punkt hvorfor vi antakelig kan stole på Valve her: http://www.anandtech.com/video/showdoc.html?i=1863&p=3

Valve valgte ATI på bakgrunn av benchmarkene. Benchmarkene har ikke blitt slik fordi Valve samarbeider med ATI. Samarbeidspartner ble valgt etter grafikk-motoren var ferdig. Valve har optimalisert spillet sitt for nVidia (i tett samarbeid med dem), ikke ødelagt for dem.

 

Ikke at det har noe å si for argumentene, men jeg har aldri hatt et ATI-kort - kun nVidia (men heldigvis(?) ikke et FX-kort).

Lenke til kommentar

nVidia fan boy's, WAKE UP AND SMELL THE COFFEE!!!!!

 

http://www.driverheaven.net/articles/aquam...mark3/index.htm

 

Alot of negative publicity is currently surrounding Nvidia, and here at driverheaven we like to remain as impartial and open minded as we possibly can, but after reading all the articles recently such as here coming from good sources and experiencing this ourselves first hand, I can no longer recommend an nvidia card to anyone.
Lenke til kommentar

Ny test av Det50 i DX9 spill hos Gamers Depot viser at Det50 øker ytelsen til nv3x baserte kort brukbart i PS2.0 shadere. MEN: Dette går veldig på bekostning av kvalitet på grafikk...

 

Kanskje var ikke spekulasjonene som har versert en tid nå om at nv3x har hardwareproblemer i forhold til directx9 så langt unna sannheten likevel... foreløpig er det mye som tyder på at dette ihvertfall er problemer som vanskelig lar seg løse med akseptable metoder på drivernivå.

 

Utdrag fra artikkelen:

NVIDIA's Det50's don't quite grab the high-needed performance boost we had hoped for - granted they still have some time to improve upon them. However, we can now conclude as to why NVIDIA wanted Valve to use these in the  recent testing we did in Half-Life 2 - they make the image quality look like crap as a way to boost performance.

 

Edit: spillene som ble testet var forøvrig Tomb Raider: Angel of Darkness samt en betautgave av Halo.

Lenke til kommentar

*klapp klapp* månedens innlegg, Pureblade! :smile:

 

Men nå er jeg sur. Det første jeg skal gjøre når jeg kommer hjem er å skjekke om det står "DX9 VGA card" eller "DX9 compatible VGA card" på FX eska/manualen min. Jeg mener, har nVidia "lov" til å selge et kort som ikke "er" DX9 men som de sier at er det? Mener at det går på noen slags ulovligheter eller noe..hm...skal skjekke en gang.

Jeg har ingen planer om å sitte her med et kort til nok antall tusen som liksom skal fikse PS 2.0, men som må bruke PS 1.4 i HL2, og etterhvet sikkert i alle spill fordi arkitekturen ikke stemmer med DX9!

******!

 

*trenger tid til å lese artiklene*

Lenke til kommentar

FX kortene er 100% DX9 kompatible, hvis du husker de tidligste omtalene, så har de på papiret større registere, flere buffere osv enn R3xx kortene. Det er ikke det som er problemet. Alle DX9 spesifikasjonene er oppfylt og vel så det. Man må derimot begynne å lete andre steder for å forklare ytelsesforskjellene.

 

Foreløpig så avventer jeg til final versjon av detonator50 driverne, og ser hvordan bildet ser ut da. Det kommer sikkert til å komme endel interessante artikler på temaet, når NVidia hørst har fått ut drivere som de mener utnytter kortene til fulle.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...