Gå til innhold

3Dc fremfor Pixel Shader 3.0


Anbefalte innlegg

Videoannonse
Annonse
,09/05/2004 : 12:08]

Det er litt både og da når det gjelder SM (Shader Model)3.0. Med den økte ytelsen de hevder at det kan gi, og at det er enklere å implementere shaders enn med SM 2.0, så er det jo en selvfølge at spillutviklere vil bruke mer "avanserte"(good looking) shadere som gir høy bildekvalitet, det sier jo seg selv! I stedet for å bruke noe 1.1, 1.4, litt 2.0 osv... Så på en måte kan man si at det er åpnet for mye høyere bildekvalitet. Kommer bare an på hva utviklerne utnytter. Og de fleste er vel gjerne interessert i å lage et spill som ser best mulig ut?

På flest mulig kort ja. Tror du virkelig spill utviklere vil la være å lage samme effektene med SM2.0 når det er såpass mange SM2.0 kort ute på markedet (og jeg tenker ikke bare på ATi her) og det er kun GeForce 6 serien som støtter SM3.0? Det er langt ifra en selvfølge at det vil skje i nærmeste fremtid.

Det er kanskje en grunn til at dagens "DX9 spill" er hovedsaklig DX8.. det er nok fremdeles langt flere som har dx8 kort enn dx9 kort. De få dx9 shadere som er brukt idag er som oftes ganske simple og kan utføres på DX8 kort med noen ekstra passes.

 

Mulig jeg tar feil, men det kunne muligens ha tatt kortere tid å lage spill som HL2 og FarCry dersom SM 3.0 var ute og i bruk da de begynte å utvikle spillene. I teorien så er hvertfall det sant.

Dette tror du ville vært i spill utviklerens beste interesse? At man måtte ha ventet på et NV4x kort for å få alle effektene når det samme er mulig på dagens hardware?

 

Også har vi dette med dicplacement mapping(som noen hevder ATi's kort har en slags støtte for en litt annen måte å gjøre det på, ellernoe?). Prinsippet er vel at med dicplacement mapping er det enkelt å få til f.eks, en "3D-murvegg", dvs ikke bare at veggen er laget slik at det ser ut som om den er 3D(ut2003 anyone?), men når du går bort til veggen og stapper trynet oppi så ER den fotsatt 3D, altså mursteinene kan stå litt lengre ut enn fugene. Dette ble vist eksempel på da utviklerne av Unreal3-enigne brifa litt med videoklipp av den(sykt!).

Dette ble også vist på FarCry under NV40 launch event, men da var det brukt virual displacement mapping eller parallax mapping som er mulig med SM2.0. Jeg vet ikke hva UnrealEngine3 bruker, men når dette spillet endelig kommer vil GF6800 og X800 være ganske low-end.

 

http://www.driverheaven.net/reviews/X800XT...GES/mapping.jpg

 

En annen stor fordel er at med dicplacement mapping kan man få overflater til å forandre seg, f.eks i et spill med jordskjelv ellernoe, så kan man lett få bakken til å heve og senke seg (syns jeg husker eksempler på dette fra HL2 videosnutter? ikke SM 3.0 altså?).

Dette var vist på et R9800 kort. NV40 har ikke støtte for HOS så fra jeg skjønner vil mulighetene med adaptive tesselation være begrenset. Men det er også andre muligheter med vertex texturing enn displacement mapping.

Lenke til kommentar

MistaPi, du må slutte med gresk, og forklare hva ting betyr! :p Hehe :)

 

 

På flest mulig kort ja. Tror du virkelig spill utviklere vil la være å lage samme effektene med SM2.0 når det er såpass mange SM2.0 kort ute på markedet (og jeg tenker ikke bare på ATi her) og det er kun GeForce 6 serien som støtter SM3.0? Det er langt ifra en selvfølge at det vil skje i nærmeste fremtid.

Det er kanskje en grunn til at dagens "DX9 spill" er hovedsaklig DX8.. det er nok fremdeles langt flere som har dx8 kort enn dx9 kort. De få dx9 shadere som er brukt idag er som oftes ganske simple og kan utføres på DX8 kort med noen ekstra passes.

Det er mer enn bare GeForce 6 serien som vil støtte det etterhvert tenker jeg...men det vil jo tiden vise. Mulig de hopper rett til SM 4.0? :hmm: Såvidt jeg husker så har nVidia like stor markedsandel, om ikke hakket større? enn ATi, og hvis forholdet på markedet holder seg omtrent som det er, så er det maaange som vil ha støtte for SM 3.0 etterhvert. For å være ærlig tror jeg flere kommer til å satse på GeForce 6 serien enn Gefroce Fx *host*

Men jeg forstår godt hva du mener, og er vel enig i det. Utviklerne tør vel ikke ta sjangsen på at spillet ikke kan kjøpes og spilles av flest mulig spillere(de må jo selge for å tjene). MEN de kan jo legge inn støtte for SM 3.0? Altså, bruke SM alt etter hva kortet støtter..? (Har ikke TombRaider AoD noe sånt? At man kan velge PS versjon hvertfall..). Håper bare ikke at de bremser så jævlig mye. Hvis spillutviklerne ikke vil bruke SM 3.0, så ser ingen brukere vits i å kjøpe kort som støtter det, og ingen ser vits i å lage kort som støtter det osv.. ond sirkel!! :scared:

 

 

Dette tror du ville vært i spill utviklerens beste interesse? At man måtte ha ventet på et NV4x kort for å få alle effektene når det samme er mulig på dagens hardware?

Jeg sa HVIS SM 3.0 og produkter som støttet dette fantes da...Var hvertfall det jeg mente.

 

 

Dette ble også vist på FarCry under NV40 launch event, men da var det brukt virual displacement mapping eller parallax mapping som er mulig med SM2.0. Jeg vet ikke hva UnrealEngine3 bruker, men når dette spillet endelig kommer vil GF6800 og X800 være ganske low-end.

Men det er vel mer sånn "fake"-3D...("virtual" dicplacement mapping?)

Ja, GF6800 og X800 vil vel være ganske low end...sånn er det alltid :) Det de sa, utviklerne av UnrealEngine3 altså, var at GF6800U kunne kjøre det i "decent" framerate...dvs ikke veeldig fort :p ikke spillbart sikkert. *ler*

 

Dette var vist på et R9800 kort. NV40 har ikke støtte for HOS så fra jeg skjønner vil mulighetene med adaptive tesselation være begrenset. Men det er også andre muligheter med vertex texturing enn displacement mapping.

Her var gresken ja... :p

Lenke til kommentar

Det er mer enn bare GeForce 6 serien som vil støtte det etterhvert tenker jeg...men det vil jo tiden vise. Mulig de hopper rett til SM 4.0? :hmm: Såvidt jeg husker så har nVidia like stor markedsandel, om ikke hakket større? enn ATi, og hvis forholdet på markedet holder seg omtrent som det er, så er det maaange som vil ha støtte for SM 3.0 etterhvert. For å være ærlig tror jeg flere kommer til å satse på GeForce 6 serien enn Gefroce Fx *host*

Faktisk sitter en veldig stor andel gamere med NV1x (GF2/GF2MX/GF4MX) som er DX7 kort, så hvis du mener at "maaange" vil ha NV4x iløpet av dens levetid så er du ganske optimistisk for å si det mildt. Jeg tror nok vi kan takke Xbox for at vi har så mange DX8 spill som det vi har.

Vi vil nok ikke se andre kort med SM3.0 støtte før NV5x og R5xx (jeg antar da at R5xx vil ha SM3.0 støtte).

 

Men jeg forstår godt hva du mener, og er vel enig i det. Utviklerne tør vel ikke ta sjangsen på at spillet ikke kan kjøpes og spilles av flest mulig spillere(de må jo selge for å tjene). MEN de kan jo legge inn støtte for SM 3.0? Altså, bruke SM alt etter hva kortet støtter..?

Det kommer også til å bli gjordt. Det er mye kortere vei fra SM2.0 til 3.0 enn det er fra SM1.x til SM2.0. Crytek brukte vel 3 uker på å implentere SM3.0 i Farcry. Men jeg tviler på at NV4x vil ha en stor fordel i disse spillene kontra X800, hverken visuelt eller ytelse messig.

 

Håper bare ikke at de bremser så jævlig mye. Hvis spillutviklerne ikke vil bruke SM 3.0, så ser ingen brukere vits i å kjøpe kort som støtter det, og ingen ser vits i å lage kort som støtter det osv.. ond sirkel!! :scared:

De fleste brukere går først og fremt etter ytelse (se bare på R8500 og GF4Ti). Men etterhvert vil det komme SM3.0 parts fra low-end til high-end, også fra andre produsenter.

 

Men det er vel mer sånn "fake"-3D...("virtual" dicplacement mapping

Det er et slags displacement maping som gir noe av samme effekten og det er ikke så kostbart som det "ekte" displacement mapping er. Men poenget er uansett at SM3.0 er ikke et krav for displacement mapping, som nVidia skal ha det til.

 

Her var gresken ja... :p

Adaptive tesselation = displacement maping "on the fly", i motsettning til pre-definerte displacement maps.

HOS = Higher Order Surfaces ala ATi's "trueform".

Vertex Texturing = texture lookup/access i vertex shader (VS 3.0).

Lenke til kommentar
Faktisk sitter en veldig stor andel gamere med NV1x (GF2/GF2MX/GF4MX) som er DX7 kort
CS-folk altså.. *sukker oppgitt*.

 

 

Men du kan ikke nekte for at det fins mulighet for at de med GF2, og fosåvidt GF4MX vil oppgradere. Vil vel påstå at det heller er folk som kjøper pakkeløsninger osv som sitter med sånne kort... en gamer forstår vel at GF2 er møkk! Forsåvidt så gir jo GF4MX grei ytelse..hvertfall i CS, som så mange tilber...

People DO upgrade their hardware you know. Du er så..negativ! :) (jada, du vil kalle det realistisk..)

 

 

Ah, takk for oversettelsen av gresken :) hehe. Du kan gjerne få gi eksempler og kanskje, hvis du kan da. Lettere å forstå da :)

Lenke til kommentar

The Inquirer har motatt et åpent brev fra Gainward vedrørende Brandon "Sandman" Bells i FiringSquads sin ATI X800 vs NVIDIA 6800 test:

Gainward raises graphics stakes with open letter

 

"Mature drivers are all great and wonderful, on release, but this is still the pre-season, time for testing and tuning, and I don't remember anybody winning the Super Bowl in August. Plus, if we look back on NV3X, we know damn well just how much NVIDIA can squeeze out of its cards with every driver release. They went from gimp when the NV30 launched, to being neck-and-neck with ATI now with the 5950 Ultra. NV40 is a wildly different architecture, and I'm willing to bet a Tommyburger and Tommy's chili cheese fries that that NVIDIA will improve the performance of its card a lot more over the coming year than ATI can. I mean seriously, what is R420? ATI abandoned the forward-looking R400 in favor of a card meant for "today" performance, an overglorified R300 with double the pipes, one new feature (3Dc) and not even *half* as many shader instructions as the 5950 Ultra has. The cards are so similar, ATI could just stick a new name into the driver file and be as optimized as they'll ever be. So Brandon, if you want to defend technology ATI dug up in archaeological excavations from 2002, you're more than welcome. At best you'll just have another Alamo on your hands, Texan."

 

Go Gainward! :thumbs:

Endret av snorreh
Lenke til kommentar
The Inquirer har motatt et åpent brev fra Gainward vedrørende Brandon "Sandman" Bells i FiringSquads sin ATI X800 vs NVIDIA 6800 test:

Gainward raises graphics stakes with open letter

 

"Mature drivers are all great and wonderful, on release, but this is still the pre-season, time for testing and tuning, and I don't remember anybody winning the Super Bowl in August. Plus, if we look back on NV3X, we know damn well just how much NVIDIA can squeeze out of its cards with every driver release. They went from gimp when the NV30 launched, to being neck-and-neck with ATI now with the 5950 Ultra. NV40 is a wildly different architecture, and I'm willing to bet a Tommyburger and Tommy's chili cheese fries that that NVIDIA will improve the performance of its card a lot more over the coming year than ATI can. I mean seriously, what is R420? ATI abandoned the forward-looking R400 in favor of a card meant for "today" performance, an overglorified R300 with double the pipes, one new feature (3Dc) and not even *half* as many shader instructions as the 5950 Ultra has. The cards are so similar, ATI could just stick a new name into the driver file and be as optimized as they'll ever be. So Brandon, if you want to defend technology ATI dug up in archaeological excavations from 2002, you're more than welcome. At best you'll just have another Alamo on your hands, Texan."

 

Go Gainward! :thumbs:

:roll:

 

Veldig veldig uprofessionelt. Etter min mening så høres han ut som en idiot og dette kaster nok ikke bra lys over Gainward.

 

They went from gimp when the NV30 launched, to being neck-and-neck with ATI now with the 5950 Ultra.

Riiiight.. :roll:

Lenke til kommentar
The Inquirer har motatt et åpent brev fra Gainward vedrørende Brandon "Sandman" Bells i FiringSquads sin ATI X800 vs NVIDIA 6800 test:

Gainward raises graphics stakes with open letter

 

"Mature drivers are all great and wonderful, on release, but this is still the pre-season, time for testing and tuning, and I don't remember anybody winning the Super Bowl in August. Plus, if we look back on NV3X, we know damn well just how much NVIDIA can squeeze out of its cards with every driver release. They went from gimp when the NV30 launched, to being neck-and-neck with ATI now with the 5950 Ultra. NV40 is a wildly different architecture, and I'm willing to bet a Tommyburger and Tommy's chili cheese fries that that NVIDIA will improve the performance of its card a lot more over the coming year than ATI can. I mean seriously, what is R420? ATI abandoned the forward-looking R400 in favor of a card meant for "today" performance, an overglorified R300 with double the pipes, one new feature (3Dc) and not even *half* as many shader instructions as the 5950 Ultra has. The cards are so similar, ATI could just stick a new name into the driver file and be as optimized as they'll ever be. So Brandon, if you want to defend technology  ATI dug up in archaeological excavations from 2002, you're more than welcome. At best you'll just have another Alamo on your hands, Texan."

 

Go Gainward! :thumbs:

:roll:

 

Veldig veldig uprofessionelt. Etter min mening så høres han ut som en idiot og dette kaster nok ikke bra lys over Gainward.

 

They went from gimp when the NV30 launched, to being neck-and-neck with ATI now with the 5950 Ultra.

Riiiight.. :roll:

Enig med MistaPi her, lukter Nvidia bestikket fra lang avstand. X800PRO :love:

 

Fant noe interessant på firingsquad:

Jakub: So I'm sitting here looking at the benchmarks in the X800 Pro and X800 XT Platinum Edition preview and recalling a conversation I had with Brandon when he arrived in Toronto and attended ATI's press event. He came away with the highly erroneous impression that the X800 would be faster. Unfortunately for him, his own article proves me correct. The X800 XT isn't faster than the 6800 Ultra. In fact, ATI didn't even have the minerals to bring the real XT to the party, instead they come to the table with a Platinum Edition card. Why would you bring a ringer, unless you're scared that your regular product can't measure up to the competition?

 

 

Her svares det på tiltale:

Finally, don’t forget to check out the 3DMark 03 game test results. The test to really pay attention to is Mother Nature, the only game test in 3DMark 03 that uses 2.0 shaders. ATI wins there too. To borrow a term you can understand, ATI scores a hat trick in all of the next-gen benches.

 

And speaking of bringing in a ringer, what’s up with the overclocked GeForce 6800 Ultra showing up on my doorstep at the last minute? You were at NVIDIA’s Editor’s Day last month, do you remember any of NVIDIA’s employees mentioning adding an overclocked 6800 Ultra part to their lineup? Clearly NVIDIA saw the writing on the wall with X800 and tried to crash ATI’s party. Only problem is, even the overclocked 6800 Ultra isn’t able to outpace ATI’s RADEON X800 XT Platinum. Like the old saying goes, “never bring a knife to a gunfight” (especially if it’s a SIG).

 

Looks to me like NVIDIA’s best needs to go back to the drawing board. And besides, the Platinum Edition isn’t a ringer. It’s going into full production as we speak, and will be available directly from ATI and all of its board partners. Last time I checked, you can’t say that for NVIDIA’s overclocked 6800 Ultra part. I wish I could tell you the background story on how the Platinum Edition board came to be, it had nothing to do with the 6800 Ultra or NVIDIA, but trust me, this isn’t a special edition, for a limited time only type of part. Don’t worry, the truth will be revealed once the PCI Express boards hit retail.

Endret av Merlin
Lenke til kommentar
,09/05/2004 : 01:23]Fins vel en tilsvarende lang liste som sier at "disse spillene vil benytte SM 3.0".... ;)

Ja, men disse spillene vil neppe ha bedre visuel kvalitet eller noe stor ytelse fordel å snakke om på NV40. Om ikke begge deler på en gang så gjelder nok det motsatte med 3Dc. Det ser ut som både HL2 og SS2 vil ha bedre visuel kvalitet med 3Dc.

 

http://www.beyond3d.com/reviews/ati/r420_x...es/ss2_3dc2.jpg

 

HL2 vil vel støtte SM3.0 vil jeg tro.

Ikke fra det jeg har hørt og det er heller tvilsomt siden HL2 er et "GITG" spill.

Trur ikke ikke det blir SM3.0 i halflife siden Gabe Newell sa at de hadde viktigere tinger å konsetrere seg om (få ferdig Halflife 2 er vel en dem ;) ) . Kan vel være fordi Halflife2 er med i ATIs GITG program :p

Lenke til kommentar
' date='15/05/2004 : 14:48'] Hehehe! Kaster kanskje ikke så bra lys over Gainward nei.. (så lenge det ikke stemmer da?) Me får vente & sjå.

Men jeg skjønner jo godt at det er lettere for folk med Radeon i Pc'en å ikke tro på sånne utsagn.

 

 

Er ikke Xbox "DX9"? PS2 da?

Xbox er DX8... PS2 har ingenting med DX å gjøre.

 

Xbox 2 blir vel DX10 såvidt jeg vet.

Lenke til kommentar
,15/05/2004 : 14:48] Hehehe! Kaster kanskje ikke så bra lys over Gainward nei.. (så lenge det ikke stemmer da?) Me får vente & sjå.

Men jeg skjønner jo godt at det er lettere for folk med Radeon i Pc'en å ikke tro på sånne utsagn.

Akkurat som det er lettere for deg å juble over slike utsagn? ;) Det var måten det var sagt på som jeg reagerte mest på.

Det var også Gainward som påstod at Futuremark med vilje gjorde "compileren" til nvidia ubrukelig, for så å trekke det tilbake neste dag.

Endret av MistaPi
Lenke til kommentar

Xbox er DX8... PS2 har ingenting med DX å gjøre.

 

Xbox 2 blir vel DX10 såvidt jeg vet.

Hva har PS2 med å gjøre da?(Playstation2 altså..)

 

 

MistaPi for å være ærlig leser jeg deverre ikke så mye om de greiene der som deg, så jeg får bare høre på det du sier :)

 

 

Men ut ifra det jeg leste i quoten så er jeg enig i at nvidia drivere har gitt stor ytelsesøkning før, til og med før det gikk på bekostning av bildekvaliteten. Spørsmålet er bare om det går denne gangen. Ville vært usannsynlig om det ikke gikk(?)

 

 

Men ja, han høres litt ut som en idiot. Nesten som om han har tatt noen øl og blitt litt kjepphøy ellernoe :!: Skjønner ikke helt hvorfor han syns det er galt av ATi å bruke "samme gamle" arkitektur. Altså, jeg mener... den er jo tydeligvis vellykket! Yter jo dødsbra. Så hvorfor bevege seg vekk fra den hvis den ikke var flopp?(i motsentning til Fx.. *bite det sure eplet*)

Lenke til kommentar
,15/05/2004 : 14:48] Hehehe! Kaster kanskje ikke så bra lys over Gainward nei.. (så lenge det ikke stemmer da?) Me får vente & sjå.

Men jeg skjønner jo godt at det er lettere for folk med Radeon i Pc'en å ikke tro på sånne utsagn.

Akkurat som det er lettere for deg å juble over slike utsagn? ;) Det var måten det var sagt på som jeg reagerte mest på.

Det var også Gainward som påstod at Futuremark med vilje gjorde "compileren" til nvidia ubrukelig, for så å trekke det tilbake neste dag.

:laugh: Den mektige shader compileren som brøt med nvidias avtale med futuremark om cheats

Lenke til kommentar
,15/05/2004 : 16:13]

Xbox er DX8... PS2 har ingenting med DX å gjøre.

 

Xbox 2 blir vel DX10 såvidt jeg vet.

Hva har PS2 med å gjøre da?(Playstation2 altså..)

Skulle skjønt at du mente PS2 ja, men det er ikke Xbox nei... Den har en PS versjon ca. 1.3/1.4. Så ingen PS2 shader på Xbox.

 

 

 

edit: skal lære meg å lese til neste gang jeg lager et litt ampert og temparementsfullt innlegg ;)

Endret av SBS
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...