Gå til innhold

3Dc fremfor Pixel Shader 3.0


Anbefalte innlegg

Når de introduserte 6800 kortet ble Farcry vist med pixel shader 3. Det nVIDIA ikke sa noe om var at det ble vist mot pixel shader 1.4 og ikke 2.

De sa ikke at det var PS3... De sa at dette var effekter som var mulig både på PS2 og PS3 også sammenlignet de med PS1.4.

 

De har ikke sagt direkte at det var PS3, da dette er et skikkelig nVidia pr-stunt. Alle trodde de viste PS3 mot PS2, noe de ikke gjorde. Det er til og med fullt mulig de viste PS2 mot PS1.4.

 

Som jeg sa i et tidligere innlegg i denne tråden, så blir det nok så godt som ingen PS3-shaders i FarCry, selv om motoren har nå fått støtte for dette. FarCry-motoren er uansett en DX8/9 motor, og derfor ikke kodet som en rein dx9 motor.

 

PS3 shaders implementert i spillet vil bare kreve mye arbeid, siden de allerede har PS2 shaders som gjør samme nytten.

Lenke til kommentar
Videoannonse
Annonse
Husk også at selv om en funksjon "endelig" er tilgjengelig direkte mot driveren/kortet (PS3.0) så betyr ikke dette at kort som ikke har PS3.0 ikke klarer å emulere/fabrikere en tilsvarende effekt ved hjelp av programmeringstriks og utnyttelse av "eldre" standarder. Det er det demoscenen har gjort i alle år i alle fall. :)

Nå er demoscenen litt mer kreativ virker det som :thumbup:

Lenke til kommentar
Ati har helt siden 9700 støttet hardware assisted displacement mapping, antar derfor at også X800 gjør det. Dette er ikke det samme som å støtte det direkte i hardware. Eneste skjermkort jeg vet om som klarer det er Matrox Parhelia.

Jeg er klar over at X800 ikke støtter texture lookup i vertex shader, men poenget mitt var bare at displacement mapping også er mulig på X800. NV40 har derimot ikke støtte for HOS som vel er nødvendig for adaptive tesselation og dermed begrenser mulighetene med displacement mapping.

Endret av MistaPi
Lenke til kommentar
De sa ikke at det var PS3... De sa at dette var effekter som var mulig både på PS2 og PS3 også sammenlignet de med PS1.4.

 

De har ikke sagt direkte at det var PS3, da dette er et skikkelig nVidia pr-stunt. Alle trodde de viste PS3 mot PS2, noe de ikke gjorde. Det er til og med fullt mulig de viste PS2 mot PS1.4.

 

Som jeg sa i et tidligere innlegg i denne tråden, så blir det nok så godt som ingen PS3-shaders i FarCry, selv om motoren har nå fått støtte for dette. FarCry-motoren er uansett en DX8/9 motor, og derfor ikke kodet som en rein dx9 motor.

 

PS3 shaders implementert i spillet vil bare kreve mye arbeid, siden de allerede har PS2 shaders som gjør samme nytten.

6)For the screenshot examples shown at the launch event, why was PS 1.1 used to contrast PS 3.0? Why wasn’t a PS 2.0 screenshot compared to PS 3.0 instead?

 

On the event PS1.1 was compared with PS2.0/PS3.0. We don’t use PS3.0 everywhere. The general rule is to use as lower shader version as possible. So PS3.0 could be used only in several critical places where it gives performance boost

 

http://www.pcper.com/article.php?aid=36

Lenke til kommentar

Vel. Om jeg kjøper ett kort til 4-5000 venter jeg at jeg kjører spill i 2006 også...Men jeg vil heller ikke betale like mye for ett kort med litt dårligere ytelse og ett selskap som har mistet min tillit .(pga bildekvalitet) Det som virkelig vil gjøre ATI til kongen av haugen er at NVIDIA krever 2 kontakter,2 card slots og var det 420 w+ ?

Blir iaff mye billigere å holde seg til ati nå da de fleste ikke har slik strømforsyning.

Er kanskje bare meg men om NVIDIA ikke gjør noe med det kortet virker det som de har gjort en verre bommert enn med nv3x...... Det ble også sagt noe om juks i FAR CRY mens de testet fx6800 på ei tysk side....Det viste seg at de nye driverne jukset noe med oppløsningen osv.

Lenke til kommentar
Vel. Om jeg kjøper ett kort til 4-5000 venter jeg at jeg kjører spill i 2006 også...Men jeg vil heller ikke betale like mye for ett kort med litt dårligere ytelse og ett selskap som har mistet min tillit .(pga bildekvalitet) Det som virkelig vil gjøre ATI til kongen av haugen er at NVIDIA krever 2 kontakter,2 card slots og var det 420 w+ ?

Blir iaff mye billigere å holde seg til ati nå da de fleste ikke har slik strømforsyning.

Er kanskje bare meg men om NVIDIA ikke gjør noe med det kortet virker det som de har gjort en verre bommert enn med nv3x...... Det ble også sagt noe om juks i FAR CRY mens de testet fx6800 på ei tysk side....Det viste seg at de nye driverne jukset noe med oppløsningen osv.

Det såkalte cheaten viste seg når de forandret navn på farcry.exe til fartcry.exe . resultatet ble 8 mindre fpspå nvidia 6800u i høyeste oppløsning :roll: Dette er ikke bevist på andre nettsider . Jeg vet ikke helt jeg :hmm:

Lenke til kommentar
Det såkalte cheaten viste seg når de forandret navn på farcry.exe til fartcry.exe . resultatet ble 8 mindre fpspå nvidia 6800u i høyeste oppløsning :roll: Dette er ikke bevist på andre nettsider . Jeg vet ikke helt jeg :hmm:

8 mindre fps er da godt over 10% så jeg vil kalle det et ganske dramatisk fall...

 

Det er sånne folk som deg som gjør at nVidia kan fortsette å senke billedkvaliteten og ta vekk funksjoner/detaljer bare for å kjøre ting raskere. Hvis ingen bryr seg så vil nok billedkvaliteten bli ganske rævva etter hvert.

Lenke til kommentar
6)For the screenshot examples shown at the launch event, why was PS 1.1 used to contrast PS 3.0? Why wasn’t a PS 2.0 screenshot compared to PS 3.0 instead?

 

On the event PS1.1 was compared with PS2.0/PS3.0. We don’t use PS3.0 everywhere. The general rule is to use as lower shader version as possible. So PS3.0 could be used only in several critical places where it gives performance boost

 

http://www.pcper.com/article.php?aid=36

Nettopp... men de fremstiller det som om ps3 gir bedre grafikk... De hyper opp PS3 på denne måten.

 

Nå kan det sies at ATi gjorde det samme, men PS2 ga faktisk ganske stor forskjell i grafikk.

 

Så alle nvidia-tilhengere som forventer at Far Cry kommer med bedre grafikk seinere i år, må nok ta det helt med ro og vente på Far Cry 2...

Lenke til kommentar
Det såkalte cheaten viste seg når de forandret navn på farcry.exe til fartcry.exe . resultatet ble 8 mindre fpspå nvidia 6800u i høyeste oppløsning  :roll:  Dette er ikke bevist på andre nettsider . Jeg vet ikke helt jeg  :hmm:

8 mindre fps er da godt over 10% så jeg vil kalle det et ganske dramatisk fall...

 

Det er sånne folk som deg som gjør at nVidia kan fortsette å senke billedkvaliteten og ta vekk funksjoner/detaljer bare for å kjøre ting raskere. Hvis ingen bryr seg så vil nok billedkvaliteten bli ganske rævva etter hvert.

Er det noen som kan faktisk vise til dårligere grafikk med en ikke-beta-diver, når du kjører farcry, istedet for fartcry? Ikke som jeg vet. Så inntil da er det ingen vits å hoppe til voldsomme konklusjoner.

 

AtW

Lenke til kommentar
Er det noen som kan faktisk vise til dårligere grafikk med en ikke-beta-diver, når du kjører farcry, istedet for fartcry? Ikke som jeg vet. Så inntil da er det ingen vits å hoppe til voldsomme konklusjoner.

 

AtW

Det skal litt til før du merker at grafikken er en del dårligere... Men hvis grafikkort produsentene bare fortsetter å senke kvaliteten på bilde litt etter litt, så ender vi til slutt opp med et ganske utvasket bilde.

 

Det er vel ingen ikke-beta drivere som funker med 6800 Ultra eller?

Lenke til kommentar
Det skal litt til før du merker at grafikken er en del dårligere...

Hvis man ikke klarer å finne et eksempel på at grafikken er dårligere, så er det en gyldig og ønskelig optimisering. Det ville jo stride mot all logikk å være motstander av bedre ytelse uten merkbart tap av kvalitet. Så enkelt er det...

Lenke til kommentar
,09/05/2004 : 01:23]Fins vel en tilsvarende lang liste som sier at "disse spillene vil benytte SM 3.0".... ;)

Ja, men disse spillene vil neppe ha bedre visuel kvalitet eller noe stor ytelse fordel å snakke om på NV40. Om ikke begge deler på en gang så gjelder nok det motsatte med 3Dc. Det ser ut som både HL2 og SS2 vil ha bedre visuel kvalitet med 3Dc.

 

http://www.beyond3d.com/reviews/ati/r420_x...es/ss2_3dc2.jpg

 

HL2 vil vel støtte SM3.0 vil jeg tro.

Ikke fra det jeg har hørt og det er heller tvilsomt siden HL2 er et "GITG" spill.

Lenke til kommentar

tja, ettersom det ikke er særlig merkbare forbedringer i 3.0 (kanskje med untak av bump mapping) vil jeg heller ha optimiserte 2.0 implementasjoner enn "half-assed" 3.0... face it, innen 3.0 blir skikkelig utbredt, så har det kommet en ny generasjon kort...

 

okei, så er det en fordel å teste det ut tidlig, for så å kunne optimisere senere, men det er bare intressant for selskapet...den gjennomsnittlige kunden gir F. i å være "test kaniner" for selskapets R&D avdeling...

 

GITG? ATi's svar på TWIWMTBP (eller hva phøkk) ?

Lenke til kommentar
GITG? ATi's svar på TWIWMTBP (eller hva phøkk) ?

Jepp :yes: (Get In The Game)

 

 

Det er litt både og da når det gjelder SM (Shader Model)3.0. Med den økte ytelsen de hevder at det kan gi, og at det er enklere å implementere shaders enn med SM 2.0, så er det jo en selvfølge at spillutviklere vil bruke mer "avanserte"(good looking) shadere som gir høy bildekvalitet, det sier jo seg selv! I stedet for å bruke noe 1.1, 1.4, litt 2.0 osv... Så på en måte kan man si at det er åpnet for mye høyere bildekvalitet. Kommer bare an på hva utviklerne utnytter. Og de fleste er vel gjerne interessert i å lage et spill som ser best mulig ut?

 

 

Det er jo vist eksempel på at man bare trenger en shader i visse tilfeller for å gjenskape like bra bilde som man trengte flere shadere til SM 2.0, dette takket være muligheten for div. funksjoner i SM 3.0(dynamic branching?).

Mulig jeg tar feil, men det kunne muligens ha tatt kortere tid å lage spill som HL2 og FarCry dersom SM 3.0 var ute og i bruk da de begynte å utvikle spillene. I teorien så er hvertfall det sant.

 

 

Også har vi dette med dicplacement mapping(som noen hevder ATi's kort har en slags støtte for en litt annen måte å gjøre det på, ellernoe?). Prinsippet er vel at med dicplacement mapping er det enkelt å få til f.eks, en "3D-murvegg", dvs ikke bare at veggen er laget slik at det ser ut som om den er 3D(ut2003 anyone?), men når du går bort til veggen og stapper trynet oppi så ER den fotsatt 3D, altså mursteinene kan stå litt lengre ut enn fugene. Dette ble vist eksempel på da utviklerne av Unreal3-enigne brifa litt med videoklipp av den(sykt!).

 

 

En annen stor fordel er at med dicplacement mapping kan man få overflater til å forandre seg, f.eks i et spill med jordskjelv ellernoe, så kan man lett få bakken til å heve og senke seg (syns jeg husker eksempler på dette fra HL2 videosnutter? ikke SM 3.0 altså?).

Men egentlig skulle jeg ønske at begge selskap støttet begge ting da. Da hadde jeg sluppet det maset her! :p

(håper jeg ikke blanda noen ord/uttrykk her nå..)

 

 

Egentlig tror jeg både 3Dc og SM 3.0 vil bli tatt i bruk fortere enn man tror. Både ATi og nVidia gjør vel alt de kan for å sørge at deres TWIMTBP/GITG-spill bruker disse funksjonene, og det er jo endel spill! :)

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...