Gå til innhold

Dette må være kjempetilbud på X1800XT 512MB kort?


Theo343

Anbefalte innlegg

Videoannonse
Annonse
Hva er det så GTX mangler av features, det har da vel alt av hardware støtte for Shader Model og slikt, HDR lightning og alt som er? Hva er det så x1800 har som 7800 ikke har?

5515487[/snapback]

Det er ikke bare et spørsmål om å ha støtte for et viss feature set, men også, og mer viktig hvor bra den er implentert. Med X1x00 har dynamic branching og flow control først blitt ganske brukelig, noe som er to viktige funksjoner i SM3.0. Videre har X1800 mulighet for å kjøre AA med FP blending HDR i ROP og vinkel uavhenging AF.

 

Men på den andre siden har også 7800 funksjonalitet som X1800 mangler. X1800 har ikke søtte for vertex texturing, men kan bruke en annen "fake" metode for å utføre dette (vertex texturing er dog uansett veldig tregt å utføre i dag) eller FP filtering. 7800 har også for øyeblikket en bedre løsning for å AA alpha texturer. Kvaliteten heller litt over til nVidia og man har mulighet til å kjøre multi-sampling som har en langt lavere ytelsetap enn Adaptive AA metoden til ATi i noen tilfeller.

Endret av MistaPi
Lenke til kommentar
Hva er det så GTX mangler av features, det har da vel alt av hardware støtte for Shader Model og slikt, HDR lightning og alt som er? Hva er det så x1800 har som 7800 ikke har?

5515487[/snapback]

Men på den andre siden har også 7800 funksjonalitet som X1800 mangler. X1800 har ikke søtte for vertex texturing, men kan bruke en annen "fake" metode for å utføre dette (vertex texturing er dog uansett veldig tregt å utføre i dag) eller FP filtering. 7800 har også for øyeblikket en bedre løsning for å AA alpha texturer. Kvaliteten heller litt over til nVidia og man har mulighet til å kjøre multi-sampling som har en langt lavere ytelsetap enn Adaptive AA metoden til ATi i noen tilfeller.

5515513[/snapback]

ATi kort støtter vel heller ikke filtering på FP16 texturer?

 

nvidia kortene kan derimot kjøre AA på INT HDR (lavere presisjon) og på FP16 HDR kan de kjøre super sampeling (Age of Empires III utvikles med støtte for det på nVidia kort)

Nvidia cannot do hardware multisampling on floating point surfaces, but we do supersampling for antialiasing, so it does in fact work in combination with HDR. On ATI, we must use 10 10 10 2 surfaces, because they do not support blending on 16 16 16 16, but they do multisampling on 10 10 10 2 in hardware.

 

Det er mye forvirring rundt HDR+AA, og ut i fra hva jeg ser så er ikke støtten til ATi 100% den heller, iallefall ikke så 100% som ATi ønsker den, i og med at bla. Far Cry måtte patches spessielt før å støtte AA. AA med HDR på ATi kort ser også ut til å være begrenset til 4x.

Lenke til kommentar
Raptor,29/01-2006 : 12:10]ATi kort støtter vel heller ikke filtering på FP16 texturer?

Som jeg skrev i innlegget mitt.

 

Her finner du forresten forklaringen til ATi for at dette ble utelatt:

http://www.digit-life.com/articles2/video/r520-part6.html

 

nvidia kortene kan derimot kjøre AA på INT HDR (lavere presisjon) og på FP16 HDR kan de kjøre super sampeling (Age of Empires III utvikles med støtte for det på nVidia kort)
Nvidia cannot do hardware multisampling on floating point surfaces, but we do supersampling for antialiasing, so it does in fact work in combination with HDR. On ATI, we must use 10 10 10 2 surfaces, because they do not support blending on 16 16 16 16, but they do multisampling on 10 10 10 2 in hardware.

 

Det er mye forvirring rundt HDR+AA, og ut i fra hva jeg ser så er ikke støtten til ATi 100% den heller, iallefall ikke så 100% som ATi ønsker den, i og med at bla. Far Cry måtte patches spessielt før å støtte AA. AA med HDR på ATi kort ser også ut til å være begrenset til 4x.

5515765[/snapback]

Jeg skjønner ikke det sitatet, X1x00 har da virkelig støtte for MSAA med FP16 blending, noe som FarCry bruker. Støtte for dette må være implentert ja, men det skal være ganske trivelt.

 

Beyond3D har testet FarCry med 6xAA og HDR.

http://www.beyond3d.com/reviews/ati/r520/index.php?p=21

 

CryTek, the developers of Far Cry, have implemented a patch that not only changes the engine to support ATI's floating point blending capabilities, but also adds the capabilities for Multi-Sampling FSAA with HDR.

 

HDR+SSAA vil være generelt lite akktuelt.

 

Edit: INT10 er dog noe som gir ATi en fordel der det er tilstrekkelig.

Endret av MistaPi
Lenke til kommentar
Beyond3D har testet FarCry med 6xAA og HDR.

http://www.beyond3d.com/reviews/ati/r520/index.php?p=21

5515866[/snapback]

Nå er det flere på Beyond3D og også andre steder som ikke klarer å få mer men 4xAA i FP16 HDR (FarCry)

 

http://www.beyond3d.com/forum/showthread.php?t=27504

First i noticed it with the farcry beta patch which only supported up to 4xAA with fp16. I thought it's a just because it's a beta patch but now i've seen that the driver(cat5.13) doesn't expose more than 4xAA for fp16.
Endret av [GDI]Raptor
Lenke til kommentar

Så ut som det kom en del gode svar her. I tillegg kom jeg på en ting til som jeg leste på anadtech før jul. Artikkelen er fra 16/12-05.

Starting next Tuesday, Radeon X1000 owners will be able to download, for free, ATI's Catalyst 5.13 driver and a Cyberlink H.264 decoder that hooks into ATI's GPU and enables hardware acceleration of H.264.  More specifically, ATI's Radeon X1000 GPU in combination with the Cyberlink H.264 decoder will handle the in-loop deblocking, motion compensation and inverse transform that occur during H.264 decoding. Unfortunately, ATI only had a beta ready for us in time for this review, so there were some bugs. Right now, ATI is hoping to have the final version available on the 22nd.

 

The end result is that CPU utilization is reduced, making the playback of H.264 movies possible on lower end systems and have less of a performance impact on all systems.  ATI's work on H.264 decode acceleration today is extremely important because H.264 is the codec of choice for both Blu-ray and HD-DVD.

h264decode.jpg

http://www.anandtech.com/video/showdoc.aspx?i=2645&p=2

Dette teller i høy grad for meg. Og det gjelder ikke bare X1800 men hele X1000 serien

 

EDIT:

Ellers leste jeg også nå i en artikkel fra 24/1-06 at Intervideo lager nå et codec som utnytter den samme funksjonen i Nvidia kortene, så da vil jeg tro dette gjelder begge leire :)

InterVideo announced that its H.264 Codec now supports the new NVIDIA PureVideo H.264 decode acceleration available on GeForce 6 and 7 Series graphics processors from NVIDIA.
Endret av Theo343
Lenke til kommentar
h264decode.jpg

http://www.anandtech.com/video/showdoc.aspx?i=2645&p=2

Dette teller i høy grad for meg. Og det gjelder ikke bare X1800 men hele X1000 serien

Sant, men dersom du ser nøyere på bildet så er det bare X1800-serien som støtter 1080p. X1600-serien gir seg på 720p, og X1300 på 480/575p.

 

Altså blir det minimum X1800 XL på meg neste gang. Jeg leste et sted at den skal falle ned mot 249 dollar nå når X1900 er på banen. Jeg håper bare det stemmer.

Lenke til kommentar

249 USD i utlandet vil tilsi en "billigpris" på rundt 2.100-2.300,- el. her i landet hvis ikke USD/NKR stiger for mye.

 

Ellers så jeg at 1080p kun gjaldt for X1800 serien. Det overasket meg ikke, men positivt alikevel at GPU kan avlaste CPU med opptil 65% forskjell som vist i testen.

 

Allered i dag får man et X1800XT-512MB til 3.695,- som er en meget god pris.

 

Kremt:

En annen ting som X1800 har, er en "512-bit ring-bus memory controller" som har fått mye skryt og er omtalt som nærmest "genial". Den skal kunne takle GDDR5 minne.

 

Fetch4 som har fått omtaler på X1900 vet jeg ikke om er på X1800.

Endret av Theo343
Lenke til kommentar
Dette teller i høy grad for meg. Og det gjelder ikke bare X1800 men hele X1000 serien

 

EDIT:

Ellers leste jeg også nå i en artikkel fra 24/1-06 at Intervideo lager nå et codec som utnytter den samme funksjonen i Nvidia kortene, så da vil jeg tro dette gjelder begge leire :)

InterVideo announced that its H.264 Codec now supports the new NVIDIA PureVideo H.264 decode acceleration available on GeForce 6 and 7 Series graphics processors from NVIDIA.

5516329[/snapback]

ETA på ForceWare driver som aktiverer H.264 dekoding for hele GeForce 6 og 7-serien er mars 2006. Der er det foreløpig InterVideo, Cyberlink og nVidia sin egen PureVideo som utnytter det.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...