Gå til innhold

Guide: Dette er AMDs nye skjermkort


Anbefalte innlegg

HD 6870 yter 7% dårilgere enn 5870, med litt finpuss på drivere så vil det mest sansynelig yte like bra og vel så det.

Tviler. Arkitekturen er bortimot uendret, mesteparten av optimeringen i driveren vil også 5800-serien nye godt av.

De stedene jeg kan tenke meg at 6800-serien kommer til å yte bedre er spill med livt til middels nivå av tesselering. AMD har patchet opp tesselatoren på 6800-serien sammenlignet med 5000-serien.

Lenke til kommentar
Videoannonse
Annonse

MistaPi: Du kan da tvinge inn AA, AF og mange flere innstillinger på alle 3D-spill gjennom konfigurasjonen til driverne, det er da strengt tatt bare en parameter som blir sendt inn med henholdsvis opprettelsen av vinduet(AA) og teksturer(AF), driveren kan overstyre dette med samme ytelse som det ellers ville hatt. Ulempen er vel at enkelte spill ikke er tilpasset det så der kan bli grafiske feil f.eks. der teksturer er gjennomsiktige (typisk gress), men det er ikke ofte slike problemer er betydelige.

Lenke til kommentar

MistaPi: Du kan da tvinge inn AA, AF og mange flere innstillinger på alle 3D-spill gjennom konfigurasjonen til driverne, det er da strengt tatt bare en parameter som blir sendt inn med henholdsvis opprettelsen av vinduet(AA) og teksturer(AF), driveren kan overstyre dette med samme ytelse som det ellers ville hatt. Ulempen er vel at enkelte spill ikke er tilpasset det så der kan bli grafiske feil f.eks. der teksturer er gjennomsiktige (typisk gress), men det er ikke ofte slike problemer er betydelige.

MSAA krever API og utvikler støtte for nyere rendering teknikker. Ellers krever det spesiell støtte i driveren hvis mulig. Det gjorde f.eks ingenting for StarCraft 2 å skru på MSAA i driveren på Radeon kort før Catalyst 10.7a.

Det kan også gi et stort ytelsetap med å tvinge MSAA i driveren kontra skikkelig ingame støtte, bare se på f.eks StarCraft2 eller Mass Effect2.

 

Q: Will Radeons allow for AA in Stalker and all the other older games that don't support AA, or are you just teasing us here?

A: Its down to the devloper to support it, but indeed, titles that use deferred shading (which includes STALKER, UT3, Gears of War, R6V, etc.) are incompatible with MSAA - this has left IHV's sometimes trying to hack the renderer in order to support AA, with the potential side effects of IQ issues and lower performance because you don't necessarily know which buffers need AA and which don't.

 

DX10.1 allows control of the MSAA buffers to the developer, so titles that use deferred shading in the future could still enable AA from a DX10.1 enabled application.

- Dave Baumann, AMD Product Manager

 

Tim Sweeney comments on Unreal Engine 3 and MSAA implementation

Before you read any of the sides involved in this feud, I would kindly ask you to read what Tim Sweeney had to say about his engine. This analysis will go in depth from both AMD and nVidia sides, and I have asked Tim could he explain how the MSAA baseline looks inside the Unreal Engine 3.

According to Tim, he was not explained the specifics of how nVidia implemented MSAA mod in Batman: Arkham Asylum. However, this is how Unreal Engine 3 works:

UE3 does not support MSAA on Windows DirectX 9, because UE3's use of deferred shadowing and post-processing techniques requires explicit support for frame buffer resolves, which DirectX9 lacks.

UE3 does support MSAA on Windows DirectX 10, using its explicit support for frame buffer resolves. The support is general to all compliant DirectX 10 hardware. However, because of the way it operates on full-resolution MSAA buffers, there's room for improvement, and good chance a typical UE3 licensee shipping a major Windows game will customize it.

- http://www.brightsideofnews.com/news/2009/11/4/batmangate-amd-vs-nvidia-vs-eidos-fight-analyzed.aspx

 

 

Jeg trodde det uansett gikk ann å tvinge AF i driveren selvom det bare ville påvirke det øverste texture laget, men i Arcania Gothic 4 gjør det ingenting å skru på hverken MSAA eller AF i driveren. :(

Endret av MistaPi
Lenke til kommentar

Beklager, det var litt for bastant fra meg det der. Jeg har ikke undersøkt alle framebuffer-konfigurasjoner i Direct3D i kombinasjon med alle drivere. Jeg jobber primært med OpenGL, når jeg bruker Direct3D er det primært for å teste ut spesifikk funksjonalitet, og frem til nylig hovedsaklig på nVidia-maskinvare. Poenget mitt var uansett at dette er funksjonalitet som driveren kan overstyre om den vil (det vil si om produsenten av driveren har lyst).

 

Det er av og til bugs i konfigurasjonsverktøyene som gjør at de ikke fungerer slik de skal, f.eks. har ATI til tider hatt tull med vsync, på GNU/Linux har AA og vsync vært defekt i flere drivere.

Endret av efikkan
Lenke til kommentar

Fikk lyst på ett AMD kort nå ja. Har ett GTX275 fra før. Hvor stor er ytelse hoppet til f.eks HD 6870?

Se denne testen, HD 6870 er nesten 30% raskere enn GTX 275. Du vil merke noe forskjell men jeg vil si det er på grensen til unødvendig, med mindre du har problemer med å få kjøre spesifikke spill. Jeg vil gjerne ha minst 50% bedre ytelse for å bytte ut et kraftig skjermkort.
Lenke til kommentar

Fikk lyst på ett AMD kort nå ja. Har ett GTX275 fra før. Hvor stor er ytelse hoppet til f.eks HD 6870?

Se denne testen, HD 6870 er nesten 30% raskere enn GTX 275. Du vil merke noe forskjell men jeg vil si det er på grensen til unødvendig, med mindre du har problemer med å få kjøre spesifikke spill. Jeg vil gjerne ha minst 50% bedre ytelse for å bytte ut et kraftig skjermkort.

Ah, takk! det var en bra liste for å sammenligne.. Kanskje vurdere et annet kort da..

Lenke til kommentar

Tja hva hjelper det med nye kort når de ikke engang klarer å henge med i driveravdelingen på 5 serien? Jeg var "fan" av ATI fram til 5 serien, men 5 Serien har skuffet meg enormt på driversiden. Kortene i seg selv har fungert fysisk, men driverne har etter hver oppdatering kommet med stadige nye introduksjoner av bugs. Hva er et par framerates ekstra i spill verdt når kortene ikke fungerer stabilt i 2D til tider engang?

 

Det er også alt for ofte driver lansering, annenhver måned burde holde, slik at kvaliteten ble høyere. Det er synd dette skal stoppe meg fra ellers gode kort, men jeg gidder rett og slett ikke å drive mer med driver fiksing og 3 parts fikser for at ting skal fungere. Nvidia er vel ikke noe glansbilde de heller, men så ille er de ikke for min del iallfall.

Lenke til kommentar
  • 2 uker senere...

...

Det er også alt for ofte driver lansering, annenhver måned burde holde, slik at kvaliteten ble høyere. Det er synd dette skal stoppe meg fra ellers gode kort, men jeg gidder rett og slett ikke å drive mer med driver fiksing og 3 parts fikser for at ting skal fungere. Nvidia er vel ikke noe glansbilde de heller, men så ille er de ikke for min del iallfall.

 

synes det er helt greit med månedlige driveroppdateringer, det viser at de prioriterer feilretting.

Lenke til kommentar

Logiman: Tid mellom hver driveroppdatering har lite eller ingenting å gjøre med kvaliteten på hver driver. Det betyr bare ofte deadlines som får utviklerne til å jobbe hardt hver måned i stedet for å ta skippertak annenhver måned.

 

Størrelsen på en driveroppdatering vil også påvirke kvaliteten. Rundt nylanseringer av produkter så vil det naturligvis være mer å skrive inn i driveren enn ellers. Kvantitet vil gå på bekostning av kvalitet. Det er derfor man får større forskjeller mellom driverne i starten av et produkts levetid enn senere.

Lenke til kommentar

Man må jo nesten være neandertaler eller ha bodd på Bjørnøya i 10 år for å kjøpe, eller å ha kjøpt et nVidiakort siden ATI/AMD kom med sin 4650/70-serie....Eller har jeg bare blitt hjernevasket av effekten ATI-kortene har hatt på gmingopplevelsene mine?Først hadde jeg 4670,så kjøpte jeg et 4850,crossfira to,og så gikk jeg over til ett MSI 5770 1Gb GDDR5. Og jeg spiller F1 2010 i 1600x1200 i 8XMSAA of 16x AF,pluss alt på Ultra, og har aldri opplevd ett eneste "hakk i plata".;)Vet ikke om jeg tør å installer Flight Simulator igjen, siden jeg har høydeskrekk...

Lenke til kommentar

Nvidia står da ikke tilbake for ati sin ytelse på noen måte, men de er ofte noe dyrere. Derimiot er de mye mye bedre på drivere og andre funksjoner. Så det spørs jo om man vil betale minst mulig for mest ytelse, eller om man vil betale litt ekstra for at enkle funksjoner fungerer som de skal.

 

Jeg kan nevne default overscan som ikke er persistent over oppløsninger når man deaktiverer det, noe som gjør at man ikke kan spille DX10 spill i fullscreen over hdmi uten å få en feit ramme rundt bildet.

Lenke til kommentar
  • 1 måned senere...

Litt synd at 58x forsvinner, da disse egentlig var bedre kort en den nye 6x serien i det meste av ytelse-tester, men med noe mer strømforbruk og høyere temperaturer riktignok. Jeg rakk selv å få meg 2x Club3d-5850 Overclocked editions med bedre kjølere en standardkortene. Kjører disse i Crossfire, og har en ytelse som ligger litt ovwer 5970 kortet, og langt over Nvidia sine alternativer sett ytelse/varme/strømforbruk. :w00t:

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...