Gå til innhold

TEST: AMD Radeon RX 480 (8 GB)


Anbefalte innlegg

Fin test! Må ha tatt litt tid. Fin tid for pc-folks!

 

Vulkan kan ha potensiale til å snu kortet til å bli sabla effektiv oppgradering, glad jeg ikke har et kjempebehov for å kjøpe nytt kort -akkurat- nå ettersom det kan bli spennende å se hvordan nVidia håndterer Vulkan om noen måneder :)

  • Liker 1
Lenke til kommentar
Videoannonse
Annonse

RX480 OVERPRISET når det er kortet som gir mest for pengene i skrivende stund? Anbefaler heller 970 som er dyrere og dårligere? Ignorer 100% kommende hopp i ytelse fra programvareoppdateringer?

Haha, for en spøk av en side. Spekulerer også i 1060 som ikke engang er ute. Kjøpt og betalt artikkel.

Endret av Vannlinjen
Lenke til kommentar

 

 

 

 

Vi skal huske på at RX 480 støtter Crossfire X, noe Nvidias kommende GTX 1060 ikke vil gjøre. Det er veldig nyttig for deg som gjerne vil ha ny grafikk i dag, med mulighet for en rimeligere påbygging litt senere. 

Ettersom all info jeg har kommet over peker imot at 1060(6GB men ikke 3GB) støtter SLI.

Kilde for SLI støtte? Alt jeg har sett sier det motsatte. Nvidia har sannsynligvis gjort det for å tvinge folk til å kjøpe 1070, i stedet for å kjøpe to 1060 til en lavere pris enn 1080 og få enda bedre ytelse.

 

WCCF,Fudzilla,TechPowerUp i første tankebane jeg kommer på, ikke ta for høyt på sidene jeg linket, finner også en del på andre forum, rage3d, reddit threads osv, men igjen fram til at dette blir testet ser jeg ikke bort ifra muligheten(kan være så enkelt at NVidia ikke tillater SLI på 3GBvs6GB pga prisen), men ettersom de fleste tester jeg har sett så scaler crossfire bedre enn SLI så spørsmålet er selv med SLI kan 1060 slå 1070, med mindre den også har nevnbar bedre ytelse enn RX480. Får vente å se for sikkerhet skyld.

 

 

 

Fin test! Må ha tatt litt tid. Fin tid for pc-folks!

 

Vulkan kan ha potensiale til å snu kortet til å bli sabla effektiv oppgradering, glad jeg ikke har et kjempebehov for å kjøpe nytt kort -akkurat- nå ettersom det kan bli spennende å se hvordan nVidia håndterer Vulkan om noen måneder  :)

 
Spørsmålet er jo om NVidia faktisk støtter ASync i dette tilfellet folk ser ut til å være ganske enige at NVidia ikke støtter ASync ordentlig i hardware, men dette er jo bare NVidia som kan bevise med updates(dem har jo selv også sagt at selv Maxwell(og pascal har visstnok forbedret dette) støttet ASync og dem jobber med å enable det i driverne).
Endret av darkyy
Lenke til kommentar

 

 

 

 

 

Vi skal huske på at RX 480 støtter Crossfire X, noe Nvidias kommende GTX 1060 ikke vil gjøre. Det er veldig nyttig for deg som gjerne vil ha ny grafikk i dag, med mulighet for en rimeligere påbygging litt senere. 

Ettersom all info jeg har kommet over peker imot at 1060(6GB men ikke 3GB) støtter SLI.

Kilde for SLI støtte? Alt jeg har sett sier det motsatte. Nvidia har sannsynligvis gjort det for å tvinge folk til å kjøpe 1070, i stedet for å kjøpe to 1060 til en lavere pris enn 1080 og få enda bedre ytelse.

 

WCCF,Fudzilla,TechPowerUp i første tankebane jeg kommer på, ikke ta for høyt på sidene jeg linket, finner også en del på andre forum, rage3d, reddit threads osv, men igjen fram til at dette blir testet ser jeg ikke bort ifra muligheten(kan være så enkelt at NVidia ikke tillater SLI på 3GBvs6GB pga prisen), men ettersom de fleste tester jeg har sett så scaler crossfire bedre enn SLI så spørsmålet er selv med SLI kan 1060 slå 1070, med mindre den også har nevnbar bedre ytelse enn RX480. Får vente å se for sikkerhet skyld.

 

 

 

Fin test! Må ha tatt litt tid. Fin tid for pc-folks!

 

Vulkan kan ha potensiale til å snu kortet til å bli sabla effektiv oppgradering, glad jeg ikke har et kjempebehov for å kjøpe nytt kort -akkurat- nå ettersom det kan bli spennende å se hvordan nVidia håndterer Vulkan om noen måneder  :)

 
Spørsmålet er jo om NVidia faktisk støtter ASync i dette tilfellet folk ser ut til å være ganske enige at NVidia ikke støtter ASync ordentlig i hardware, men dette er jo bare NVidia som kan bevise med updates(dem har jo selv også sagt at selv Maxwell(og pascal har visstnok forbedret dette) støttet ASync og dem jobber med å enable det i driverne).

 

 

Pascal støtter iallefall Async shaders. Slik er det med den saken ;)

Lenke til kommentar

 

 

 

Vi skal huske på at RX 480 støtter Crossfire X, noe Nvidias kommende GTX 1060 ikke vil gjøre. Det er veldig nyttig for deg som gjerne vil ha ny grafikk i dag, med mulighet for en rimeligere påbygging litt senere. 

Ettersom all info jeg har kommet over peker imot at 1060(6GB men ikke 3GB) støtter SLI.

 

DX12(Hitman,Ashes of the singularity(vet at dette er er ett spill mislikt av mange(men dårlig spill eller ei vil jeg påstå at spillet fungerer som test platform for DX12/Vulkan(senere)), Total War: Warhammer,Descent Underground), så har du også spill som støtter Vulkan(Doom,The talos principle)

 

 

Tombraider er vel det første spillet som støtter SLI/CFX i DX12 :) I 3440x1440 og alt på max, så brukes det over 8GB vram. Spillet kjører load på 16 cputråder, og skalering med 2 skjermkort virker nærmest perfekt. 98-99% gpuload på 2 skjermkort. Kongespill å teste hardware på dette spillet!

Synn jeg ikkje har noen bra AMD skjermkort i CFX jeg kan teste.

Nyeste patch:

  • Adds DirectX12 Multi-GPU support. Many of you have requested this, so DirectX 12 now supports NVIDIA SLI and AMD CrossFireX configurations.
  • The benefits of DirectX 12 are still the same, but now you are less likely to be GPU bottlenecked and can reach higher framerates due to the improved CPU utilization DirectX 12 offers.
  • Adds utilization of DirectX 12 Asynchronous Compute, on AMD GCN 1.1 GPUs and NVIDIA Pascal-based GPUs, for improved GPU performance.  :thumbup:

Altså Tombraider 2016 må da være det spillet som er best å teste DX12 i atm? :)

 

 

AOTS støtter ikkje sli, men bruk av flere skjermkort. Explicit Muilti-gpu, altså man kan ikkje ha sli aktivert om man vil kjøre AOTS med multigpu.

Endret av Nizzen
  • Liker 1
Lenke til kommentar

Etter å ha tatt en gjennomgang av 1080 testen og så på nytt lest denne testen er det ganske så klart at man ikke greier å fokusere på produktene man tester, men drar inn konkurrenter på skjermkortmarkedet på en måte som igjen kan stille journalistens integritet i tvil.

 

Det er også gjort endringer i del 2 av testen der journalisten mener det er viktig å påpeke at et produkt som har nådd "end of life" og som skal erstattes av 1060 kortet ,  ved å lage en tabell som poengterer hvor lønnsomt det er å kjøpe et 970 kort er.

Problemet er at han blåser av seg foten når Nvidia sine toppkort ramler lang nede på listen og bedre blir det ikke om man skal gå etter hva man får kjøpt kortet for akkurat nå ( på lager pris). Testen bør fokusere de første sidene på hva kortene har å by på så kan man ta dette i den siste biten av testen for å støtte de argumentene man har for pris / ytelse.

Listen stemmer heller ikke da eksempelvis 1070 kortet nå har en lavere utsalgspris (4300 sist jeg sjekket ) og vil da gå et hakk opp i den tabellen.

 

Man ser også at måten det hele tiden refereres til konkurrentens produkter og måten dette refereres til varierer stort fra Nvidia sin 1080 artikkel til denne artikkelen , mens 1080 artikelen hovedsakelig samenligner de to merkene , brukes det referanser som både hinter til Nvidia sine produkter ( 970 og 1060 ) på en måte som kan stille spørsmål om hva journalisten ønsker å formidle.

 

Mitt inntrykk er at Journalisten ønsker å gi et budskap på at Nvidia er et bedre kjøp og at dette er noe som gjentar seg såpass mange ganger at det hele blir litt søkt.

 

Det er ikke noe problem å bruke Nvidia i en test når man snakker om de forskjellige produktene og når man sammenligner , men måten det gjøres i denne testen  og fremstilles på , så burde journalisten heller ha ventet til etter lansering av 1060 og heller hatt en sammenlagt test av begge kortene samtidig om han faktisk ønsket å gi oss et klart og tydelig budskap på at 1060 er en soleklar anbefaling.

 

Ser også at det er problematisk å teste med en  utdatert driver (med tanke på ytelseforbedringene i et par dx12 spill )  når man skriver i selve artikkelen at man vet ytelsen til et produkt som lanseres i morgen 19.07.2016 , da kan man jo spørre seg hvorfor journalisten ikke har greid å fått tak i driveren som ble lansert Crimson Edition 16.7.2 Hotfix 7/9/2016 ( 10 dager siden ). 

 

Og det er vel også her vi nå må nesten spørre hvorfor det ikke har kommet på plass flere spilltester? Det siste Doom spillet burde jo nå være en grei kandidat hvor bruken av OpenGl og Vulkan kan være en god indikasjon på hvor bra skjermkortene blir utnyttet , Hitman (2016 ) , Total War : Warhammer  er spill med støtte for DX12 som burde vurderes som del av testene deres men det vil trolig komme flere ( https://en.wikipedia.org/wiki/List_of_games_with_DirectX_12_support ) .

 

Her har dere også en liste over motorer som støtter Vulkan og noen spill : https://en.wikipedia.org/wiki/Vulkan_(API)#Games

 

 

  • Liker 3
Lenke til kommentar

Unnskyld, men denne testen er den værste jeg har sett så langt. Her lukter det nvidia propaganda så langt det rekker, virkelig amatør greier. Skjønner godt hvorfor AMD ikke har prioritert dere, spesielt når dere ikke engang bruker en Fury X i testene deres for en rettferdig test av alle kort tilgjengelig eller gidder ikke å teste de nyeste driverne...

Endret av samobil
  • Liker 2
Lenke til kommentar

 

 

 

 

Vi skal huske på at RX 480 støtter Crossfire X, noe Nvidias kommende GTX 1060 ikke vil gjøre. Det er veldig nyttig for deg som gjerne vil ha ny grafikk i dag, med mulighet for en rimeligere påbygging litt senere. 

Ettersom all info jeg har kommet over peker imot at 1060(6GB men ikke 3GB) støtter SLI.

 

DX12(Hitman,Ashes of the singularity(vet at dette er er ett spill mislikt av mange(men dårlig spill eller ei vil jeg påstå at spillet fungerer som test platform for DX12/Vulkan(senere)), Total War: Warhammer,Descent Underground), så har du også spill som støtter Vulkan(Doom,The talos principle)

 

 

Tombraider er vel det første spillet som støtter SLI/CFX i DX12 :) I 3440x1440 og alt på max, så brukes det over 8GB vram. Spillet kjører load på 16 cputråder, og skalering med 2 skjermkort virker nærmest perfekt. 98-99% gpuload på 2 skjermkort. Kongespill å teste hardware på dette spillet!

Synn jeg ikkje har noen bra AMD skjermkort i CFX jeg kan teste.

Nyeste patch:

  • Adds DirectX12 Multi-GPU support. Many of you have requested this, so DirectX 12 now supports NVIDIA SLI and AMD CrossFireX configurations.
  • The benefits of DirectX 12 are still the same, but now you are less likely to be GPU bottlenecked and can reach higher framerates due to the improved CPU utilization DirectX 12 offers.
  • Adds utilization of DirectX 12 Asynchronous Compute, on AMD GCN 1.1 GPUs and NVIDIA Pascal-based GPUs, for improved GPU performance.  :thumbup:

Altså Tombraider 2016 må da være det spillet som er best å teste DX12 i atm? :)

 

 

AOTS støtter ikkje sli, men bruk av flere skjermkort. Explicit Muilti-gpu, altså man kan ikkje ha sli aktivert om man vil kjøre AOTS med multigpu.

 

Beklager men henger ikke helt med kommentaren angående AOTS, jeg har ikke nevnt at spiller bruker SLI eller Crossfire, multigpu er samme greia, bare at det funker cross vendors(ihvertfall foreløpig, håper ingen av produsentene velger å prøve blokke dette), eller var dette bare en generell kommentar angående tilfellet til AOTS? :)

 

Joda, dem sier Pascal, men tingen er at Pascal og Maxwell viser begge minimal ytelse forskjell(selvom Pascal gjør det en del bedre enn Maxwell) - 8-10% mens AMD hopper ofte med ASync med 20%+(Software emulering av hardware funksjonalitet er veldig forskjellig, NVidia bruker pre-emption som jo hjelper litt under ASync relaterte operasjoner, men AMD utnytter rett og slett GPU'ene sine bedre da dem kan kjøre dem parallelt vs serielt)

Derfor jeg er spent å se om NVidia faktisk har hardware delen for det så det faktisk bare er at det ikke er ordentlig åpnet for i driverne.

Synd ingen av dem støtter hele veien til 12_3, er mye goddis oppover i feature levels, NVidia støtter 12_1 som har noen benefits, men håper det ikke vil ta for lang tid før man ser 12_3 støtte.

 

Det som jeg også ser som synd er at det er ingen større utviklere som har testet/pratet mer angående muligheten for dynamic arrays på GPUene enda.(vet ikke om så mange vet hva det innebærer) men i grunn betyr det at isteden for allokere masse minne for hva som kan potensielt være der(etter største batch) så sender man bare det som trenges(Dette har jeg testet via rendering av materials(samlinger av teksturer) på 3D terreng og det var merkbare forskjeller i GPU(6-7% pga overall kortere loops og mindre minne som trengtes å allokeres på kortet),CPU(10% reduksjon) og bandwidth utilization(20% reduksjon) av tiden det tar å rendre terrenget, nå kan jeg ikke si at alle tilfeller er slik og at jeg fikk disse tallene pga jeg ikke er like flink til optimalisering i utgangspunktet).

Endret av darkyy
Lenke til kommentar

Så langt jeg kan se er det kun CDON som selger GTX 970 til den lave prisen som er oppgitt i artikkelen. Samtlige andre butikker selger kortet for 2700 kr og høyere, som er samme pris som testkortet. Med andre ord er det ikke nødvendigvis RX 480 som er spesielt overpriset, men CDON som har en uvanlig god pris på GTX 970 for øyeblikket, sannsynligvis for å tømme lageret. Vil man ha en annen versjon av 970 enn den CDON selger må man med andre ord ut med like mye som for RX 480. I tillegg kommer RX 480 på andreplass i testens egen tabell over best ytelse per krone - førsteplass om man ser bort fra den ene lave prisen på GTX 970. Da stiller jeg meg svært undrende til den negative vinklingen i teksten, karakteren og ikke minst hovedkonklusjonen: "Et godt kort som foreløpig holdes tilbake av prisen." ... ?

Lenke til kommentar

Beklager men henger ikke helt med kommentaren angående AOTS, jeg har ikke nevnt at spiller bruker SLI eller Crossfire, multigpu er samme greia, bare at det funker cross vendors(ihvertfall foreløpig, håper ingen av produsentene velger å prøve blokke dette), eller var dette bare en generell kommentar angående tilfellet til AOTS? :)

 

 

Joda, dem sier Pascal, men tingen er at Pascal og Maxwell viser begge minimal ytelse forskjell(selvom Pascal gjør det en del bedre enn Maxwell) - 8-10% mens AMD hopper ofte med ASync med 20%+(Software emulering av hardware funksjonalitet er veldig forskjellig, NVidia bruker pre-emption som jo hjelper litt under ASync relaterte operasjoner, men AMD utnytter rett og slett GPU'ene sine bedre da dem kan kjøre dem parallelt vs serielt)

Derfor jeg er spent å se om NVidia faktisk har hardware delen for det så det faktisk bare er at det ikke er ordentlig åpnet for i driverne.

Synd ingen av dem støtter hele veien til 12_3, er mye goddis oppover i feature levels, NVidia støtter 12_1 som har noen benefits, men håper det ikke vil ta for lang tid før man ser 12_3 støtte.

 

Det som jeg også ser som synd er at det er ingen større utviklere som har testet/pratet mer angående muligheten for dynamic arrays på GPUene enda.(vet ikke om så mange vet hva det innebærer) men i grunn betyr det at isteden for allokere masse minne for hva som kan potensielt være der(etter største batch) så sender man bare det som trenges(Dette har jeg testet via rendering av materials(samlinger av teksturer) på 3D terreng og det var merkbare forskjeller i GPU(6-7% pga overall kortere loops og mindre minne som trengtes å allokeres på kortet),CPU(10% reduksjon) og bandwidth utilization(20% reduksjon) av tiden det tar å rendre terrenget, nå kan jeg ikke si at alle tilfeller er slik og at jeg fikk disse tallene pga jeg ikke er like flink til optimalisering i utgangspunktet).

 

I hvilke spill gir AMD skjermkort 20% bedre ytelse med Async alene? :)

Endret av Nizzen
Lenke til kommentar

 

Beklager men henger ikke helt med kommentaren angående AOTS, jeg har ikke nevnt at spiller bruker SLI eller Crossfire, multigpu er samme greia, bare at det funker cross vendors(ihvertfall foreløpig, håper ingen av produsentene velger å prøve blokke dette), eller var dette bare en generell kommentar angående tilfellet til AOTS? :)

 

 

Joda, dem sier Pascal, men tingen er at Pascal og Maxwell viser begge minimal ytelse forskjell(selvom Pascal gjør det en del bedre enn Maxwell) - 8-10% mens AMD hopper ofte med ASync med 20%+(Software emulering av hardware funksjonalitet er veldig forskjellig, NVidia bruker pre-emption som jo hjelper litt under ASync relaterte operasjoner, men AMD utnytter rett og slett GPU'ene sine bedre da dem kan kjøre dem parallelt vs serielt)

Derfor jeg er spent å se om NVidia faktisk har hardware delen for det så det faktisk bare er at det ikke er ordentlig åpnet for i driverne.

Synd ingen av dem støtter hele veien til 12_3, er mye goddis oppover i feature levels, NVidia støtter 12_1 som har noen benefits, men håper det ikke vil ta for lang tid før man ser 12_3 støtte.

 

Det som jeg også ser som synd er at det er ingen større utviklere som har testet/pratet mer angående muligheten for dynamic arrays på GPUene enda.(vet ikke om så mange vet hva det innebærer) men i grunn betyr det at isteden for allokere masse minne for hva som kan potensielt være der(etter største batch) så sender man bare det som trenges(Dette har jeg testet via rendering av materials(samlinger av teksturer) på 3D terreng og det var merkbare forskjeller i GPU(6-7% pga overall kortere loops og mindre minne som trengtes å allokeres på kortet),CPU(10% reduksjon) og bandwidth utilization(20% reduksjon) av tiden det tar å rendre terrenget, nå kan jeg ikke si at alle tilfeller er slik og at jeg fikk disse tallene pga jeg ikke er like flink til optimalisering i utgangspunktet).

 

I hvilke spill gir AMD skjermkort 20% bedre ytelse med Async alene? :)

 

Skal ærlig innrømme at det var raskt skrevet og at jeg bare la sammen DX11 vs DX12 ytelsen oppå de ekstra % ASync gir for AMD hvor vidt NVidia ikke har samme økningen i ytelse, men det sies jo også at GCN(rykter) og driverne AMD har for DX11 bruker ekstra mye CPU kontra NVidia, som egentlig vises veldig godt i DX11 vs DX12 hvor AMD tjener mye mer % messig enn NVidia. Beklager feilinformasjonen. : )

Endret av darkyy
Lenke til kommentar

Syntes det er litt urettferdig å gi kortet trekk for pris når den feilledende prisen fra AMD er veldig god? Kan vel ikke gi produktet skylden for at distributører og forhandlere melker kundene?

 

Når prisen er slik, så er det det som teller for forbrukeren. Hvem som skal ha skylden hjelper forbrukeren lite. Prisen forblir den samme uansett hvem som får "skylden"

  • Liker 1
Lenke til kommentar

RX 480 er nok kunstig høyt priset her hjemme. Norske priser har et premium på +40% av fullpris på RX 480 sammenlignet med amerikanske priser. GTX 1070 har +10% premium på fullpris sammenlignet med amerikanske priser. RX 480 er nylig lansert og vil trolg prisnormalisere seg etterhvert som Nvidia har vist sin siste hånd som er GTX 1060. Jeg tipper prisen på RX 480 om en måned vil være rundt 2200,- og stabilisere seg rundt samme prissjikt.

 

GTX 960 ble hvis jeg husker riktig lansert i statene for samme pris som RX 480, og førstnevnte stabiliserte seg i prissjiktet 2000-2200 her i Norge.

Endret av MatsG
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...