Gå til innhold

TEST: MSI RX 580 8GB «Gaming X»


Anbefalte innlegg

 

Så hvor mange her skal kjøpe rx580?

 

 

Tipper 0 :p

Kan du forklare hva din intelligente kommentar faktisk har med diskusjonen eller anmeldelsen av skjermkortet å gjøre i det hele tatt?

Kom igjen, bidra da litt konstruktivt til diskusjonen...

Å? Traff jeg en nerve?

 

Så du skal kjøpe siden du quota regner jeg med. Flott! :)

  • Liker 1
Lenke til kommentar
Videoannonse
Annonse

Dette er eksempler på tester fra andre nettsider på noen konkrete ting som : 

 

Crossfire 480X

 Techpowerup

 

Lanoc
 

TweakTown

 

FunkyIt

HardOcp

 

Overclock3D

 

GamersNexus

 Tweakers

 

Og så har vi jo selvsagt tester av enkeltkort i RX 580 serien :

http://www.anandtech.com/show/11278/amd-radeon-rx-580-rx-570-review

http://www.tomshardware.com/reviews/amd-radeon-rx-580-review,5020.html

http://www.guru3d.com/articles-pages/msi-radeon-rx-580-gaming-x-review,1.html

 

http://www.pcgamer.com/radeon-rx-580-review/


Det jeg ønsker å påpeke her er at det er en ENORM forskjell på hva disse sidene sier og hva Smedsrud konkluderer med i artikkelene sine, eksempelvis har jeg per dags dato ikke greid å finne noen andre som har slitt såpass mye med 2x RX 480 kort i crossfire som Smedsrud gjorde eller som har kommet fram til samme konklusjon som ham når man sammenligner RX 580 skjermkortene mot de kortene de er ment å konkurrere mot.

Testene og konklusjonene til Smedsrud henger ikke alltid på grep :

https://www.tek.no/artikler/test-nvidia-geforce-gtx-1080-founders-edition/347243

Amd
https://www.tek.no/artikler/test-amd-radeon-rx-480-8-gb/349260/8
Nvidia
https://www.tek.no/artikler/test-nvidia-gtx-1060-founders-edition/349564/8
Amd
https://www.tek.no/artikler/test-sapphire-radeon-rx480-4gb-nitro/368154
 

Så for å være ærlig så har man fint kunnet fjernet "karakterskalaen" helt siden denne ser ut til å bli brukt i forhold til humøret til anmelderen mer enn noe annet da det spriker litt vel for mye for min smak. I noen tester trekker prisen ned, i andre betyr det plutselig ikke nevneverdig mye, i andre tester er mengde minne fremtidsrettet så plutselig er det ikke det...

Jeg har full forståelse for at man ønsker å gi en fornuftig karakter, men slik tek har holdt på nå i de siste årene er i mine øyne i en konstant nedoverbakke der tilbakemeldingene fra leserne preller av og man ikke fornyer eller forbedrer seg i nevneverdig grad.

 

 

  • Liker 1
Lenke til kommentar

Ikke spør meg om karakteren, jeg vet ikke :p

 

Hvis noen lager spill som krever minst 8 GB VRAM er de idioter, og de bør snakke med økonom. Du lager ikke spill som nesten ingen kan spille. Så ja, de 2 ekstra gigabytene har ingenting å si, fordi du trenger dem ikke. Dette er ikke 4K, dette er 1080p. Og det med fremtid fungerer ikke slik. Jeg har GTX 660, joda VRAM er et problem fordi jeg har SLI, men om jeg hadde de alene, så hadde ikke VRAM vært et problem. Er det fordi at det ikke finnes spill som trenger mer i dag? Nei, det er det jo mange av. Tror du GTX 660 uansett kan klare dem i 1080p 60 fps? Nei. Spiller ikke akkurat med ultra textures i 2160p, og da trenger du ikke akkurat 12 GB VRAM. Mer VRAM er bare fremtidssikring om GPUen er kraftig nok. Du kan ikke bare se på et spec sheet og hvis AMD er over Nvidia i noe, så er det et pluss om det har noe å si i faktisk spillytelse eller ikke. Du kan og se på det som at AMD mister marginer ved å putte i for mye VRAM. 

 

Kan ellers svare på det siste. Jeg kommer ikke til å bytte ut mine Dell skjermer, og du får ikke slike skjermer i Freesync variant. Jeg har ikke spilt et eneste DX12 spill. Og helt ærlig, så finnes det ikke så mange skikkelige DX12 titler heller. Og selv om tek har eldre spill, så viser jo andre kilder som har testet mer spill, og andre spill, også mye DX12 at GTX 1060 fortsatt er bedre i snitt. Så du sier gang på gang at RX 580 er så åpenbart valg, men det er jo faktisk ikke det. Altså det er ikke bare fanboys som kjøper Nvidia kort :) Glad for å ha AMD da. Ser jo hvordan det går med prisene på 1070, 1080 FE og slik når det ikke er noe å konkurrere med.

Lenke til kommentar

 

 

Så hvor mange her skal kjøpe rx580?

 

 

Tipper 0  :p

Kan du forklare hva din intelligente kommentar faktisk har med diskusjonen eller anmeldelsen av skjermkortet å gjøre i det hele tatt?

Kom igjen, bidra da litt konstruktivt til diskusjonen...

Å? Traff jeg en nerve?

 

Så du skal kjøpe siden du quota regner jeg med. Flott!  :)

 

 

 

Nei, RX 580 kommer jeg ikke til å kjøpe da de kortene jeg har i pcen akkurat nå dekker behovet mitt, i fremtiden derimot kan nok trolig de siste kortene til Nvidia eller Amd være av interesse.

 

 

Problemet derimot med posten din er at du ikke bidrar til noe annet enn å styrke en typisk Amd vs Nvidia diskusjon, noe som er både ødeleggende og ikke minst ikke akkurat så veldig givende her, så hvorfor ikke bidra med noe annet som kan være av interesse å diskutere?

 

Kom igjen da, bruk de grå cellene ordentlig denne gangen...

 

Eksempelvis : Hva mener du faktisk gjør at RX 580 ikke er en god konkurrent til Nvidia sine 1060? Bryr du deg om effektforbruket eller mener du at rå ytelse er langt viktigere?

 

 

Edit : Feil quote...

Endret av 097100106111101
Lenke til kommentar

@masse_tall:

 

Du kan faktisk ikke kritisere tek for RX 480 og GTX 1060 testen. Vet du hvorfor? Fordi ved launch i Norge var prisen på RX 480 latterlig. 1060 var et åpenbart valg. Og det har ingenting å si hva 10 nettsider i USA sa, fordi de sammenlignet med andre priser. AMD i begynnelsen var betale en god del hundrelapper mer for et klart dårligere kort. Hvorfor skulle det fått like bra karakter som 1060? 

 

Anmeldelsene viser jo ellers at både Freesync og CFX blir talt som pluss i begge AMD reviewsene. Så blir ikke kritikken din om at du lurer på om tek engang har brukt Freesync skjermer litt merkelig da Gabri3L? Det er jo tydelig nevnt der. Kan kritisere tek sine tester for mye, men kritiser dem hvertfall for noe de har gjort galt. AMD fortjente den 7/10 i NORGE ved launch, men om 1060 fikk 9/10, så bør hvertfall 580 ha 9/10 nå. 

 

Eksempelvis få spill, ikke mer oppdaterte spill, strømmålinger som viser bare GPU er mangler jeg ser. De nevner derimot Freesync. De tar ikke med CFX for AMD som et pluss, men det er et minus hos 1060, så det er jo det samme. Og når RX 480 kom ut så var det et dårlig kjøp i Norge. Og de har både begrunnelse og anbefalinger i konklusjonen. 

 

Så det er mye forbedringspotensiale her helt klart, men jeg synes vi burde være rettferdige og kritisere dem for det de gjør galt. 

  • Liker 1
Lenke til kommentar

Månebrukeren : 

Smedsrund kjenner trolig til tjenester som prisguide, legg merke til at i den opprinnelige 1080 artikkelen anbefaler han faktisk brukerne til å vente til det kommer flere skjermkort på markedet som ikke er "founders edition" , noe som på det tidspunktet var en måned eller to senere.

 

Tar man en titt på prisutviklingen til Amd sine skjermkort så ser man følgende : 

https://www.prisguide.no/produkt/amd-radeon-rx-480-4gb-278409#anchor-price-follow 4Gb,
https://www.prisguide.no/produkt/amd-radeon-rx-480-8gb-262150#anchor-price-follow 8Gb.

Nvidia sine kort :
https://www.prisguide.no/produkt/nvidia-geforce-gtx-1060-6gb-265665#anchor-price-follow 6Gb.

Ethvert oppegående menneske kan derfor enkelt konkludere med at prisen ved lansering sjeldent vedvarer i et marked der både Amd og Nvidia kniver om antall solgte gpu'er, mens Nvidia kan holde prisene noe høyere enn Amd ser vi at sistenevnte faller som regel med flere hundrelapper noen måneder etter lansering ( 2 - 3 mnd ).

Og dette er noe som går tilbake i tid, Smedsrud er ikke ny på laget og dette er noe han er klar over, i alle fall i artikkelen der han skrev om 1080 og Nvidia sin pris på founders edition...

Lenke til kommentar

Ikke spør meg om karakteren, jeg vet ikke :p

 

Hvis noen lager spill som krever minst 8 GB VRAM er de idioter, og de bør snakke med økonom. Du lager ikke spill som nesten ingen kan spille. Så ja, de 2 ekstra gigabytene har ingenting å si, fordi du trenger dem ikke. Dette er ikke 4K, dette er 1080p. Og det med fremtid fungerer ikke slik. Jeg har GTX 660, joda VRAM er et problem fordi jeg har SLI, men om jeg hadde de alene, så hadde ikke VRAM vært et problem. Er det fordi at det ikke finnes spill som trenger mer i dag? Nei, det er det jo mange av. Tror du GTX 660 uansett kan klare dem i 1080p 60 fps? Nei. Spiller ikke akkurat med ultra textures i 2160p, og da trenger du ikke akkurat 12 GB VRAM. Mer VRAM er bare fremtidssikring om GPUen er kraftig nok. Du kan ikke bare se på et spec sheet og hvis AMD er over Nvidia i noe, så er det et pluss om det har noe å si i faktisk spillytelse eller ikke. Du kan og se på det som at AMD mister marginer ved å putte i for mye VRAM.

Her roter du visst litt. Men det er greit, det er det mange som gjør. Jeg antar det er fordi det tidligere faktisk var riktig som du sier at mer VRAM var bortkastet på svakere skjermkort. Men når det gjelder HD texture packs som jeg snakker om. Så er det rett og slett bare texturer med større oppløsning, som derfor krever mere VRAM. Det blir ikke mye tyngre for GPU å bruke disse texturene i stedet. De bare tar mer plass. Så jo mer plass du har til texturer på skjermkortet, desto sjeldnere trenger skjermkortet å laste nye texturer når du for eksempel går mellom forskjellige områder inne i et spill. Disse texturene kan altså ofte også brukes på skjermkort som har mindre VRAM enn anbefalt. Men da risikerer man dårligere ytelse. ikke nødvendigvis fordi GPU er for svak, men fordi CPU må jobbe ekstra med å administrere caching av texturer i stedet for å hjelpe skjermkortet med å holde oppe så høy fps som mulig. Og dermed er det ikke rart folk tror det er GPU som er for svak. Mens det i virkeligheten altså er for lite VRAM kombinert med for svak CPU og/eller treg system RAM som gjør det..

 

Som du sier er det åpenbart dårlig butikk om noen skulle lagd spillet slik at det krevde å bruke disse HD texture pack'ene. Derfor er disse pack'ene som regel gratis DLC'er som de med god nok HW kan laste ned om de ønsker det. Men Fallout 4 pack'en for eksempel, tar altså opp ~58GB med diskplass. Så det er enda en grunn til å ikke selge dem med spillene..

 

Kan ellers svare på det siste. Jeg kommer ikke til å bytte ut mine Dell skjermer, og du får ikke slike skjermer i Freesync variant. Jeg har ikke spilt et eneste DX12 spill. Og helt ærlig, så finnes det ikke så mange skikkelige DX12 titler heller. Og selv om tek har eldre spill, så viser jo andre kilder som har testet mer spill, og andre spill, også mye DX12 at GTX 1060 fortsatt er bedre i snitt. Så du sier gang på gang at RX 580 er så åpenbart valg, men det er jo faktisk ikke det. Altså det er ikke bare fanboys som kjøper Nvidia kort :) Glad for å ha AMD da. Ser jo hvordan det går med prisene på 1070, 1080 FE og slik når det ikke er noe å konkurrere med.

 

Altså, om man mener at grafikken ikke er så viktig. Så er det jo bare å skaffe seg abonnement på LowSpecGamer og kose seg så lenge som mulig med det skjermkortet man har. Og om man ikke kjøper nye spill. Nei, da trenger man jo heller ikke nytt skjermkort om det man har er godt nok til de spillene man har.. :)

 

Men for de av oss som liker å teste nye spill. Så er det interessant å holde hardware'en oppdatert nok til at man får nyte den bedre grafikken som kommer for hvert nye spill og hver nye generasjon med kraftigere skjermkort. Det har allerede kommet rundt 20 stk. DX12 titler til nå. Og jeg mener jeg leste nettopp, at det er ventet 60 stk. til i år. Flere av disse kommer til å være designet med DX12 fra grunnen og opp. Å se bort fra DX12 er sånn sett litt strutse taktikk i mine øyne.

 

Når det gjelder min påstand om at RX480/580 er det åpenbare valget. Så snakker jeg selvfølgelig om freesync (igjen). La meg ta et eksempel som kanskje tydeliggjør påstanden litt:

 

NV kjøperen har fått seg et splitter nytt GTX1060 med 6GB VRAM, og peker nese til kompisen sin som har kjøpt RX580 med 8GB. NV kjøperen har nemlig latt seg fortelle at hans valg er hele 5-10% raskere enn RX580. Og det til akkurat samme pris!

 

NV kjøperen har selvsagt kjøpt seg en 144Hz skjerm til sitt nye skjermkort. Og selv om mange anbefalte ham å bla opp ~3700Kr for en G-Sync skjerm. Så syntes han det ble litt vel mye på en gang. "Alle" vet jo at 144Hz er mye bedre enn 60Hz skjerm, så hvor mye bedre kan det bli med G-Sync liksom? Så valget falt på den billigste 144Hz skjermen han kunne oppdrive. Denne til ~2400Kr.

 

Kompisen derimot, fikk Freesync på akkurat samme skjerm, for kun en hundrings ekstra.

 

Så en dag gutta sitter på LAN, legger NV kjøperen merke til noe rart. De spiller nøyaktig samme spill. Men RX580 kompisen har mye jevnere bevegelse i spillet. Altså, NV kjøperen la jo merke til at ting gikk jevnere hos seg selv med oppgraderingen fra 60Hz til 144Hz skjerm, og GTX1060. Men kompisens bilde er jo fløyelsmykt! Rett og slett mye bedre flyt! Hvordan er dette mulig?!

 

Jo, NV kjøperen har jo selvsagt skrudd på V-Sync på spillet. Man vil jo ikke ha tearing i bildet vel? Hva er vel poenget med å spille på "Ultra" preset? Om bildet er fullt av tearing? Fastsync var også et alternativ, men da lugget det liksom litt i bevegelsene hele tiden..

 

Det NV kjøperen ikke har forstått, er at med V-Sync skrudd på. Så klarer ikke skjermkortet å levere over 144fps til skjermen. Faktisk ville han ikke klart mer enn ~95fps med V-Sync skrudd av. Det som skjer da, er at han i praksis har nerfet maskinen sin til å kun levere 72fps.

 

Kompisen derimot har selvsagt Freesync aktivert. Og selv om hans RX580 faktisk var ~10% tregere i akkurat dette spillet, i gjennomsnittlig fps med V-Sync skrudd av. Ja så har ikke det noe å si for ytelsen når han skrur Freesync. Så han får altså "bare" 85,5fps i gjennomsnittlig fps sammenliknet med kompisens potensielle 95fps. Men i motsetning til NV kjøperen, så får RX580 kjøperen, hver eneste frame, frem på skjermen.

 

Våkne lesere har nå fått med seg at dette altså er 18,75% raskere enn GTX1060 kortet. Ikke så værst til å være et skjermkort som egentlig er 10% tregere vel? :p

 

For de som vil ha en litt grundigere kikk på Freesync, så har jeg laget en liten FAQ som er linket til i signaturen min. Den er kanskje litt ut-datert nå. Men prinsippene er i det minste fremdeles sånn nogenlunde riktig tror jeg. :)

Endret av Gabri3L
  • Liker 2
Lenke til kommentar

Ethvert oppegående menneske kan derfor enkelt konkludere med at prisen ved lansering sjeldent vedvarer i et marked der både Amd og Nvidia kniver om antall solgte gpu'er, mens Nvidia kan holde prisene noe høyere enn Amd ser vi at sistenevnte faller som regel med flere hundrelapper noen måneder etter lansering ( 2 - 3 mnd ).

Og dette er noe som går tilbake i tid, Smedsrud er ikke ny på laget og dette er noe han er klar over, i alle fall i artikkelen der han skrev om 1080 og Nvidia sin pris på founders edition...

Ja, du har helt rett, og jeg er absolutt enig med deg her :) Det er urealistisk å tro at den høye launch prisen skulle holde, spesielt etter at 1060 ble lansert. Og med tanke på prisen i USA også. Norge hadde kunstig høy pris. Derfor kom amerikanske sider til andre konklusjoner.

Lenke til kommentar

@Gabri3L

 

Jeg forstår når VRAM gjør at ytelsen går ned, og jeg forstår også at høyere kvalitet textures som lagres i minnet ikke gjør det vanskeligere for GPU. Jeg har selv opplevd i Minecraft og GTA V å sette på noe som gjorde at fpsen min ble elendig. Så endret jeg på en innstilling som har mye med VRAM å gjøre, og fps hopper i taket. Minecraft pga latterlig rendering distance. GTA fordi 660 i SLI klarer gode innstillinger, men 2 GB VRAM er for lite, så VRAM innstillinger ligger vel på ingame ~3 GB tror jeg. Ingame målere sier alltid for mye.

 

Poenget mitt er at det er en grense for textursene. Du hvis du har alt på medium f.eks, så har du ikke texture quality på ultra. Hvis du uansett har nok VRAM til kortet ditt, så er det irrelevant om noen har mer. Det er ikke bare sånn at du kan ha så high res textures du vil dess mer VRAM du har. Konsoller har gjerne 5-6GB VRAM, men jeg ser ikke akkurat at de har textures som skulle tilsvare det. Fordi de er ikke kraftige nok.

 

 

 

Når sa jeg grafikk ikke er viktig? Og hvis du tror nye spill er state-of-the art fancy DX12 grafikk, så tror jeg du har gått glipp av en god del av markedet :)

 

Mine mest spilte spill i år er vel gjerne Stellaris og Hearts of Iron 4. Gjett om jeg spiller dem på max grafikkinnstillinger. Jeg spiller spill basert på om jeg liker dem eller ikke, og jeg spiller nye spill. Kjøpte nettopp Utopia DLC for Stellaris. Det har seg bare slik at mange av de spillene som kommer først ut med ny tung grafikk ikke er den type sjanger jeg liker. Jeg er fortsatt opptatt av grafikk derimot, men jeg ville aldri spilt et spill bare for grafikken.

 

Har ellers spilt Rainbow Six Siege på 5th gen HD graphics i laptop i rundt 40 fps. Det fungerer, selv om spillet sier at det er umulig.

 

Men du forstår at de fleste kjøper skjerm sjeldnere enn skjermkort? Kanskje de har skjerm? Kanskje andre ting som gjør at de ikke har Freesync. Jeg forstår at du er superstor tilhenger av det, men det finnes mange situasjoner der den skjermen ikke er aktuell. f.eks så liker jeg å ha veldig gode bildekvalitet. Hvorfor skulle jeg da kjøpe en av de billigere Freesync skjermene? For gamere er jo Samsung PLS skjermene med Freesync et kupp bare for å ha sagt det, men jeg liker allround skjermene fra Dell bedre. Og hvor mange adaptive syns skjermer fra Dell er det? Jeg finner dessverre ingen. 

Lenke til kommentar

At nvidia selger fler kort enn AMD er vel ingen overraskelse, heller - det hadde ikke snudd på dagen om så 480 eller 580 hadde gruset 1080ti og trukket 50W ved full load.

 

Det som virkelig er imponerende er brukerbasen av et søppelkort som GTX960 :p

 

Hvorfor er det ett søppelkort? Bruker selv kun ett 660 kort og ALLE spill JEG spiller kjører jeg i 60+ fps. 

Lenke til kommentar

 

At nvidia selger fler kort enn AMD er vel ingen overraskelse, heller - det hadde ikke snudd på dagen om så 480 eller 580 hadde gruset 1080ti og trukket 50W ved full load.

 

Det som virkelig er imponerende er brukerbasen av et søppelkort som GTX960 :p

 

Hvorfor er det ett søppelkort? Bruker selv kun ett 660 kort og ALLE spill JEG spiller kjører jeg i 60+ fps.

 

De nerfet det alt for mye sammenlignet med GTX970/980, det var problemet. 660-kortet ditt plasserte seg i større grad der det skulle.

 

Om du greier deg med 660, supert. Jeg har et GT210 i en annen maskin, det kjører alle spill med 60FPS jeg har prøvd, også. Det begrenser seg til minesveiper og freecell, men likevel.

Lenke til kommentar

 

 

At nvidia selger fler kort enn AMD er vel ingen overraskelse, heller - det hadde ikke snudd på dagen om så 480 eller 580 hadde gruset 1080ti og trukket 50W ved full load.

 

Det som virkelig er imponerende er brukerbasen av et søppelkort som GTX960 :p

 

Hvorfor er det ett søppelkort? Bruker selv kun ett 660 kort og ALLE spill JEG spiller kjører jeg i 60+ fps.

 

De nerfet det alt for mye sammenlignet med GTX970/980, det var problemet. 660-kortet ditt plasserte seg i større grad der det skulle.

 

Om du greier deg med 660, supert. Jeg har et GT210 i en annen maskin, det kjører alle spill med 60FPS jeg har prøvd, også. Det begrenser seg til minesveiper og freecell, men likevel.

 

 

960 drar nok de aller fleste spill i 1080p i 60 fps i dag hvis man setter ned grafikken nok. Mer enn bra nok for de fleste.

Lenke til kommentar

960 var svakt i pris/ytelse når det kom ut, og i forhold til AMD og Nvidia sine andre kort så stilte det relativt svak. Så vanligvis selger GTX x60 kortene best, fordi det har en ytelse som er god nok for de fleste, med en pris som er lav nok til at det passer inn i de flestes budsjetter.

 

1060 er over 1070 i salg. 760 nesten dobler 770. 660 trippler 670. Det er fra steam survey altså, og det kan og være folk beholder 60 kort lengre enn 70 kort. Likevel, x60 selger bedre enn x70. Med 900 serien derimot var GTX 970 mestselgende. 960 solgte fremdeles veldig bra da, men det er nok mer fordi at 1 produkt som ikke er fult like bra vil ikke plutselig gi mye lavere salg. GTX 970 derimot er i nyere tid den beste GPUen som er solgt ville jeg sagt. Helt enorme salgstall, og du kan se på totalen at Nvidia gikk til 90% markedsandel med 970. Tilbake til 80% nå med RX 480 vs 1060 da. AMD klarte å matche det senere, men i begynnelsen var 970 sin ytelse og pris helt fantastisk. Spesielt i forhold til de overprisede 780 og 780 Ti. Så det overskygget nok 960 noe og. 970 viser og at det er greit med folk som følger med på pris/ytelse og ikke bare kjøper AMD eller Nvidia fordi AMD/Nvidia hvertfall.

 

Ingen sier at 9600 er dårlig, fordi den ikke klarer å spille spill og sånt. Og prisen ble riktigere senere for å matche AMD bedre og reflekterer ytelsesavstanden opp mot 970 skikkelig. Med så stort ytelsesgap opp mot 970 og litt vel høy pris i forhold til det, sammen med bedre priser fra AMD så var det ikke det beste kortet i starten hvertfall. Og det gav stort sett mer mening å gå for 970. 

  • Liker 1
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...