Jump to content
Smedsrud

TEST: Asus RX Vega 56 ROG Strix OC

Recommended Posts

Og enkelte mener at AMD gir best ytelse per krone, og det har de ofte vært, men denne produktprisingen er bare drøy. Om det er AMD eller Asus sin skyld vet jeg ikke, men synd er det iværtfall. Tror man allerede i Januar kan skilte dette til årets værste ytelse per krone skjermkort for i år. Her får du iværtfall ikke alt du betaler for. Håper de justerer ned prisene.

Edited by 93MiChr
  • Like 2

Share this post


Link to post

Personlig må jeg innrømme at det er litt synd. Synd for konkurransen, og synd for de som ønsker seg en Freesync skjerm... Hadde de faktisk kostet etter AMDs anbefalte pris, ville de vært gode til budsjett inkl skjerm med Freesync.

  • Like 2

Share this post


Link to post
Guest mrpc

Ikke rart dem er dyre med tanke på at man kan ha en fortjeneste på 1600 i mnd på ett kort. Er jo folk som eier hundrevis hvis ikke tusenvis av dem.

  • Like 3

Share this post


Link to post

Ikke rart dem er dyre med tanke på at man kan ha en fortjeneste på 1600 i mnd på ett kort. Er jo folk som eier hundrevis hvis ikke tusenvis av dem.

1550-1600 kr/måneden får du med GTX 1080 også ved hjelp av nicehash.com.

 

Dagens AMD-GPU-er er oppskrytt både som mining og spillkort, på grunn av prisen. Synd. Håper de klarer å bli konkurransedyktige igjen snart. Freesync er billigere enn G-sync. Jeg hadde HD 7970 fra 2011 som var brukbart til spill i uvanlig lang tid.

Edited by Lynxman
  • Like 2

Share this post


Link to post

AMD kan gi opp high-end etter dette søpplet! Dem har veldig gode kort i mot nvidia med polaris, men der blir det bråstopp!

 

Virker som det er APU og consoll som har vært målet med vega.

Edited by Vanderen

Share this post


Link to post

Det viktigste nå er at de tjener nok penger til å klare å forske frem noe bedre. Får håpe de selger bra selv om de kanskje ikke er helt på topp. Om AMD dør så er det gode sjanser for at Intel legger seg på latsiden.

Share this post


Link to post

Dette kortet er åpenbart priset så høyt som det er pga folk kjøper det for å bruke det til mining. Det er altså så populært at prisene drives opp. Hvorfor ikke teste hvor godt kortet er til mining? Det er uansett uinteresant å få testa hvor godt kortet er til spilling når prisene presses opp pga god ytelse i mining!

  • Like 5

Share this post


Link to post

Burde heller lagt inn Mining benchmark I stede.. Kunne ikke Tek, gått i dybden på dette? Er det mining på Vega og vanlige RX serien? Har de så lave yields på brikken, eller er det grådighet?

 

Synd for konkurransen og gamere. Slik jeg har oppfattet det, så har det vært lavt antall av Vega her til lands, tredjeparts produsenter som fikk brikken veldig mye senere en lovet og i et lavt antall, og Mining. RX Vega var noenlunde(RX Vega 56 til 4300) på release prisen(3990) nå i fjor under Black Friday. Var da jeg fikk tak i RX Vega 64 LQ til 6500 og ikke lanseringsprisen 6900.. Håper ting bedrer seg i løpet av året og den mulige overgangen til 7nm.

  • Like 1

Share this post


Link to post

Virker som et meningsløst skjermkort for de aller aller fleste..

 

Men et par spørsmål melder seg likevel igjen i forhold til Teks test metodikk. Fremdeles ingen angivelse av 1% eller 0,1% frame times? Vet Tek enda ikke hvordan man henter ut disse tallene? Det ville åpenbart ikke kunnet "reddet" AMDs skjermkort. Men vi får heller ikke vite om det er enda en ting skjermkortet er håpløst på..

 

Jeg var også nysgjerrig på om verdiene for skjermkortene som det måles opp mot er nye målinger, eller gamle "resirkulerte". Og om hvorvidt dette nye ROG RX Vega 56 kortet ble testet med den ytelses dempende patchen for "Meltdown" og "Spectre"? Det ville jo i så fall vært litt urettferdig. Vi kan jo forvente noe lavere ytelse med Nvidia kortene også, dersom de re-testes med siste Windows patch. Som forøvrig hadde vært interessant for mange uansett. Spesielt sett med tanke på den trege RAM'en Tek bruker i sin test rig. Da den, og til og med tregere, er rimelig utbredt.

 

Det er jo forøvrig nesten også et eget kapittel. Må flire av Teks artikkel om den "nye" test riggen sin. Der de anfører at de bruker 2400MHz brikker, men linker til 2800MHz brikker. Disse angis forøvrig av Tek å ha en "tilgangstid på 16 ms". Som ville vært ganske bra.. For en HDD.. For 20 års tid siden?.. Det er altså CL16 på disse brikkene (om vi kan stole på såpass). ut fra den verdien kunne vi ha regnet oss frem til "tilgangstiden" angitt i ns.. Vel, om vi hadde visst hvilken frekvens de faktisk kjører.. :p

 

Men uansett.. Jeg vet altså ikke hva jeg skal tro om hvilken hastighet RAM har kjørt på i disse testene. Jeg vet faktisk ikke om jeg skal tørre å stole på at det er samme hastighet fra test til test en gang..

 

Dette føyer seg altså bare inn i rekken av meningsløse tester fra Tek. Heldigvis kunne de ikke gjøre så veldig mye mer feil med dette kortet...

  • Like 3

Share this post


Link to post

GPUer er ikke best til mining. FPGAer er bedre. Bitcoin spesifikke ASICS er bedre. AMDs kort er ikke laget for mining. Da hadde det i så fall vært gjort en elendig jobb fra AMD. 

 

GPUer er til hobby-mining. 

 

Tenker prisene er som følge av høy demand i forhold til produksjon av disse. Om de hadde hatt høyere produksjon kunne de nok ha satt ned prisene.

Share this post


Link to post

GPUer er ikke best til mining. FPGAer er bedre. Bitcoin spesifikke ASICS er bedre. AMDs kort er ikke laget for mining. Da hadde det i så fall vært gjort en elendig jobb fra AMD. 

 

GPUer er til hobby-mining. 

 

Tenker prisene er som følge av høy demand i forhold til produksjon av disse. Om de hadde hatt høyere produksjon kunne de nok ha satt ned prisene.

Bitcoin-mining ja, men du kan jo prøve å mine Ethereum med en ASIC.

Edited by Lynxman
  • Like 1

Share this post


Link to post

 

Bitcoin-mining ja, men du kan jo prøve å mine Ethereum med en ASIC.

 

GPUer er også ASICs :p

 

Men ja for krypto-currency som er laget for å være mest effektive på GPUer, og aktivt sperrer for alt annet så er GPU best. Da designer du algoritmen etter HW heller enn å prøve å lage en optimal algoritme. Som du da kan lage HW for å være effektiv på. 

 

Så blant annet den trang rask og mye RAM. Regner med de mente rask som i høy båndbredde og ikke lav latency, fordi VRAM har høy hastighet, men også høy latency. Så de har laget noe som trenger mye RAM, og den best egnede RAMen er VRAM.

 

Og igjen så har AMD typisk mer VRAM enn Nvidia.

Share this post


Link to post

 

 

Bitcoin-mining ja, men du kan jo prøve å mine Ethereum med en ASIC.

 

GPUer er også ASICs :p

 

Men ja for krypto-currency som er laget for å være mest effektive på GPUer, og aktivt sperrer for alt annet så er GPU best. Da designer du algoritmen etter HW heller enn å prøve å lage en optimal algoritme. Som du da kan lage HW for å være effektiv på. 

 

Så blant annet den trang rask og mye RAM. Regner med de mente rask som i høy båndbredde og ikke lav latency, fordi VRAM har høy hastighet, men også høy latency. Så de har laget noe som trenger mye RAM, og den best egnede RAMen er VRAM.

 

Og igjen så har AMD typisk mer VRAM enn Nvidia.

GPU-er sluttet å være ASIC når man kunne mine med de. De var ASIC den gang de bare hadde én jobb, nemlig å vise grafikk. Det finnes mine-GPU-er i dag som ikke har videokontakter, så de kan vel kalles ASIC.

Edited by Lynxman

Share this post


Link to post

 

Nei GPU-er sluttet å være ASIC når man kunne mine med de. De var ASIC den gang de bare hadde én jobb, å vise grafikk.

 

https://en.wikipedia.org/wiki/Application-specific_integrated_circuit

 

ASIC er et temmelig vidt begrep :) Og det har egentlig ingenting med hva du velger å gjøre med kretsen :)

 

 

Folk kaller det ASIC til mining egentlig bare fordi det er en ASIC uten noe navn. Mens en ASIC designet for grafikkformål som GPU, blir kalt GPU. CPU, SoC er jo og vanlige samlebegrep på typer ASIC kretser.

 

Og GPU har hatt mer en en jobb en stund allerede. Eksempelvis Nvidia Tesla, Nvidia Quadro.

Share this post


Link to post

 

 Nei GPU-er sluttet å være ASIC når man kunne mine med de. De var ASIC den gang de bare hadde én jobb, å vise grafikk.

 

https://en.wikipedia.org/wiki/Application-specific_integrated_circuit

 

ASIC er et temmelig vidt begrep :) Og det har egentlig ingenting med hva du velger å gjøre med kretsen :)

 

 

Folk kaller det ASIC til mining egentlig bare fordi det er en ASIC uten noe navn. Mens en ASIC designet for grafikkformål som GPU, blir kalt GPU. CPU, SoC er jo og vanlige samlebegrep på typer ASIC kretser.

 

Og GPU har hatt mer en en jobb en stund allerede. Eksempelvis Nvidia Tesla, Nvidia Quadro.

Ser ikke poenget med å diskutere semantikk. Når man sier ASIC i minesammenheng mener man en spesifikk ting.

Share this post


Link to post

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

Loading...

×
×
  • Create New...