Gå til innhold

TEST: Asus RX Vega 56 ROG Strix OC


Anbefalte innlegg

Videoannonse
Annonse

Og enkelte mener at AMD gir best ytelse per krone, og det har de ofte vært, men denne produktprisingen er bare drøy. Om det er AMD eller Asus sin skyld vet jeg ikke, men synd er det iværtfall. Tror man allerede i Januar kan skilte dette til årets værste ytelse per krone skjermkort for i år. Her får du iværtfall ikke alt du betaler for. Håper de justerer ned prisene.

Endret av 93MiChr
  • Liker 2
Lenke til kommentar

Ikke rart dem er dyre med tanke på at man kan ha en fortjeneste på 1600 i mnd på ett kort. Er jo folk som eier hundrevis hvis ikke tusenvis av dem.

1550-1600 kr/måneden får du med GTX 1080 også ved hjelp av nicehash.com.

 

Dagens AMD-GPU-er er oppskrytt både som mining og spillkort, på grunn av prisen. Synd. Håper de klarer å bli konkurransedyktige igjen snart. Freesync er billigere enn G-sync. Jeg hadde HD 7970 fra 2011 som var brukbart til spill i uvanlig lang tid.

Endret av Lynxman
  • Liker 2
Lenke til kommentar

Dette kortet er åpenbart priset så høyt som det er pga folk kjøper det for å bruke det til mining. Det er altså så populært at prisene drives opp. Hvorfor ikke teste hvor godt kortet er til mining? Det er uansett uinteresant å få testa hvor godt kortet er til spilling når prisene presses opp pga god ytelse i mining!

  • Liker 5
Lenke til kommentar

Burde heller lagt inn Mining benchmark I stede.. Kunne ikke Tek, gått i dybden på dette? Er det mining på Vega og vanlige RX serien? Har de så lave yields på brikken, eller er det grådighet?

 

Synd for konkurransen og gamere. Slik jeg har oppfattet det, så har det vært lavt antall av Vega her til lands, tredjeparts produsenter som fikk brikken veldig mye senere en lovet og i et lavt antall, og Mining. RX Vega var noenlunde(RX Vega 56 til 4300) på release prisen(3990) nå i fjor under Black Friday. Var da jeg fikk tak i RX Vega 64 LQ til 6500 og ikke lanseringsprisen 6900.. Håper ting bedrer seg i løpet av året og den mulige overgangen til 7nm.

  • Liker 1
Lenke til kommentar

Virker som et meningsløst skjermkort for de aller aller fleste..

 

Men et par spørsmål melder seg likevel igjen i forhold til Teks test metodikk. Fremdeles ingen angivelse av 1% eller 0,1% frame times? Vet Tek enda ikke hvordan man henter ut disse tallene? Det ville åpenbart ikke kunnet "reddet" AMDs skjermkort. Men vi får heller ikke vite om det er enda en ting skjermkortet er håpløst på..

 

Jeg var også nysgjerrig på om verdiene for skjermkortene som det måles opp mot er nye målinger, eller gamle "resirkulerte". Og om hvorvidt dette nye ROG RX Vega 56 kortet ble testet med den ytelses dempende patchen for "Meltdown" og "Spectre"? Det ville jo i så fall vært litt urettferdig. Vi kan jo forvente noe lavere ytelse med Nvidia kortene også, dersom de re-testes med siste Windows patch. Som forøvrig hadde vært interessant for mange uansett. Spesielt sett med tanke på den trege RAM'en Tek bruker i sin test rig. Da den, og til og med tregere, er rimelig utbredt.

 

Det er jo forøvrig nesten også et eget kapittel. Må flire av Teks artikkel om den "nye" test riggen sin. Der de anfører at de bruker 2400MHz brikker, men linker til 2800MHz brikker. Disse angis forøvrig av Tek å ha en "tilgangstid på 16 ms". Som ville vært ganske bra.. For en HDD.. For 20 års tid siden?.. Det er altså CL16 på disse brikkene (om vi kan stole på såpass). ut fra den verdien kunne vi ha regnet oss frem til "tilgangstiden" angitt i ns.. Vel, om vi hadde visst hvilken frekvens de faktisk kjører.. :p

 

Men uansett.. Jeg vet altså ikke hva jeg skal tro om hvilken hastighet RAM har kjørt på i disse testene. Jeg vet faktisk ikke om jeg skal tørre å stole på at det er samme hastighet fra test til test en gang..

 

Dette føyer seg altså bare inn i rekken av meningsløse tester fra Tek. Heldigvis kunne de ikke gjøre så veldig mye mer feil med dette kortet...

  • Liker 3
Lenke til kommentar

GPUer er ikke best til mining. FPGAer er bedre. Bitcoin spesifikke ASICS er bedre. AMDs kort er ikke laget for mining. Da hadde det i så fall vært gjort en elendig jobb fra AMD. 

 

GPUer er til hobby-mining. 

 

Tenker prisene er som følge av høy demand i forhold til produksjon av disse. Om de hadde hatt høyere produksjon kunne de nok ha satt ned prisene.

Lenke til kommentar

GPUer er ikke best til mining. FPGAer er bedre. Bitcoin spesifikke ASICS er bedre. AMDs kort er ikke laget for mining. Da hadde det i så fall vært gjort en elendig jobb fra AMD. 

 

GPUer er til hobby-mining. 

 

Tenker prisene er som følge av høy demand i forhold til produksjon av disse. Om de hadde hatt høyere produksjon kunne de nok ha satt ned prisene.

Bitcoin-mining ja, men du kan jo prøve å mine Ethereum med en ASIC.

Endret av Lynxman
  • Liker 1
Lenke til kommentar

 

Bitcoin-mining ja, men du kan jo prøve å mine Ethereum med en ASIC.

 

GPUer er også ASICs :p

 

Men ja for krypto-currency som er laget for å være mest effektive på GPUer, og aktivt sperrer for alt annet så er GPU best. Da designer du algoritmen etter HW heller enn å prøve å lage en optimal algoritme. Som du da kan lage HW for å være effektiv på. 

 

Så blant annet den trang rask og mye RAM. Regner med de mente rask som i høy båndbredde og ikke lav latency, fordi VRAM har høy hastighet, men også høy latency. Så de har laget noe som trenger mye RAM, og den best egnede RAMen er VRAM.

 

Og igjen så har AMD typisk mer VRAM enn Nvidia.

Lenke til kommentar

 

 

Bitcoin-mining ja, men du kan jo prøve å mine Ethereum med en ASIC.

 

GPUer er også ASICs :p

 

Men ja for krypto-currency som er laget for å være mest effektive på GPUer, og aktivt sperrer for alt annet så er GPU best. Da designer du algoritmen etter HW heller enn å prøve å lage en optimal algoritme. Som du da kan lage HW for å være effektiv på. 

 

Så blant annet den trang rask og mye RAM. Regner med de mente rask som i høy båndbredde og ikke lav latency, fordi VRAM har høy hastighet, men også høy latency. Så de har laget noe som trenger mye RAM, og den best egnede RAMen er VRAM.

 

Og igjen så har AMD typisk mer VRAM enn Nvidia.

GPU-er sluttet å være ASIC når man kunne mine med de. De var ASIC den gang de bare hadde én jobb, nemlig å vise grafikk. Det finnes mine-GPU-er i dag som ikke har videokontakter, så de kan vel kalles ASIC.

Endret av Lynxman
Lenke til kommentar

 

Nei GPU-er sluttet å være ASIC når man kunne mine med de. De var ASIC den gang de bare hadde én jobb, å vise grafikk.

 

https://en.wikipedia.org/wiki/Application-specific_integrated_circuit

 

ASIC er et temmelig vidt begrep :) Og det har egentlig ingenting med hva du velger å gjøre med kretsen :)

 

 

Folk kaller det ASIC til mining egentlig bare fordi det er en ASIC uten noe navn. Mens en ASIC designet for grafikkformål som GPU, blir kalt GPU. CPU, SoC er jo og vanlige samlebegrep på typer ASIC kretser.

 

Og GPU har hatt mer en en jobb en stund allerede. Eksempelvis Nvidia Tesla, Nvidia Quadro.

Lenke til kommentar

 

 Nei GPU-er sluttet å være ASIC når man kunne mine med de. De var ASIC den gang de bare hadde én jobb, å vise grafikk.

 

https://en.wikipedia.org/wiki/Application-specific_integrated_circuit

 

ASIC er et temmelig vidt begrep :) Og det har egentlig ingenting med hva du velger å gjøre med kretsen :)

 

 

Folk kaller det ASIC til mining egentlig bare fordi det er en ASIC uten noe navn. Mens en ASIC designet for grafikkformål som GPU, blir kalt GPU. CPU, SoC er jo og vanlige samlebegrep på typer ASIC kretser.

 

Og GPU har hatt mer en en jobb en stund allerede. Eksempelvis Nvidia Tesla, Nvidia Quadro.

Ser ikke poenget med å diskutere semantikk. Når man sier ASIC i minesammenheng mener man en spesifikk ting.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...