Jump to content
CC-Lemon

Erfaring med Radeon Vega 56?

Recommended Posts

Isolert sett er Vega 56 til 3495,- et godt kjøp .. Iallfall helt frem til RTX 2060 kom ut. Nå - etter launch av RTX 2060 så ville jeg nok heller sett i den retning i dette prissegmentet.

 

Personlig ville nok jeg tatt dette

https://www.komplett.no/product/1120379/datautstyr/pc-komponenter/skjermkort/zotac-geforce-rtx-2060-twin-fan#

 

Lite og hendig kort med god ytelse. Litt dyrere enn 3495,- men ikke så mye.

Share this post


Link to post

Problemet med vega sies å være mye støy og trekker mye strøm.

Der er nok RTX 2060 bedre.

 

Men problemet blir ved SLI og overklokking der er nok nyere genrasjoner bedre.

Share this post


Link to post

Problemet med vega sies å være mye støy og trekker mye strøm.

Der er nok RTX 2060 bedre.

 

Men problemet blir ved SLI og overklokking der er nok nyere genrasjoner bedre.

Hvorfor lage problemer når det ikke er et tema en gang? TS har ikke nevnt SLI noen plass.

  • Like 3

Share this post


Link to post

Ville helt klart gått for RTX 2060, selv om man får med flere spill ved kjøp av Vega. Uansett hvor billig man får Vega vil RTX 2060 på sikt være et langt bedre kjøp, og man vil tjene inn igjen hva man evt. betalte ekstra for RTX.

 

3 gode grunner til at RTX 2060 er et langt bedre kjøp enn Vega 56:

 

- Mye mindre støy og mye lavere strømforbruk (stort pluss om du har på PCen 24/7)

- RTX har DLSS som vil gi 50% mer ytelse. Innen Vega 56 blir modent for utskift vil DLSS være så godt implementert at man får en stor boost ved RTX 2060. Som vil si at RTX2060 ytelsesmessig vil vare vesentlig lengre enn Vega 56.

- Fordi RTX har DLSS som kan i spill med støtte for det øke ytelsen med 50% så vil RTX 2060 ha vesentlig høyere salgsverdi på bruktmarkedet om noen år enn Vega 56. Man vil med andre ord få mer penger igjen for å selge RTX2060 om 2-3 år enn Vega 56.

 

Ettersom at freesync nå også støttes av nVidia så klarer jeg ikke finne noen gode argumenter for å anbefale Vega, med mindre man får det til skampris på bruktmarkedet.

Share this post


Link to post

Takk for raske og gode tilbakemeldinger. Ser ut som konklusjonen er at gresset er grønnere på den andre siden :p. PC-en blir nok ikke brukt til å spille noe særlig på, men mer til redigering av bilder og video. Har det noe å si på hva jeg bør velge av AMD/Nvidia?

Share this post


Link to post

Hei. Er på utkikk etter et skjermkort til en ny PC, og så at NetOnNet hadde et Vega56 kort til 3495 kr. Er det noen her inne som har erfaring med Vega56?

 

Nettonnet har avsluttet kampanjen som gjorde at man fikk med 3 spill på kjøpet. Jeg ville nok derfor lagt til et par hundrelapper og heller kjøpt et hos Proshop som fremdeles er med. Da får man "The Division 2", RE2, og DMC5 på kjøpet. Gigabyte versjonene hadde jeg holdt meg unna, mange med dårlig erfaring med dem, meg inkludert. Litt trist, for kjøleren var veldig bra, det er et nesten lydløst kort. Personlig ville jeg valgt Sapphire sitt, de er AMD eksklusiv partner, så alt de lager er spesial designet for AMD kortene. Asus f.eks. har bare smelt på en kjøler de allerede brukte på et annet kort, og dermed ikke fått til ordentlig kjøling av VRM, selv på ROG kortene, som liksom skal være litt "Premium". Men støynivået er som på alle andre Asus ROG kort; så og si lydløst.

 

Den virkelig store grunnen til å velge AMD's skjermkort har inntil nylig vært Freesync skjermer som er vesentlig billigere enn Nvidia's G-Sync skjermer. Nvidia selv innrømmer imidlertid at de ikke fikser Freesync så bra, så å holde seg til AMD med Freesync skjerm er ikke nødvendigvis en dum ting. Nvidia støtter Freesync nå, kun fordi de ikke fikk solgt nok av sine egne RTX skjermkort, og trengte å utvide kundegrunnlaget til å inkludere folk som allerede har Freesync skjerm. Det er motvillig Nvidia gjør dette, så de prøver å pushe et narrativ der G-Sync er "Premium" mens Freesync er dritt, men de støtter det for å være "snille". Dvs. Nvidia er tjent med at ikke alle Freesync skjermer fungerer optimalt med Nvidia skjermkort, fordi da kan de hevde at G-Sync er garantert fungere, og gi en "bedre" opplevelse. Jeg ser en del som rapporterer flimring med Freesync skjerm sammen med Nvidia skjermkort. Ofte lar det seg fikse ihvertfall 99% med å lage en custom resolution, men enkelte Samsung skjermer for eksempel, er ikke glade i Nvidia skjermkort, eller omvendt. Som er litt trist igjen, fordi det er Samsung som lager de absolutt beste gaming skjermene (vel ikke til twitch'ere som CS:GO da, siden TN paneler nok er å foretrekke til dem).

 

Nå, dersom du bare skal spille, og aldri kommer til å "fikle" med skjermkortet, og om alt annet hadde vært likt, for eksempel null spill med på kjøpet, og lik pris, så vil jeg si RTX2060 er det åpenbare valget når det gjelder ytelse. Det er ikke egentlig så voldsomt mye raskere i gjennomsnitt, kanskje 8% eller rundt om der. Men fordelingen er slik at det bare er noen få spill der V56 vinner med en liten margin, og så en del spill der 2060 vinner med en liten margin. Og så er der enkelte spill som skiller seg voldsomt ut, der 2060 tar massive ledelser. Det gjør V56 aldri overfor 2060.

 

Nå, om du likevel skal ha spillene som følger med V56, så gjør jo det V56 til et vesentlig billigere kort, slik at ytelse per krone blir en del bedre i V56 sin favør. Også om man tar med at man med RTX2060 får velge enten spillet BF5, eller Anthem, med på kjøpet. I et slikt perspektiv kan V56 gi en del mening, men jeg ville nok heller valgt det bedre skjermkortet, og heller handlet spillene senere utenom. Men om man vil gjøre regnestykket så man vet hva man tar avgjørelsen på, så ser det litt slik ut: La oss si begge skjermkortene man vurderer koster ~3800Kr. Med på kjøpet med V56 får man 3 spill til en verdi av ~1500 Kr, mens man kun får 1 spill til ~500 Kr med 2060. Trekker man verdien av spillene fra kjøpesummen, så ender man med å ha betalt ~2300 Kr for V56, og 3300 Kr for 2060. Altså skjermkortet som er ~8% raskere blir 43,5% dyrere. 

 

Om du liker å overklokke, så er V56 også et ganske artig kort. Gamers Nexus har en video serie der de viser hvordan de får samme ytelse fra V56 som et RTX2070, og der skal man være heldig om man klarer å få opp et RTX2060. Så maks overklokket tipper jeg faktisk V56 vil slå et maks overklokket 2060... Men bruke rundt dobbelt så mye strøm... :p Uten overklokking er strømforbruket imidlertid ikke noe å bry seg om. Når man går i driveren på V56 første gang, så får man spørsmål om man vil "undervolte" GPU. Svarer man ja, så trekker kortet plutselig 20W mindre, og ligger dermed bare ~20W over 2060. Skrur man på "iChill" så går man nok godt under 2060 i forbruk, da fordi man kun bruker kortet maks når man er aktiv.

 

Når det gjelder RT og DLSS som enkelte vil bruke som argument for 2060, vel, DLSS er virkelig virkelig søppel, da bildekvaliteten går rett i dass, så ingen burde bruke det som argument for noenting. Og RT på et 2060? Jeg mener nei, 2060 er for svakt til å gi noe som helst meningsfullt utbytte av RT, spar heller opp til et 2070 i så fall. Det er virkelig minimum for RT, aller helst skulle man ikke tillatt det under RTX2080 en gang. Så drit i den slags argumenter for 2060, det står godt på sine egne ben uten det vaset der. Med RTX2070 får man forøvrig også en VR-Link kompatibel USB-C port, som kan brukes som en helt vanlig USB 3.1 Gen 2 port også. Altså 10 Gbit/s. Det kan være  kjekt om kortet skal i en eldre maskin f.eks. Så greit å få med seg ihvertfall.

 

Takk for raske og gode tilbakemeldinger. Ser ut som konklusjonen er at gresset er grønnere på den andre siden :p. PC-en blir nok ikke brukt til å spille noe særlig på, men mer til redigering av bilder og video. Har det noe å si på hva jeg bør velge av AMD/Nvidia?

Vel, Vega 56 har 2 GB VRAM ekstra, med vesentlig høyere minnebåndbredde, og også vesentlig høyere compute ytelse enn RTX2060, så til videoredigering er nok V56 vesentlig bedre.

Edited by Gabri3L

Share this post


Link to post

Den virkelig store grunnen til å velge AMD's skjermkort har inntil nylig vært Freesync skjermer som er vesentlig billigere enn Nvidia's G-Sync skjermer. Nvidia selv innrømmer imidlertid at de ikke fikser Freesync så bra, så å holde seg til AMD med Freesync skjerm er ikke nødvendigvis en dum ting. Nvidia støtter Freesync nå, kun fordi de ikke fikk solgt nok av sine egne RTX skjermkort, og trengte å utvide kundegrunnlaget til å inkludere folk som allerede har Freesync skjerm. Det er motvillig Nvidia gjør dette, så de prøver å pushe et narrativ der G-Sync er "Premium" mens Freesync er dritt, men de støtter det for å være "snille". Dvs. Nvidia er tjent med at ikke alle Freesync skjermer fungerer optimalt med Nvidia skjermkort, fordi da kan de hevde at G-Sync er garantert fungere, og gi en "bedre" opplevelse. Jeg ser en del som rapporterer flimring med Freesync skjerm sammen med Nvidia skjermkort. Ofte lar det seg fikse ihvertfall 99% med å lage en custom resolution, men enkelte Samsung skjermer for eksempel, er ikke glade i Nvidia skjermkort, eller omvendt. Som er litt trist igjen, fordi det er Samsung som lager de absolutt beste gaming skjermene (vel ikke til twitch'ere som CS:GO da, siden TN paneler nok er å foretrekke til dem).

 

Hvor har du dette fra, kilde? Er jo bare tull fra ende til annen. Har selv Samsung skjerm med freesync, og funker som en drøm med mitt nVidia kort. At freesync på nVidia er dritt er bare noe du sier, ettersom at nesten alle trådene dine er så farget av at du foretrekker AMD. 

 

Skal man se rent objektivt på det, så fungerer stort sett nVidia freesync for de fleste skjermer om spillet bruker DirectX. Eneste problemet jeg har hatt med freesync er minecraft som er renderet i OpenGl, alt annet har fungert uten feil.

 

 

 Om du liker å overklokke, så er V56 også et ganske artig kort. Gamers Nexus har en video serie der de viser hvordan de får samme ytelse fra V56 som et RTX2070, og der skal man være heldig om man klarer å få opp et RTX2060. Så maks overklokket tipper jeg faktisk V56 vil slå et maks overklokket 2060... Men bruke rundt dobbelt så mye strøm... :p Uten overklokking er strømforbruket imidlertid ikke noe å bry seg om. 

 

 

Her gir du trådstarter et veldig feil bilde, du nevner kun den delen som er Vega 56 til fordel.

 

Her er vel testen du tenkte på: https://www.gamersnexus.net/guides/3382-rtx-2070-versus-power-modded-vega-56

 

Det man ser, når man leser denne er at Vega 56 kommer ganske nær RTX 2070 ytelse i syntetiske tester dersom man overklokker. 

 

I spill derimot ligger dette overklokkede Vega 56 mellom GTX 1070 og GTX 1070 ti i ytelse (ikke i nærheten av RTX 2070), og da snakker vi også en overklokk som bruker det dobbelte av strømforbruket til RTX 2060. 

 

 

 

Når det gjelder RT og DLSS som enkelte vil bruke som argument for 2060, vel, DLSS er virkelig virkelig søppel, da bildekvaliteten går rett i dass, så ingen burde bruke det som argument for noenting. 

 

Må le litt her, hadde dette vært AMD sin teknologi hadde du vel ikke avfeid DLSS så fort? Greia med DLSS er at AI må trenes opp til å gi best mulig bilde, og her har kun nVidia driveren fått trening fra et fåtall med spill, Battlefield V, FF Metro Exodus, Infiltrator. m.m.

 

Da sier det seg selv at AI'en ikke har fått trent seg nok til å kunne vise hele potensialet for DLSS. nVidia har selv kommentert dette, og sagt at DLSS vil bli skarpere og bedre ettervert som skjermkortene får trent seg på flere spill. 

 

Det at du forkaster denne teknologien og kaller et produkt i startsfasen for søppel sier vel sitt om hvor låst du er til at AMD uansett er best. Eller er det mangel på forståelse for hvordan AI fungerer?

 

___________________________________________________________

 

Men istede for å kalle alt ved nVidia dritt, slik som freesync, DLSS og overklokking. Kan du heller komme med ett eneste godt argument til hvorfor Vega 56 er bedre enn RTX 2060? 

 

Helt ærlig, det å snakke ned nVidia og kalle det dritt og søppel er strengt tatt ikke nødvendig dersom AMD er bra nok og du hadde klart å redegjort for hvilke fordeler du får ved å heller velge det over nVidia.

Edited by Emile the rat
  • Like 3

Share this post


Link to post

Takk for raske og gode tilbakemeldinger. Ser ut som konklusjonen er at gresset er grønnere på den andre siden :p. PC-en blir nok ikke brukt til å spille noe særlig på, men mer til redigering av bilder og video. Har det noe å si på hva jeg bør velge av AMD/Nvidia?

 

Vel, aner ikke hvilke redigeringsprogrammer du bruker, men Adobe (og regner med at de fleste seriøse redigeringsprogrammer) har støtte for GPU acceleration med CUDA. Dette reduserer iværtfall renderingstiden vesentlig, så om du har programmer med støtte for CUDA så er nVidia et åpenbart valg.

Edited by Emile the rat

Share this post


Link to post

Siden prisen på Vega 56 og 2060 er så lik, så hadde jeg valgt 2060. Vega 56 bruker mere strøm og er nok endel varmere enn 2060, samt at ytelsen er litt dårligere enn 2060.

Share this post


Link to post

Siden prisen på Vega 56 og 2060 er så lik, så hadde jeg valgt 2060. Vega 56 bruker mere strøm og er nok endel varmere enn 2060, samt at ytelsen er litt dårligere enn 2060.

 

Vel, nå sa han jo at det ville bli mest bilde og video redigering, og til video ihvertfall , vil jeg tro de 8GB med VRAM er å foretrekke fremfor 2060's 6GB. Men igjen; 2070 er ikke sååå langt opp i pris, og kan sånn sett gi litt mer mening. Eventuelt kikke etter 1070 på finn.no, de har jo fått en aldri så liten knekk til i bruktpris nå...

 

Edit: Når det gjelder strømforbruk så blander du litt på konsekvensene. Temperatur på selve GPU, altså chip'en, er avhengig av god varmeoverføring fra chip til coldplate på kjøleren, og videre varmetransport derfra. Så en fysisk mindre chip, som på 2060, har høyere varme tetthet og blir vanskeligere å fjerne varmen fra. At energi mengden er større på Vega er en annen del av regnestykket. Man må kanskje ha en mer effektiv kjøler for å holde samme støynivå f.eks. Men til syvende og sist handler det jo om å ventilere kabinettet, altså få varmen ut av maskinen. En maskin med V56 og Noctua kabinett vifter vil for eksempel kunne være vesentlig både kaldere og stillere enn en maskin med RTX2060 der man bruker kabinettets medfølgende vifter...

Edited by Gabri3L

Share this post


Link to post

 

Nettonnet har avsluttet kampanjen som gjorde at man fikk med 3 spill på kjøpet. Jeg ville nok derfor lagt til et par hundrelapper og heller kjøpt et hos Proshop

Må legge til at Sapphire V56 Pulse* som selges av Proshop bare bruker 180W (mot 210W på MSI kortet) ut av boksen. MSI kortet ser ut som det bruker referanse designet som bør unngås.

 

*Nano PCB med full size kjøler

 

angående DLSS =

Edited by PantZman

Share this post


Link to post

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

Loading...

×
×
  • Create New...