Gå til innhold

AMD RDNA2 (Radeon RX 6xxx)


ExcaliBuR

Anbefalte innlegg

16 hours ago, N o r e n g said:

Formålet med forbrukertester er å bestemme hvilket kort som er det beste i spill, ikke i konstruerte tilfeller ingen vil spille i. Da gir det absolutt mening å teste Nvidia-kort med DLSS aktivert, og vise resultatene direkte opp mot AMD-kort som ikke kjører DLSS.

Hvis du vet hva AMD kommer til å gjøre i 2021 vil jeg anbefale at du skriver hva det er. Nvidia har mye mer regnekraft på Ampere-kortene som forblir ubrukt enn AMD sine Navi-kort, så om noen skal kunne vise bedre ytelse over tid har jeg mer tro på Nvidia enn AMD.

Angående nøytrale RT-tester, så viser ikke Port Royal tegn til at AMDs kort er spesielt gode. RX 6800 XT er et hår raskere enn det to år gamle RTX 2080 Ti. RX 6900 XT ligger et sted mellom 2080 Ti og 3080, og for å være et kort som skal være bedre enn 3080 er det vanskelig å påstå at det er bra.

Jeg vil gjerne kjøpe AMD-kort igjen, men da må de komme med noe som faktisk er interessant. Det at AMD har begrenset 6800 XT til 2800 MHz core overklokking gjør kortet fullstendig uaktuelt for min del. Ikke at dette er nytt: ved alle lanseringer AMD har gjort av skjermkort de siste 10 årene har de alltid klart å finne et eller annet de kan fucke opp, og jeg vet ikke lengre om jeg skal være frustrert eller imponert.

Når du skriver at det 'rettferdig' å sammenligne nVidia med DLSS vs AMD på native resolution, så ser jeg ikke poenget med å skrive så mye mer ang dette. Dette blir da ikke lenger noen epler mot epler sammenligning, vi VET at DLSS IKKE er like bra som native resolution, selv om du ikke klarer eller vil se dette ingame. Her er det bare å sjekke reviews så blir dette innlysende, fekse Hardware Unboxed sin DLSS / raytracing review av CP 2077.

Jeg husker ikke alt, men det vi vet kommer til å bli bedre med AMD på 6000 serien er bedre RT, en form for DLSS eller supersampling og generelt fordel med at alle console spill kommer til å bli mer rettet mot AMD hardware pga begge de store consolene kjører AMD hardware, og vil dermed ha en liten fordel med tanke på porting til PC. Kanskje vi til og med vil se mindre driver problemer med AMD enn med nVidia i kommende spill siden mange vil bli laget for AMD hardware.

Vi ser fra noen tester også at allerede nå så sliter nVidia sine kort med high texture packs på høy oppløsning pga vram. Jeg husker ikke nå i farten om dette bare gjelder 3070 (og lavere) enn om det også omfatter 3080. Mener også det var Hardware Unboxed som snakket om dette, husker ikke hvilket review. Så for de som ikke skifter GPU for hver generasjon (som er absolutt de aller fleste gamere, igjen; sjekk Steam hardware charts), vil VRAM ha noe å si. Jeg vet nVidia kommer også nå med kort med mer VRAM, men da vil også prisen gå opp. VRAM situasjonen vil bli omtrent som problemet som man nå snart vil se innen spill; de CPUene med mindre enn 8 cores vil snart begynne å merke performance problemer i fremtidige spill, pga begge consolene har 8 cores/16 threads, og dette kommer til å påvirke hvordan spill lages, om man vil eller ikke. Samme som man nå ser med folk som kjøpte AMD Ryzen 3600 for litt siden, pga det var et veldig godt kjøp, men om man da i dag har et ny generasjon GPU, så blir CPUen en flaskehals. Dette var noe så godt som ingen snakket om for ett års tid siden, da 3600 var super populær. Jeg regner med situasjonen i fremtiden vil bli det samme med 8 cores og mer enn 8 GB VRAM; det vil føre til flaskehalser i fremtidige spill, 1-2 år frem i tid.

Og du glemmer igjen at AMD RT er i versjon 1, nVidia er verjon 2 for å si det enkelt. Her vil vi nok se mer forbedringer hos AMD enn hos nVidia som allerede er kommet lenger, og typisk ser mindre forbedringspotensiale.

Jeg gjentar det jeg før skrev: vi er mennesker og vi rettferdiggjør og rasjonaliserer våre valg. Du har noen punkter som gjør at du har valgt eller vil velge nVidia, og davbil du typisk finne punkter som støtter opp under ditt valg, dette er normalt. Jeg har IKKE bestemt meg, er faktisk ikke sikkert jeg kjøper denne generasjonen verken AMD eller nVidia, men jeg er åpen og nysgjerring på AMD 6000 serien, så jeg er åpen og positiv til hva vi kan se av forbedringer der. For meg er heller ikke RT performance viktig, men nVidia har fordeler med encoder og RT Studio (eller hva det heter).

Så kort sagt er jeg åpen og positiv til AMD 6000 GPU serien, og jeg tror vi vil se relativt store forbedringer på den hardwaren innen 1 år (pga begge de store consolene har AMD hardware og 6000 serien er fortsatt ung og ny). nVidia derimot, det de nå kan gjøre for mer performance er å kaste mer hardware på problemet, som igjen vil føre til enda mer penger må brukes for mer performance. Feks det som nå kommer til å skje med nye versjoner av 3080 etc med mer VRAM, blir bare dyrere kort, enda dyrere enn AMD sine 6000 kort.

Jeg er ingen fanboy. Jeg har hatt nVidia nesten hele tiden. Hadde ett AMD kort for ca 13 år siden, og før nVidia var det 3dfx kort. Men jeg har troen på AMD med 6000 serien, og jeg er temmelig sikker på at vi vil se store forbedringer med tanke på software/driver oppgraderinger, med andre ord gratis mer performance. Det er også forkastelig det som nVidia prøvde gjøre overfor Hardware Unboxed ref at nVidia mente de ikke fokuserte positivt nok på RT, og ville banne HU fra å få nVidia hardware for release testing. Det i seg selv er nesten nok for meg å ikke ønske kjøpe nVidia hardware neste gang, rett og slett forkastelig. Hadde AMD hatt like bra encoder som nVidia, hadde det for meg vært et enkelt valg å gå for AMD 6000 serien om jeg skulle kjøpt GPU nå (noe jeg ikke skal pr i dag, men uvisst noen måneder fremover).

Men du kan selvsagt være uenig, og det er helt ok. :)

  • Innsiktsfullt 1
Lenke til kommentar
Videoannonse
Annonse
1 hour ago, PantZman said:

 

Fin boost i en del spill, men det er innlysende at en del game-engines IKKE liker SAM. Vil nok bli standard etter hvert som også nVidia kommer med sin versjon. Hadde jeg installert nå, hadde jeg satt SAM på, helt klart. Dette vil modnes over tid og bli bedre støtte for.

Lenke til kommentar
HKS skrev (5 timer siden):

Jepp, det er i bunn og grunn det jeg prøvde å si... :)

AMD sin viktigste "optimering" er å bruke så få "rays" som mulig. Men en spillutvikler vil måtte ha en metode for å dynamisk skalere hvor mange "rays" som brukes, da en Xbox X og PS 5 er betydelig svakere på RT enn en PC med 6800XT/6900. Å begrense antall "rays" vil også gi bedre ytelse på Ampere/Turing. *

Det med FP32 stemmer. Vega-arkitekturen var lenge rå FP32-konge, innenfor compute vil AMD sin CDNA-arkitektur (les: oppfølger til Vega) ta over denne titlen, da compute-brikken i Ampere familien (GA100) ikke kan kjøre to FP32-operasjoner per core. Men nå er ofte også en compute-workload i likhet med å rendre en hel frame ofte en sammensatt og kompleks operasjon.

 

* Nvidia har også laget en litt mer teknisk "best parctice guide" på hvordan få mest ut fra Raytracing... Denne ble egentlig laget for Turing, men er nå oppdatert for Ampere. Så vidt jeg kan se vil flere av disse "tipsene" fra Nvidia også være gode optimeringer for RDNA2.

Blir vel litt cherrypicking blant poengene i videoen, men la gå. Selvfølgelig vil færre rays gi bedre ytelse, blir det samme som å si at færre triangler gir bedre ytelse (overhead) i rasterisering.

Det er flere poeng, slik som i linken du sendte fra nVidia, som gjør at RT kan virke optimalt på forskjellig HW annet enn å kun kutte ned på antall "stråler". Selv om det selvfølgelig er et viktig poeng for begge sett opp mot ytelse.

At de ligger sånn ca. 1. gen bak er utenfor tvil, men at det kan ligge et potensiale der som ikke er utnyttet kan og være tilfelle.

Igjen, argumentet mitt ligger i at enn så lenge har utviklere kun trengt å forholde seg til en produsents løsning av RT.

Lenke til kommentar
JarleGutt skrev (2 timer siden):

Fin boost i en del spill, men det er innlysende at en del game-engines IKKE liker SAM. Vil nok bli standard etter hvert som også nVidia kommer med sin versjon. Hadde jeg installert nå, hadde jeg satt SAM på, helt klart. Dette vil modnes over tid og bli bedre støtte for.

Hadde vært flott om det kunne aktiveres pr spill og ikke én for alle modus slik det er nå.

Lenke til kommentar
3 minutes ago, PantZman said:

Hadde vært flott om det kunne aktiveres pr spill og ikke én for alle modus slik det er nå.

Resize av PCIe BAR er en ganske komplisert operasjon som helst bør gjøres kun når drivere lastes inn av operativsystemet. Så man må da potensielt laste inn og ut GPU-driver hver gang man bytter til en ny applikasjon som bruker GPU. Uu i fra hvordan I/O minne er allokert av operativsystemet må man da potensielt også endre på minneområdet til andre enheter som er lastet inn.

  • Innsiktsfullt 1
Lenke til kommentar

Voldsomt så viktig Hardware Unboxed var da? Hvis alle meningene og inntrykkene dine kommer fra en enkelt tester lever du i et ekko-kammer. Personlig leser jeg heller en test på 5-10 minutter enn å kaste bort 25-30 minutter på å høre tall lest opp for meg.

La meg gi folk en blindtest på DLSS: A og B, og C og D

Klarer noen å gjette hvilket opptak som er tatt med DLSS og hvilket som er uten? Prøv å bygge opp en mening på hvilken av disse du heller vil ha. Jeg begrenset framerate til 30 bilder i sekundet i spillet slik at det ikke skulle bli åpenbart hvilket opptak som var med DLSS.
Svaret ligger i spoileren:

 

A og D er uten DLSS,
B og C er med DLSS

 

Angående kjernetall, så har jeg testet å skru av kjerner i Cyberpunk 2077, som angivelig er veldig glad i mange kjerner:

CX_2021-01-06_13-33-19_Comparison.png.1a0b542dcce7d1293aff7c866188f4c6.png

For kontekst var dette testet i begynnelsen av oppdraget "Play it safe", som vist i C og D, men uten RT skrudd på.

Av en eller annen grunn virker det ikke som om det er noe stort poeng med mer enn 6 kjerner i Cyberpunk 2077, i alle fall ikke der jeg testet uten RT.

 

JarleGutt skrev (3 timer siden):

Så kort sagt er jeg åpen og positiv til AMD 6000 GPU serien, og jeg tror vi vil se relativt store forbedringer på den hardwaren innen 1 år (pga begge de store consolene har AMD hardware og 6000 serien er fortsatt ung og ny). nVidia derimot, det de nå kan gjøre for mer performance er å kaste mer hardware på problemet, som igjen vil føre til enda mer penger må brukes for mer performance. Feks det som nå kommer til å skje med nye versjoner av 3080 etc med mer VRAM, blir bare dyrere kort, enda dyrere enn AMD sine 6000 kort.

Vega skulle angivelig også bli bedre over tid (det stemte ikke), og RDNA1 har det jo skjedd mye med etter lansering i 2019 😉

Sist gang det skjedde "store forbedringer" gjennom drivere var med første generasjon GCN i 2012 10 måneder etter lansering.

Endret av N o r e n g
  • Liker 3
Lenke til kommentar

Må korrigere deg litt der Noreng ang Vega. Vega ble endel bedre over tid, Vega 56 var ca on pair\ørlite raskere enn 1070 i starten, nå ligger det stort sett godt foran, i enkelte spill på nivå med 1070ti. 1080 var bedre enn Vega 64 ved launch, men nå er Vega 64 bedre i mange spill. Vega er fremdeles noe dritt (unntatt til mining\compute) bare så det er sagt ;) Den som hadde tolmodighet ble belønna med at når det var endel bedre etter 2-3 år begynte det å bli på tide å oppgradere ;)

perfrel_2560_1440.png (500×890) (tpucdn.com)

relative-performance_2560-1440.png (500×1490) (tpucdn.com)

 

Hva DLSS angår var 1.0 temmelig dårlig i flere spill, mens 2.0 er helt konge! Såklart bør man ha på DLSS når man sammenligner med AMD da bildekvaliteten er helt på høyde med nativ oppløsning i mange spill forutsatt at du velger balanced eller quality.

Lenke til kommentar
15 hours ago, N o r e n g said:

Voldsomt så viktig Hardware Unboxed var da? Hvis alle meningene og inntrykkene dine kommer fra en enkelt tester lever du i et ekko-kammer. Personlig leser jeg heller en test på 5-10 minutter enn å kaste bort 25-30 minutter på å høre tall lest opp for meg.

La meg gi folk en blindtest på DLSS: A og B, og C og D

Klarer noen å gjette hvilket opptak som er tatt med DLSS og hvilket som er uten? Prøv å bygge opp en mening på hvilken av disse du heller vil ha. Jeg begrenset framerate til 30 bilder i sekundet i spillet slik at det ikke skulle bli åpenbart hvilket opptak som var med DLSS.
Svaret ligger i spoileren:

  Reveal hidden contents

A og D er uten DLSS,
B og C er med DLSS

 

Angående kjernetall, så har jeg testet å skru av kjerner i Cyberpunk 2077, som angivelig er veldig glad i mange kjerner:

CX_2021-01-06_13-33-19_Comparison.png.1a0b542dcce7d1293aff7c866188f4c6.png

For kontekst var dette testet i begynnelsen av oppdraget "Play it safe", som vist i C og D, men uten RT skrudd på.

Av en eller annen grunn virker det ikke som om det er noe stort poeng med mer enn 6 kjerner i Cyberpunk 2077, i alle fall ikke der jeg testet uten RT.

 

Vega skulle angivelig også bli bedre over tid (det stemte ikke), og RDNA1 har det jo skjedd mye med etter lansering i 2019 😉

Sist gang det skjedde "store forbedringer" gjennom drivere var med første generasjon GCN i 2012 10 måneder etter lansering.

Jeg ser alltid på HU fordi jeg synes de gjør en god og grundig jobb, og er upartiske. Noe nVidia likte lite. Jeg sjekker selvsagt også andre kanaler og skrevne reviews, men jeg går ofte til HU først, for jeg vet de gjør en god og grundig jobb og er ganske så upartiske.

For meg å kunne sammenligne opptak (aner ikke encoding settings), på min laptop, via youtube blir ikke realistisk, det blir alt for mange ting som har påvirket kvaliteten før den kommer til meg. Det er komprimering i opptaket, det er komprimering i avspilling fra youtube og jeg sitter som sagt ikke med en gedigen monitor der jeg kan sette ved siden av hverandre. Hvis du vil vi skal sammenligne for deg, så ta bilde av samme scene/ting, og legg de ut i opprinnelse kvalitet og oppløsning.

Jeg vet at DLSS v 2 er bra, og selvsagt vil mange bruke det, men det er bare ikke det samme som å kjøre i native oppløsning. Du vil selvsagt få langt høyere FPS, men når du går etter i sømmene vil du se at det er forskjeller Med DLSS rendrer kortet bildene i langt lavere oppløsning, og deretter 'sminker' bildet opp (en form for anti-aliasing om du vil). Gjør noen det der i noen form for review, ville de blitt avvist pga juks med en gang og ville mistet sine lesere. For det er rett og slett ikke rettferdig sammenligning, og miss-visende.

Men som sagt, dersom du mener noe annet, er det helt greit, ikke noe problem for meg :)

  • Liker 1
  • Innsiktsfullt 1
Lenke til kommentar
JarleGutt skrev (1 time siden):

Jeg ser alltid på HU fordi jeg synes de gjør en god og grundig jobb, og er upartiske. Noe nVidia likte lite. Jeg sjekker selvsagt også andre kanaler og skrevne reviews, men jeg går ofte til HU først, for jeg vet de gjør en god og grundig jobb og er ganske så upartiske.

For meg å kunne sammenligne opptak (aner ikke encoding settings), på min laptop, via youtube blir ikke realistisk, det blir alt for mange ting som har påvirket kvaliteten før den kommer til meg. Det er komprimering i opptaket, det er komprimering i avspilling fra youtube og jeg sitter som sagt ikke med en gedigen monitor der jeg kan sette ved siden av hverandre. Hvis du vil vi skal sammenligne for deg, så ta bilde av samme scene/ting, og legg de ut i opprinnelse kvalitet og oppløsning.

Jeg vet at DLSS v 2 er bra, og selvsagt vil mange bruke det, men det er bare ikke det samme som å kjøre i native oppløsning. Du vil selvsagt få langt høyere FPS, men når du går etter i sømmene vil du se at det er forskjeller Med DLSS rendrer kortet bildene i langt lavere oppløsning, og deretter 'sminker' bildet opp (en form for anti-aliasing om du vil). Gjør noen det der i noen form for review, ville de blitt avvist pga juks med en gang og ville mistet sine lesere. For det er rett og slett ikke rettferdig sammenligning, og miss-visende.

Men som sagt, dersom du mener noe annet, er det helt greit, ikke noe problem for meg :)

Hvis HU er den "eneste" upartiske testeren, og "alle andre" er partiske mot Nvidia, kan det da være tilfelle at det er HU som er AMD-partiske?

Poenget mitt var at DLSS Quality takler bevegelse i bildet bedre enn standard TAA, det er færre flimrende kanter i bakgrunnen med DLSS på enn av. Opptaket ble gjort med NVENC i 2560x1440 med 50 Mbps, og så lastet opp til Youtube.

Uansett, hvis du ikke kan peke på forskjellene er jo DLSS en gratis ytelsesoppgradering for Nvidia som AMD ikke har. Da vil alle testere som ikke viser fordelene med DLSS male et bilde som er til dels AMD-partisk. I praksis kan DLSS gjøre enkelte detaljer på nært hold litt mindre skarpe, men samtidig vil det få frem flere og mer tydelige detaljer i bakgrunnen og fjerne støy fra bevegende kanter og linjer. Det som er tydelig med DLSS er at den bruker data fra tidligere bilder sammen med nåværende bilde, og på den måten får hentet frem flere detaljer enn ellers, det er der nøkkelen ligger for å få frem disse ekstra detaljene.

  • Liker 2
  • Innsiktsfullt 1
Lenke til kommentar
JarleGutt skrev (20 timer siden):

Skrev jeg HU er eneste upartiske? Hvor?

Ut fra hva du skrev virket det som du mente at HU var mer upartiske enn andre testere, da blir det nødvendig å stille seg selv spørsmålet om det er HU som er upartisk, eller om de faktisk er partiske. Se selv:

JarleGutt skrev (21 timer siden):

Jeg ser alltid på HU fordi jeg synes de gjør en god og grundig jobb, og er upartiske. Noe nVidia likte lite. Jeg sjekker selvsagt også andre kanaler og skrevne reviews, men jeg går ofte til HU først, for jeg vet de gjør en god og grundig jobb og er ganske så upartiske.

 

 

Alternativt, hvilke testere er det du mener er partiske?

  • Liker 1
Lenke til kommentar
11 minutes ago, N o r e n g said:

Alternativt, hvilke testere er det du mener er partiske?

Godt spørsmål. For mange år siden (snakker da 90 tallet og tidlig 2000) var Anandtech og Toms Hardware de jeg alltid sjekket ut, men må si det er en del år siden jeg har brydd meg med de.

Jeg har ikke noen liste over hvem jeg mener er partiske, men om du ser på MANGE youtubere etc, er det innlysende at de nesten aldri sier noe negativt om de tingene de får tilsendt gratis. Dette er ikke tilfeldig, de lever av views, får de ikke mer gratis hardware, får de laget færre videoer, får færre views, og de vil ikke overleve, så de svelger noen kameler og gir mer eller mindre skjeve/biased reviews. De kan feks bare fremheve det positive, ikke det negative, og heller ikke sammenligne med andre produkter de konkurrerer med. Dette er typisk de små / medium store kanalene som gjør.

Mange av de store kan være mye mer frimodige, men vi ser da hva som kan skje ref HU og nVidia. Men også der er det selvsagt at mange har avtaler som gjør at de også må passe seg litt, ellers mister de sponsor penger.

Som sagt før er grunnen til at jeg alltid sjekket ut HU er fordi jeg synes de er upartiske, gjør en grundig jobb, og jeg liker hvordan de presenterer testene sine. Og de er bare 1 av flere jeg pleier sjekke ut.

  • Innsiktsfullt 1
Lenke til kommentar
JarleGutt skrev (13 timer siden):

Pent! Men:

- bare en rad?

- så lite reservoar?

- klare ikke se stort bilde av builden fikk det frem litt senere

Ja, blir det kan bare bli bedre med en radiator til og et større reservoar.

Som bygget er nå hadde det passet bedre i en O11 dynamic mini kasse 🙂

Det får duge til eg får dyttet inn en radiator til.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...