Gå til innhold

AMD RDNA2 (Radeon RX 6xxx)


ExcaliBuR

Anbefalte innlegg

Videoannonse
Annonse
9 minutes ago, Raven_Heart said:

BadCat snakker om å bruke grafikkortet til såkalt video encoding. Kort fortalt er dette en prosess som komprimerer digital video fra originalformatet til noe som er lettere å håndtere og distribuere, f eks over internett. Dette gjøres hovedsaklig på to måter - Software encoding eller hardware encoding. Software encoding kjøres på CPU som et hvilket som helst annet program, men kan fort bli veldig kraftkrevende hvis man komprimerer video av høy(ish) kvalitet. Hardware encoding kjøres via spesielt tilpasset hardware, enten ett eget ekspansjonskort eller via grafikkortet, og tar det meste av belastningen bort fra CPU slik at den kan brukes til andre ting. Dette er blant annet fordelaktig ved streaming (noe BadCat driver med), siden CPU kan levere best mulig (spill)ytelse istedenfor å drukne i videokomprimeringsarbeid.

Så det BadCat egentlig sier er "AMD-kort passer ikke til mitt personlige bruksmønster, siden hardware encoding-ytelsen ikke tilfredsstiller de kravene jeg har," og glemmer (eller ignorerer bevisst) at ikke alle har de samme behovene.

TL;DR: Hvis du driver mye med video encoding og/eller streaming eller lignende, så henger AMD en del etter i forhold til Nvidia og du bør tenke deg om to ganger før du velger. Hvis du ikke driver med sånt og bare vil spille, så kan du glatt ignorere kommentaren til BadCat.

Flott svar!
Har du kanskje peiling på hvordan AMD sin innspillings opplegg er i forhold til nVidia sin Shadowplay? Altså hvordan det fungerer, hvor mye resurser det bruker av skjermkortet etc... Virker som om det er svært få som vet noe om dette. Kanskje fordi "ingen" burker noe særlig AMD gpuer per dags dato...

Lenke til kommentar
Nizzen skrev (18 minutter siden):

Flott svar!
Har du kanskje peiling på hvordan AMD sin innspillings opplegg er i forhold til nVidia sin Shadowplay? Altså hvordan det fungerer, hvor mye resurser det bruker av skjermkortet etc... Virker som om det er svært få som vet noe om dette. Kanskje fordi "ingen" burker noe særlig AMD gpuer per dags dato...

Eller så kan det ha noe med at det er veldig få Youtubere her i tråden. Jeg har absolutt ingen interesse av å recorde min gameplay så jeg har aldri testet ut Relive.

PC Gamer har gjort en test:

Overall, activating ReLive dropped the average frame rate by a small but noticeable 5 to 10 frames per second in each game. That’s about the same as we saw with Nvidia’s ShadowPlay, built into the company’s GeForce Experience software for GeForce graphics cards.

Link til artikkelen: https://www.pcworld.com/article/3319476/amd-relive-review.html

  • Liker 2
Lenke til kommentar
6 hours ago, nems said:

Hvor får man kjøpt 6900xt når den tid kommer? Er det vanlig salg eller har amd egen sjappe?

Narvesen?

Prøv prisjakt.no og prisguiden.no du. Kanskje du finner den merkevaren du helst vil ha via å søke etter produktnavn og se om varene dukker opp tilknyttet nettbutikkene.

Endret av G
Lenke til kommentar
1 hour ago, Raven_Heart said:

BadCat snakker om å bruke grafikkortet til såkalt video encoding. Kort fortalt er dette en prosess som komprimerer digital video fra originalformatet til noe som er lettere å håndtere og distribuere, f eks over internett. Dette gjøres hovedsaklig på to måter - Software encoding eller hardware encoding. Software encoding kjøres på CPU som et hvilket som helst annet program, men kan fort bli veldig kraftkrevende hvis man komprimerer video av høy(ish) kvalitet. Hardware encoding kjøres via spesielt tilpasset hardware, enten ett eget ekspansjonskort eller via grafikkortet, og tar det meste av belastningen bort fra CPU slik at den kan brukes til andre ting. Dette er blant annet fordelaktig ved streaming (noe BadCat driver med), siden CPU kan levere best mulig (spill)ytelse istedenfor å drukne i videokomprimeringsarbeid.

Så det BadCat egentlig sier er "AMD-kort passer ikke til mitt personlige bruksmønster, siden hardware encoding-ytelsen ikke tilfredsstiller de kravene jeg har," og glemmer (eller ignorerer bevisst) at ikke alle har de samme behovene.

TL;DR: Hvis du driver mye med video encoding og/eller streaming eller lignende, så henger AMD en del etter i forhold til Nvidia og du bør tenke deg om to ganger før du velger. Hvis du ikke driver med sånt og bare vil spille, så kan du glatt ignorere kommentaren til BadCat.

Skjønner ikke problemet jeg heller. Det stod vel at AV1 støttes et sted, så hva mangler man da egentlig?

Lenke til kommentar

Ang streaming ser du på en 15-25fps decrease pga system load fra programmene som OBS osv. Mest CPU som benyttes men OBS kutter av en del for seg selv av grafikk kortet når du er i admin-mode for å ikke lagge. AMD sin encoder er ikke like kraftig som Nvidia sin, så om man ser på medium-slow kvaliteten med Nvidia så er AMD på noe Fast-medium nivå, om man sammenligner med x264 encoding.

Når det kommer til vanlig opptak så er de ganske like, men Nvidia er mye mer utbredt når det kommer til software, og de støtter 8K opptak. En veldig kort take på det hele.

Lenke til kommentar

Saken er at AMD ikke har gjort noe med encode på over 6 år. Folk som har nytte av encode er en betydelig andel av brukermassen, ikke minst etter at adobe fikk inn støtte for NVENC. De fleste som spiller har svært svake kort og det finnes det statistikk på, blant annet for Steam.

Det eneste jeg kan tenke meg som årsak er at AMD ikke ønsker å promotere funksjonalitet som kannibaliserer salg av egne prosessorer. "Kjøp 16-kjerne og kjør encode i programvare... Øh, glem det, kjøp 6-kjerne og kjør encode på grafikkortet i stedet."

 

Endret av BadCat
Lenke til kommentar
43 minutes ago, starflame said:

Ang streaming ser du på en 15-25fps decrease pga system load fra programmene som OBS osv. Mest CPU som benyttes men OBS kutter av en del for seg selv av grafikk kortet når du er i admin-mode for å ikke lagge. AMD sin encoder er ikke like kraftig som Nvidia sin, så om man ser på medium-slow kvaliteten med Nvidia så er AMD på noe Fast-medium nivå, om man sammenligner med x264 encoding.

Når det kommer til vanlig opptak så er de ganske like, men Nvidia er mye mer utbredt når det kommer til software, og de støtter 8K opptak. En veldig kort take på det hele.

Feil, NAVI er så vidt foran SUPERFAST på H264 og det ser ille ut. FASTER er laveste akseptable preset og helst medium.
j1Of2Ou.jpg

 

 

Endret av BadCat
Lenke til kommentar
Christian Thork skrev (30 minutter siden):

Noen tørr å tippe pris på 6800/6800XT?

6500ish for 6800 (579usd), 7500ish for 6800XT (649usd). Typisk legger norske nettbutikker på pris tilsvarende 11-12usd, noe som samsvarer bra med mva og dagens dollarkurs rundt 8.5-9NOK. Om det stemmer at 6800XT er opptil 20% raskere blir prisdifferansen i minste laget synes jeg. 

  • Liker 1
Lenke til kommentar

@starflame
Hvis du ikke vet det så er Adam som står bak tallene pro AMD og han har testet og sammenlignet encode i årevis.

Du får legge frem kilder som støtter opp om at kvaliteten er der du påstår.

VCN 3.0 er implementert i NAVI 2( NAVI har VCN 2.0) med blant annet AV1-decode, men det er ikke noe som tilsier at H.264 (MPEG-4 AVC) er forbedret.

Spoiler
Quote

The latest open-source/Linux bring-up for AMD's "Sienna Cichlid", a.k.a. Navi 2, is enabling VCN 3.0 video encode support.

Based on the Linux kernel patches for Navi 2 we've known there is "VCN 3.0" with this next-generation GPU while now the Mesa-side patches have been merged into Mesa 20.2.

The VCN 3.0 enablement doesn't reveal anything too noteworthy and no new video capabilities (such as AV1) are exposed as part of this initial patch set. The changes are part of Mesa 20.2 that will have the initial Navi 2 support when paired with Linux 5.9 and LLVM 11.0 or later.

Quote

Then what's the point of bumping the number if you did absolutely nothing?!

Ugh AMD, what a disappointment. Seriously, Intel and NVIDIA have 4:4:4 encode and you do not yet?! And your encoder is still the worst out of all of them?
And why do you have to cripple encoding support on every new iteration of your encoding block? Like I mean, VCE 3.x slowed down H.264 encoding just to allow HEVC encoding to exist...
Neither NVIDIA or Intel had to do that, ever.
And when you did implement 4:4:4, it was only for freaking I-frames (so not P-frames) and therefore too expensive on the bandwidth...
And even worse, this only lasted for the entirety of VCE 2.0's life... ...after that, 4:4:4 encoding support went away!
And it was so undocumented that I think only the PlayStation 4 ever used it for wireless display!

Quote

Unfortunately, hardware accelerated E/D video is the weakest part of AMD's GPUs. They seems to always be behind Intel/Nvidia's competition, feature wise. A couple days ago I was blabbering about how a older Ivy Bridge CPU had 4k/60fps H264 decoding, while newer AMD silicon like the Kaveri only had 1080p/60fps. Intel also got VP9 decoding first.

Shenanigans like this still push people to Intel on the HTPC market, for example.

Quote

AMD graphics seemed to be aimed at gamers and not people trying to get work done. A fair enough choice. Just keep it in mind next time you upgrade your graphics card. If your trying to get work done your going to be using a blob no matter whose card you buy so get one that actually does what you need to get done.

Quote
The answer should be obvious, AMD has obviously made the decision that the only way to fight Intel successfully is by having more cores at any given price point than Intel but the problem is that there are few tasks outside of HPC that can really utilize high core counts, compiling code, 3d rendering and video encoding are pretty much the only non-HPC tasks that can benefit from high core counts.

Because of this, AMD is not going to cannibalize its cpu sales by releasing gpu's that can do the job faster for a fraction of the cost. In fact, the only reason AMD even continues offering hardware encoding is because NVIDIA has invested so much of Intel's money* into hardware encoders.

I would argue Intel feels the same way, they don't want to cannibalize their cpu sales either but NVIDIA has forced their hand.

*For those that don't know, back in the late 2000's NVIDIA tried to enter the x86 cpu market but Intel stopped them. NVIDIA claimed that they had an x86 license that allowed them to make cpu's because they had a license to make chipsets, Intel said no, NVIDIA sued, and Intel paid them 1.5 billion over 5 years to settle the suit. NVIDIA turned around and invested that money in HPC, developing CUDA and eventually NVENC.

The only one of the 3 that really has any incentive to bring a hardware encoder to market is NVIDIA, though Intel's QSV is quite good.

For me the big question is who will bring a hardware AV1 encoder to market first and if I had to bet money I would say NVIDIA.
Quote

If I sat around in my underwear playing games all day like you I would think the same way. But I do have work to get done and it needs to get done on the GPU regardless of your failure to understand what is going on in the world.

Quote

Except that video encoding is very important for their target market of Windows desktop users and gamers, especially for their dGPU. Many people prefer NVIDIA due to it's superior video encoder. Sure, there are other reasons as well, but that's still an important reason.

So, I'd say that yes it is important. And please, let's stop acting like AMD is some struggling 3 person band working out of a garage. They have enough money and resources to improve things.

Lenke til kommentar

Jeg vet ikke noe om denne problematikken, men er det noe problem om jeg tar opp 2560x1440 i HEVC med 24 Mbps? Hvis jeg skulle laste opp mot YouTube altså?

Forøvrig tror jeg ikke AMD bekymrer seg for å kannibalisere markedet for prosessorene sine. De tjener mer på at kundene kjøper både Ryzen og Radeon enn bare Ryzen.

Konspirasjonsteorier om at de med vilje har holdt tilbake på videoenkoding kjøper jeg ikke. Det er mye enklere forklart med at de ikke hadde tid eller penger. RDNA2 som kommer nå var under utvikling tilbake da Vega 64 ble lansert, hvis valget sto mellom DXR eller videoenkoding forstår jeg godt at AMD valgte DXR.

Lenke til kommentar
Cowboystrekk skrev (30 minutter siden):

Ifølge Igors lab er max volt på 6800XT 1150mv, da slipper vi den ekstreme overvoltinga som 5700XT hadde med 1200mv, men fremdeles endel høyere Nvidia som ser ut til å makse ut rundt 1050mv stock.

RTX 3080 legger seg rundt 900-925 mV stock, skal du opp i 1050 mV går kortet fra 320W til ca 450W

Lenke til kommentar
N o r e n g skrev (1 minutt siden):

RTX 3080 legger seg rundt 900-925 mV stock, skal du opp i 1050 mV går kortet fra 320W til ca 450W

Se på TPU. Rapporterer fra testene deres. I korte perioder er volt oppe i rundt 1050mv, men faller til nærmere 900 og holder seg der det meste av tiden. Virker som det er gjenragende for alle Ampere-kort så langt. 

Lenke til kommentar
7 minutes ago, N o r e n g said:

Jeg vet ikke noe om denne problematikken, men er det noe problem om jeg tar opp 2560x1440 i HEVC med 24 Mbps? Hvis jeg skulle laste opp mot YouTube altså?

Forøvrig tror jeg ikke AMD bekymrer seg for å kannibalisere markedet for prosessorene sine. De tjener mer på at kundene kjøper både Ryzen og Radeon enn bare Ryzen.

Konspirasjonsteorier om at de med vilje har holdt tilbake på videoenkoding kjøper jeg ikke. Det er mye enklere forklart med at de ikke hadde tid eller penger. RDNA2 som kommer nå var under utvikling tilbake da Vega 64 ble lansert, hvis valget sto mellom DXR eller videoenkoding forstår jeg godt at AMD valgte DXR.

Både ja og nei. Du kunne ha gjort det, men optimalt ville det ikke ha vært. Det gir ikke mening å velge en dårligere løsning med viten og vilje. Kanskje du godtar det i starten, men hva etter noen måneder. Lite smart å velge ei løsning du ikke vil være fornøyd med over tid. Det store tapet kommer når du innser at du må skrote et arkiv med tidligere opptak pga for lav kvalitet.

HnTM8R0.jpg

Du motsier deg selv (De tjener mer på at kundene kjøper både Ryzen og Radeon enn bare Ryzen.) Det du skriver er hele poenget. 12-16-24-32 core har lite for seg til annet enn 3D-rendering og encode. Hvis man har encode i GPU er Ryzen med tosifret antall kjerner overflødig for de fleste. AMD ønsker selge 6800/XT/9600XT + 5900X/5950X, ikke 6800/XT/9600XT + 5600X/5800X

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...