Gå til innhold

AMD RDNA2 (Radeon RX 6xxx)


ExcaliBuR

Anbefalte innlegg

ExcaliBuR skrev (18 minutter siden):

Ikke uenig i antakelsene. Men jeg vil påstå at vi ikke vet noe som Super Resolution og hvordan det vil fungere sammenlignet mot DLSS. Så å anta at heftig drop i FPS med RT på Navi blir som å anta at det beholdes med RT + SR når det kommer.

RX 6800-serien mister mye mer ytelse enn tilsvarende Nvidia-kort når RT er skrudd på: https://www.eurogamer.net/articles/digitalfoundry-2020-amd-radeon-rx-6800-and-6800-xt-review?page=5

JarleGutt skrev (8 minutter siden):

ehhhh javel?.. da blir det vel garantert mer fokus på VRAM da...prisen derimot blir vel skummel....

NVIDIA GeForce RTX 3080 Ti 20GB, RTX 3060 12GB Entries Now Spotted Also for Gigabyte (guru3d.com)

Tipper samme pris som RX 6900 XT, med ytelse et hårstrå bak RTX 3090.

Når det eventuelt kommer

Lenke til kommentar
Videoannonse
Annonse
Nizzen skrev (3 minutter siden):

Nei :)

3080 til 8k er og blir 2020/2021 sitt beste gpukjøp :)

 

N o r e n g skrev (4 minutter siden):

Tipper samme pris som RX 6900 XT, med ytelse et hårstrå bak RTX 3090.

Når det eventuelt kommer

Enighet ;)

Hva som er best kjøp blir irrelevant for hva jeg mente med kommentaren min, jeg snakket om argumentasjonen som var tidligere ang. VRAM mengde.

Lenke til kommentar
N o r e n g skrev (6 minutter siden):

RX 6800-serien mister mye mer ytelse enn tilsvarende Nvidia-kort når RT er skrudd på: https://www.eurogamer.net/articles/digitalfoundry-2020-amd-radeon-rx-6800-and-6800-xt-review?page=5

Vi får se, virker som (om du ser filmen jeg postet) det er måter å optimalisere bruken av RT på til forskjellig HW.

Enn så lenge har nVidia hatt monopol på RT og hvilken HW som blir utviklet titler med RT for, så, med fare for å dra en klisjé, er jeg spent på fremtidige titler og RT mer enn forrige titler (hovedsakelig GameWorks) og RT.

Endret av ExcaliBuR
Lenke til kommentar
N o r e n g skrev (4 timer siden):

 

Joda, RX 6800 med 16GB VRAM vil ikke møte VRAM-veggen, men hva hjelper det når ytelsen går i dass med RT aktivert, spesielt uten noe alternativ for DLSS (som er absolutt nødvendig).

Ta for eksempel Cyberpunk 2077, der møter 3070 VRAM-veggen med DLSS og RT aktivert i 4K, men 40 fps i gjennomsnitt er jo bortimot uspillbart i utgangspunktet i Cyberpunk 2077. Hva klarer så et RX 6800 i Cyberpunk 2077 på UHD? Rundt 31 fps uten DLSS og uten RT. Når RT-støtten kommer på plass faller nok ytelsen ned til ca 15 fps med RT på, men du har i alle fall ingen VRAM-flaskehals 😂

Poenget mitt var at argumentet om at lite v-ram veies opp med god RT-ytelse ikke er særlig bra, ettersom man møter vram-veggen når man aktiverer raytraycing. At 3070 f.eks. har god ray tracing-ytelse er jo ikke særlig trøst dersom man ikke har nok vram til å bruke raytracing.

Nvidia virker å innse dette selv, med lansering av nye ti-varianter.

At amd-kortene ikke duger til raytracing er jeg klar over, men var altså ikke poenget.

Endret av Donkey Kong
Lenke til kommentar

Texture packs avgjør mest for vram på en gpu. For meg virker Nvidia å kjøre på grensen her både med 3070 og 3080 for fremtiden. Men etter hva alle sier så er ampere kortene dyre å lage så et eller annet sted måtte de vel kutte kostnadene. 
 

Når det kommer Rt og AMD så kommer de til å få mye drahjelp fra konsollene. Vi får se hvordan ytelsen her blir etterhvert. Og AMD kommer sikkert med en eller annen form for oppskalering ala DLSS innen 2021.. wow.. vi er nærmere 2050 enn 1990 😮

Lenke til kommentar
Nizzen skrev (11 timer siden):

Nei :)

3080 til 8k er og blir 2020/2021 sitt beste gpukjøp :)

De som faktisk fikk seg et TUF OC til 8300,- eller hva det var gjorde et ekstremt godt kjøp. Med mindre cryptomininga får seg et solid krakk vil neppe prisene bli gode i 2021 og evt bedre kort enn 3080 vil gi mindre for pengene. 3070ti ryktes som et noe nedskalerte 3080, men prisen blir sikkert over 8k 😕

Lenke til kommentar
2 hours ago, Cowboystrekk said:

De som faktisk fikk seg et TUF OC til 8300,- eller hva det var gjorde et ekstremt godt kjøp. Med mindre cryptomininga får seg et solid krakk vil neppe prisene bli gode i 2021 og evt bedre kort enn 3080 vil gi mindre for pengene. 3070ti ryktes som et noe nedskalerte 3080, men prisen blir sikkert over 8k 😕

Lista er lagt av Nvidia på dette.. de lanseringsprisene og FE prisene var bare gimmick for å lure folk.

Ampere kommer til å ligge på dagens nivå resten av sin levetid. Eneste som kan hindre det er AMD men tviler på at de gidder. Kommer til å ligge akkurat lavt nok til å selge ut akkurat det antall kort de ønsker uten å presse ned prisen, Vinn vinn for begge selskapene

Lenke til kommentar
scuderia skrev (45 minutter siden):

Lista er lagt av Nvidia på dette.. de lanseringsprisene og FE prisene var bare gimmick for å lure folk.

Ampere kommer til å ligge på dagens nivå resten av sin levetid. Eneste som kan hindre det er AMD men tviler på at de gidder. Kommer til å ligge akkurat lavt nok til å selge ut akkurat det antall kort de ønsker uten å presse ned prisen, Vinn vinn for begge selskapene

Vi får se, Samsungs 8nm er mye billigere enn TSMC 7nm og spesielt modellene med vanlig GDDR6 som 3070 og lavere bør kunne bli billigere på sikt når produksjonen øker. Tror Cryptomininga blir avgjørende. Fortsetter den å øke vil prisene forbli elendige, men får vi et nytt krakk som vi har sett flere ganger tidligere kan prisene på budsjettkortene komme ned på msrp der de bør være. Pr nå er prisen ca 10% over det den bør være for Ampere og nærmere 20% over for RDNA2.

Lenke til kommentar
3 hours ago, Cowboystrekk said:

De som faktisk fikk seg et TUF OC til 8300,- eller hva det var gjorde et ekstremt godt kjøp. Med mindre cryptomininga får seg et solid krakk vil neppe prisene bli gode i 2021 og evt bedre kort enn 3080 vil gi mindre for pengene. 3070ti ryktes som et noe nedskalerte 3080, men prisen blir sikkert over 8k 😕

Har et TUF OC til 7000,- ventende som ble bestilt 19. september. Men med stuntet komplett  dro på mitt 3090 Strix OC er jeg jammen meg ikke sikker på hva de finner på.

Lenke til kommentar
Quote

AMD has filed a patent for something that everyone knew would eventually happen: an MCM GPU Chiplet design. Spotted by LaFriteDavid over at Twitter and published on Freepatents.com, the document shows how AMD plans to build a GPU chiplet graphics card that is eerily reminiscent of its MCM based CPU designs. With NVIDIA working on its own MCM design with Hopper architecture, it's about time that we left monolithic GPU designs in the past and enable truly exponential performance growth.

https://wccftech.com/amd-files-mcm-based-gpu-patent-finally-bringing-the-mcm-approach-to-radeon-gpus/

  • Liker 1
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...