Gå til innhold

AMD RDNA2 (Radeon RX 6xxx)


ExcaliBuR

Anbefalte innlegg

1 minute ago, Mumriken said:

Det vil bli betydelig bedre. Hadde du hatt en 6 core skylake cpu så hadde saken vært en annen, men haswell er utdatert.
Du kan fortsatt få grei ytelse fra 5960X med tuning av b-dies, men like greit å oppgradere IMO.

 

Ja, det er HELT uaktuelt å flikke på den PCen jeg har nå. Den vil bli brukt til andre ting. Skal jeg oppdatere så blir det hele boksen (ikke bare CPU etc), foruten om dersom jeg nå bare hadde kjøpt et nytt grafikk-kort, noe jeg ikke gjør med tanke på prisene.

Planen er en AMD 5900X, x570 mobo, 32 GB ram i dual lane/bank etc.

  • Liker 1
Lenke til kommentar
Videoannonse
Annonse
2 hours ago, JarleGutt said:

Ingen spill krever 16 GB VRAM, ingen som sier det. Les igjen.

Det en del viser er at 10 GB er FOR LITE for å kjøre spill på MAKS i høy oppløsning. For noen spill allerede nå, og 90% sikkert langt flere innen 1-2 år. Det er dette som diskuteres en del, og en del (fanboys) desperat prøver å si det ikke er et problem fordi de ikke har opplevd det. Men det er det, og det blir større i fremtiden. Og grunnen til denne diskusjonen begynte er fordi 3080 har bare 10 GB men 6800/6900 har 16 GB VRAM.

Om du vil vite mer om det så søk på feks 3080 VRAM 10 gb enough etc etc. I en tråd jeg fant tilfeldig i går, ble det senest rapportert for få dager siden at de smalt på 10 GB limiten og FPS gikk i dass. Og som jeg skrev, du møter IKKE dette problemet i typiske benchmarks, ingen reviews så langt jeg vet har rapportert om dette, det er ingame når du spiller og man stiller alt på maks, kjører kanskje i tillegg ekstra detaljerte texture packs og spiller normalt, ikke bare kjører en benchmark etc etc.

Neida, mange vil ikke se dette, men problemet er der allerede, det er poenget. Selv om de fleste kanskje ikke får dette problemet, betyr ikke at det ikke er der. Og å da blindt bare si nei det er ikke et problem, og blir det heller ikke, er ikke bare naivt, det er direkte løgn og missleding av folk. Jeg har skrevet det før; vi er mennesker og vi rettferdiggjør våre valg; en som ønsker kjøpe 3080 vil ikke høre at 10 GB VRAM er for lite, men for en som ønsker kjøpe 6800/6900 er 16GB en fordel etc etc.

Og som jeg skrev, når nVidia nå gir ut et lav performance kort med 12 GB VRAM, så er det for en grunn, og det er grunn til å begynne å tenke seg om. nVidia hadde ikke gjort dette uten grunn, de driver butikk, de skal selge kort. Det ryktes også at det kommer 3080 kort med mer minne enn 10 GB, og stemmer det så 'stakkars' de som har kjøpt dyre overprisa 3080 kort med bare 10 GB VRAM. Lykke til med å brukt-selge kortene med bare 10 GBN VRAM senere uten kraftig tap.

Og enda en gang; det er lov å mene noe annet, men enkelte ting er fakta, og endrer seg ikke selv om man stritter imot aldri så mye.

Setter pris på ditt perspektiv i debatten.

Men, kom til å tenke på at det jo er så veldig mange spill som benchmark'es. En kan jo nesten trekke ut konspirasjon her da at alle spill har optimalisert benchmarks eller at de er for sløve de som reviewer. Dersom det er slik du beskriver. Jeg står selv med 6800-varianten da XT var utsolgt og man fikk det man fikk på lanseringsdato.

Lenke til kommentar
1 hour ago, JarleGutt said:

Ok skjønner. Jeg kjører 1440p, regner ikke med jeg går høyere for desktop neste gang jeg kjøper monitor heller.

Så slik jeg da skjønner deg så vil det aller meste av spilling under 4K vil være CPU bottlenecked for disse nye kortene(?). Så om jeg hadde feks kjørt en 5900X CPU hadde jeg fått merkbart bedre FPS (aner ikke hvor mye vs 5820K på 4,2 GHz).

Har en 5900x og selv om det er blitt mye desktopbruk, så har jeg testet småspillet litt i 4K pga. 4K gaming--TV. Jeg har et godt inntrykk av CPU-en. Tenker at det er langt i fra det verste CPU-valget du kan gjøre.

Lenke til kommentar
2 minutes ago, G said:

Setter pris på ditt perspektiv i debatten.

Men, kom til å tenke på at det jo er så veldig mange spill som benchmark'es. En kan jo nesten trekke ut konspirasjon her da at alle spill har optimalisert benchmarks eller at de er for sløve de som reviewer. Dersom det er slik du beskriver. Jeg står selv med 6800-varianten da XT var utsolgt og man fikk det man fikk på lanseringsdato.

Jeg påstår ikke det. Men etter det jeg har lest så forekommer disse 10GB problemene under noen situasjoner, i noen spill. Poenget er at de forekommer, allerede nå, og da blir det ikke mindre av det i fremtiden, det blir mer av det.

Lenke til kommentar
2 hours ago, JarleGutt said:

Ingen spill krever 16 GB VRAM, ingen som sier det. Les igjen.

Det en del viser er at 10 GB er FOR LITE for å kjøre spill på MAKS i høy oppløsning. For noen spill allerede nå, og 90% sikkert langt flere innen 1-2 år. Det er dette som diskuteres en del, og en del (fanboys) desperat prøver å si det ikke er et problem fordi de ikke har opplevd det. Men det er det, og det blir større i fremtiden. Og grunnen til denne diskusjonen begynte er fordi 3080 har bare 10 GB men 6800/6900 har 16 GB VRAM.

Og som jeg skrev, når nVidia nå gir ut et lav performance kort med 12 GB VRAM, så er det for en grunn, og det er grunn til å begynne å tenke seg om. nVidia hadde ikke gjort dette uten grunn, de driver butikk, de skal selge kort. Det ryktes også at det kommer 3080 kort med mer minne enn 10 GB, og stemmer det så 'stakkars' de som har kjøpt dyre overprisa 3080 kort med bare 10 GB VRAM. Lykke til med å brukt-selge kortene med bare 10 GBN VRAM senere uten kraftig tap.

Og enda en gang; det er lov å mene noe annet, men enkelte ting er fakta, og endrer seg ikke selv om man stritter imot aldri så mye.

Ingen spill krever 16 GB i dag nei...

Konsollene som også brukes som et argument for 16GB har heller ikke mulighet til å bruke 16GB for grafikk. XBox Series X som er den av konsollene som har den sterkeste GPUen har kun 10GB tilgjengelig for grafikk.

Grunnen til at Nvidia putter 12GB på 3060 er også fordi alternativet hadde vært 6GB, og det er for lite. På GPUer er minnemengden  begrenset av båndbredden til minne, så med en 256-bit bus som AMD bruker på 6800/6900 så er valgene enten 8GB eller 16GB.

Morsomt at du maser så mye om fakta, når mesteparten av posten din er "egne meninger" ... :D

  • Liker 1
  • Innsiktsfullt 4
Lenke til kommentar
22 minutes ago, HKS said:

Ingen spill krever 16 GB i dag nei...

Konsollene som også brukes som et argument for 16GB har heller ikke mulighet til å bruke 16GB for grafikk. XBox Series X som er den av konsollene som har den sterkeste GPUen har kun 10GB tilgjengelig for grafikk.

Grunnen til at Nvidia putter 12GB på 3060 er også fordi alternativet hadde vært 6GB, og det er for lite. På GPUer er minnemengden  begrenset av båndbredden til minne, så med en 256-bit bus som AMD bruker på 6800/6900 så er valgene enten 8GB eller 16GB.

Morsomt at du maser så mye om fakta, når mesteparten av posten din er "egne meninger" ... :D

Mulig det, men hvorfor har da 3080 10GB, 3070 8GB, 3060 TI 8GB og 3060 12GB? Sier du at det er 'umulig' at disse kortene kunne alle hatt 10GB, 8GB, eller feks 12GB? Jeg kjøper ikke helt argumentasjonen her at antall GB vi ser i dag er BARE pga minnebussen. At det er avhengigheter er en annen sak, men at det er BARE dette som bestemmer antall GB kjøper jeg ikke helt. Men er dette et faktum, og så hvor kan vi lese om dette?

Jeg bruker ikke consol med 16GB som argument. Det jeg prøver formidle, og flere med meg, er at allerede pr i dag er 10GB VRAM på PC et problem om man skal kjøre enkelte spill i 4K alt på maks, også der man kan velge høyere textures og spille spillene normalt, ikke bare kjøre en benchmark loop. Og dette er ikke min mening eller synsing, dette kan du finne info om fra folk som har opplevd dette problemet siden de fikk 3080 og begynte bruke det i forskjellige spill med masse settings på maks. Derfor er det en fordel/ett poeng å kjøpe et kort med 16 GB VRAM i dag, for de som ikke bytter GPU hvert år.

Og igjen; dersom nVidia mener at alt over 10GB VRAM er poengløst; hvorfor ser det da ut som om det kommer 3080 kort med 20GB VRAM? De som lager GPUer, utvikler da ikke nye kort bare for spøk, de lever av å tjene penger, og de lager ikke ikke poengløse produkter som de ikke tror de får selge.'

Edit:

Og la meg legge til; dette er da ikke ang 'vinne en diskusjon', hvem som 'vinner' her endrer da ingen ting. Om 1-2 år vil vi veldig lett se hvem som 'hadde rett', men da er da denne tråden glemt. Jeg synes bare at det er greit å gjøre folk obs på at de vil møte på VRAM problemer i enkelte spill om du har 'bare' 10GB VRAM, og enda flere i fremtiden. Ikke kult å bruke mellom 10 og 15 000 på en GPU og oppleve at enkelte spill man spiller blir til slideshows pga man møter VRAM limit i enkelte spill og tilfeller, da hjelper det lite å kose seg med raytracing i 5-10 FPS. Men for all del, ikke tro på det, du har da fri vilje, tro hva du vil. Men det er dumt at enkelte 'fanboys' hardnakket mener det ikke er et problem, som fører til at enkelte folk gjør valg av GPU de kommer til å angre på.

Endret av JarleGutt
Lenke til kommentar
24 minutes ago, JarleGutt said:

Mulig det, men hvorfor har da 3080 10GB, 3070 8GB, 3060 TI 8GB og 3060 12GB? Sier du at det er 'umulig' at disse kortene kunne alle hatt 10GB, 8GB, eller feks 12GB?

Det handler blant annet om pris og binning. La oss ta kortene ett og ett...

3080: Bruker GDDR6X minne på en 320-bit bus. GDDR6X lages foreløpig kun i en størrelse, og mulighetene for Nvidia var enten 10 eller 20GB. Man valgte å gå ned fra 384-bit bus til 320-bit fordi man ønsket bedre muligheter til binning av brikker (3090 krever alle minnekontrollere). Hadde de valgt 20GB så ville det også kunne blitt problemer med levering av kort grunnet tilgjengelighet av GDDR6X minne (det er kun en produsent av GDDR6X foreløpig)

3070: 256-bit men bruker kun GDDR6 minne. Her var valget 8, 16 eller 32GB. Her ble nok 8GB valgt fordi dette ble sett som et 1440p-kort primært, samt at man dessverre var litt begrenset av at man valgte å gå for 10GB på 3080. GDDR6X ble ikke valgt på 3070 grunnet både pris og bekymring for volum på GDDR6X i starten. Det kan være aktuelt på en "Ampere-refresh" med 192-bit bus og GDDR6X minne.

3060Ti: 256-bit kort, samme som 3070. I denne prisklassen må man ha GDDR6 minne.

3060: 192-bit minnekontroller, så her er valgene i praksis 6GB og 12GB. 6GB begynner også å bli for lite for 1080p og 1440p.

AMD valgte å gå for en 256-bit bus kombinert med en "on-chip" cache. AMD har fremdeles ikke like effektive minnekontrollere som Nvidia, og skulle de klart å "mate" Navi21 effektivt med 80 CU så hadde de trengt et 512-bit GDDR6-bus som er dyrt og komplisert spesielt med tanke på PCB og antall minnebrikker eller så måtte de brukt HBM2e minne som også er dyrt. GDDR6X ble utviklet eksklusivt for Nvidia av Micron, og er foreløpig ikke tilgjengelig for AMD (men det blir det i neste runde). On-chip cache er ting både AMD og Nvidia har jobbet med de siste årene, og de kommer begge til å bruke det i fremtidige chiplet- og compute produkter. Så AMD så det også som en nytte å få litt praktisk erfaring med dette.

  • Liker 1
  • Innsiktsfullt 5
Lenke til kommentar
JarleGutt skrev (24 minutter siden):

Jeg bruker ikke consol med 16GB som argument. Det jeg prøver formidle, og flere med meg, er at allerede pr i dag er 10GB VRAM på PC et problem om man skal kjøre enkelte spill i 4K alt på maks, også der man kan velge høyere textures og spille spillene normalt, ikke bare kjøre en benchmark loop. Og dette er ikke min mening eller synsing, dette kan du finne info om fra folk som har opplevd dette problemet siden de fikk 3080 og begynte bruke det i forskjellige spill med masse settings på maks. Derfor er det en fordel/ett poeng å kjøpe et kort med 16 GB VRAM i dag, for de som ikke bytter GPU hvert år.

Du har skrevet flere ganger at "dette kan du finne info om fra folk som har opplevd dette problemet", som er en typisk taktikk benyttet i denne (meningsløse) tråden. Det er din jobb å underbygge argumentene dine, ikke spill ballen over på andre.

Første eksemplet jeg fant selv gjennom Google er denne posteren på EVGA-forumet, som så blir kontret av en som faktisk vet hvordan VRAM-flaskehalser oppfører seg litt lengre nede på samme side.

Angående 20GB-variant av 3080, så ser det ut som om den er utsatt igjen.

Lenke til kommentar
2 hours ago, N o r e n g said:

Du har skrevet flere ganger at "dette kan du finne info om fra folk som har opplevd dette problemet", som er en typisk taktikk benyttet i denne (meningsløse) tråden. Det er din jobb å underbygge argumentene dine, ikke spill ballen over på andre.

Første eksemplet jeg fant selv gjennom Google er denne posteren på EVGA-forumet, som så blir kontret av en som faktisk vet hvordan VRAM-flaskehalser oppfører seg litt lengre nede på samme side.

Angående 20GB-variant av 3080, så ser det ut som om den er utsatt igjen.

Det hjelper ikke å kontre med teori når praksis viser at det er et problem, det blir bare ren fornektelse og latterlig, eller så er det noe som ikke fungerer som det skal. Og se også siste post i den tråden; problemer med 3080:

"Yep, I can confirm this in GTA V. 3080 XC3 Black. Every setting maxed out I'm just under 7 GB Vram with just FXAA. I'm getting 30 fps barely. 2x msaa and Taa it's right at 10 gigs, literally a 5 fps slideshow. Of course you don't need 4x msaa but I'm at 14 gigs with that. Obviously like 3-4 fps."

Og jada, det er fullt mulig han her sliter her med FPS pga feks for dårlig CPU, men det han gjør der viser at man kan bruke mer enn 10GB VRAM om man begynner putte på maks detaljer. Og nei, det er ikke han som mange ganger i den tråden der prøver å formidle at det er et problem, men som bare møter en vegg av argumenter fra folk som mer eller mindre bare overser hvordan det er i praksis. Det er flere som melder om det samme i den tråden der (er vel 3 spill de fremhever som er problemet), de kommer over 9GB og er farlig nær 10GB VRAM veggen, og da begynner FPS droppene (om jeg ikke husker feil en plass mellom 9 og 10 GB). Den tråden tar for seg 3 spill med problemet, hvor mange det er totalt aner jeg ikke. Hvor mange som vil oppleve det i praksis, vet jeg heller ikke, men å si det ikke er et problem er tull!

For all del, lokk alle til å kjøpe dyre 3080 kort med 'bare' 10GB VRAM, men ikke post sinte poster mot nVidia senere når du møter VRAM veggen, både i gamle og nye spill. For dette er noe folk tydeligvis har postet om siden release, og bør ikke komme som et sjokk en gang i slutten av 2021. Det er helt OK å ville kjøpe 3080, men ikke si at 10GB VRAM ALDRI vil bli et problem, for det bevist i praksis at det er et reelt problem dersom man ønsker kjøre maks detaljer/effekter og høy oppløsning. Og når dette skjer i gamle spill, er det svært høy sannsynlighet for at dette kommer til å skje mer og mer i nyere spill neste 1-2 årene.

MEN når det er sagt er dette egentlig en litt latterlig diskusjon, for før var det slik at hadde man bare la oss si 6 GB VRAM, så hadde man bare det, og da kunne man ikke sette på mer detaljer etc. Men dette har blitt en diskusjon, som jeg før skrev, fordi AMD kortene kommer med 16GB VRAM og nVidia kortene med 10GB. De som da ville kjøpe AMD kort begynte å fremheve mer VRAM som en fordel (rettferdiggjøre sine valg), men de som ville kjøpe nVidia kort sa at det er ikke en fordel fordi man aldri vil bruke så mye (rettferdiggjøre sine valg).

  • Liker 1
Lenke til kommentar
2 hours ago, HKS said:

Det handler blant annet om pris og binning. La oss ta kortene ett og ett...

3080: Bruker GDDR6X minne på en 320-bit bus. GDDR6X lages foreløpig kun i en størrelse, og mulighetene for Nvidia var enten 10 eller 20GB. Man valgte å gå ned fra 384-bit bus til 320-bit fordi man ønsket bedre muligheter til binning av brikker (3090 krever alle minnekontrollere). Hadde de valgt 20GB så ville det også kunne blitt problemer med levering av kort grunnet tilgjengelighet av GDDR6X minne (det er kun en produsent av GDDR6X foreløpig)

3070: 256-bit men bruker kun GDDR6 minne. Her var valget 8, 16 eller 32GB. Her ble nok 8GB valgt fordi dette ble sett som et 1440p-kort primært, samt at man dessverre var litt begrenset av at man valgte å gå for 10GB på 3080. GDDR6X ble ikke valgt på 3070 grunnet både pris og bekymring for volum på GDDR6X i starten. Det kan være aktuelt på en "Ampere-refresh" med 192-bit bus og GDDR6X minne.

3060Ti: 256-bit kort, samme som 3070. I denne prisklassen må man ha GDDR6 minne.

3060: 192-bit minnekontroller, så her er valgene i praksis 6GB og 12GB. 6GB begynner også å bli for lite for 1080p og 1440p.

AMD valgte å gå for en 256-bit bus kombinert med en "on-chip" cache. AMD har fremdeles ikke like effektive minnekontrollere som Nvidia, og skulle de klart å "mate" Navi21 effektivt med 80 CU så hadde de trengt et 512-bit GDDR6-bus som er dyrt og komplisert spesielt med tanke på PCB og antall minnebrikker eller så måtte de brukt HBM2e minne som også er dyrt. GDDR6X ble utviklet eksklusivt for Nvidia av Micron, og er foreløpig ikke tilgjengelig for AMD (men det blir det i neste runde). On-chip cache er ting både AMD og Nvidia har jobbet med de siste årene, og de kommer begge til å bruke det i fremtidige chiplet- og compute produkter. Så AMD så det også som en nytte å få litt praktisk erfaring med dette.

Veldig bra oppsummert, kreds for det! Men som du ser av din oppsummering kunne man valgt andre kombinasjoner av minne type og kontroller på kortene, for å få en mer fornuftig eskalerende VRAM fordeling. For som jeg sa, hadde jeg skulle hatt et 3060 kort hadde det irritert meg at TI versjonen har MINDRE VRAM enn non-TI. Begge 3060 kortene kunne brukt samme minnekontroller. Jada, da hadde trolig 3060TI mistet litt performance, men ville hatt mer VRAM ergo mer futureproof. Og for 3080 og 3090 så har nVidia valgt en DYR minnetype, og bruker dette som salgsargument, men som du skriver så blir da resultatet at 3080 får 'bare' 10GB VRAM. Kjøper man et 3080 kort så forventer man ikke akkurat at man skal møte VRAM veggen, selv på gamle spill. Hadde jeg kjøpt et 3080 kort og opplevd dette hadde jeg vært mildt sagt irritert.

Lenke til kommentar

Ram-mengden handler ikke nødvendigvis om minnekontrolleren. For GDDR6 skalerer minnemengde med bus slik AMD og Nvidia har laget kortene sine. Eks 128-bit finnes som 4 og 8GB (RX 5500, 3050), 192-bit finnes som 6 og 12GB (1660(S/Ti)/2060/3060), 256-bit finnes som 8 eller 16GB (RX 5700, 6800, 6900, 3060ti og 3070) 320-bit som 10 eller 20GB (3080) osv. 

Endret av Cowboystrekk
Lenke til kommentar
JarleGutt skrev (19 timer siden):

Det hjelper ikke å kontre med teori når praksis viser at det er et problem, det blir bare ren fornektelse og latterlig, eller så er det noe som ikke fungerer som det skal. Og se også siste post i den tråden; problemer med 3080:

"Yep, I can confirm this in GTA V. 3080 XC3 Black. Every setting maxed out I'm just under 7 GB Vram with just FXAA. I'm getting 30 fps barely. 2x msaa and Taa it's right at 10 gigs, literally a 5 fps slideshow. Of course you don't need 4x msaa but I'm at 14 gigs with that. Obviously like 3-4 fps."

Og jada, det er fullt mulig han her sliter her med FPS pga feks for dårlig CPU, men det han gjør der viser at man kan bruke mer enn 10GB VRAM om man begynner putte på maks detaljer. Og nei, det er ikke han som mange ganger i den tråden der prøver å formidle at det er et problem, men som bare møter en vegg av argumenter fra folk som mer eller mindre bare overser hvordan det er i praksis. Det er flere som melder om det samme i den tråden der (er vel 3 spill de fremhever som er problemet), de kommer over 9GB og er farlig nær 10GB VRAM veggen, og da begynner FPS droppene (om jeg ikke husker feil en plass mellom 9 og 10 GB). Den tråden tar for seg 3 spill med problemet, hvor mange det er totalt aner jeg ikke. Hvor mange som vil oppleve det i praksis, vet jeg heller ikke, men å si det ikke er et problem er tull!

Problemene dukker opp når de aktiverer MSAA? Magisk! Bortimot like krevende som å øke oppløsningen i spillet? Hvem kunne visst at MSAA i et spill som bruker deferred render-modellen har høye krav?

Det er ikke tilfeldig at MSAA sjelden dukker opp i spill i dag, og det kommer av de ekstreme ytelseskravene det har under deferred rendering: https://stackoverflow.com/questions/34981878/deferred-shading-anti-aliasing

 

Lenke til kommentar
6 hours ago, N o r e n g said:

Problemene dukker opp når de aktiverer MSAA? Magisk! Bortimot like krevende som å øke oppløsningen i spillet? Hvem kunne visst at MSAA i et spill som bruker deferred render-modellen har høye krav?

Det er ikke tilfeldig at MSAA sjelden dukker opp i spill i dag, og det kommer av de ekstreme ytelseskravene det har under deferred rendering: https://stackoverflow.com/questions/34981878/deferred-shading-anti-aliasing

 

Poenget er at det skjer når folk putter på 'maks' settings. Om dette er lurt eller ikke er noe helt annet, poenget er at settingen er der og har en effekt. Dette er i ett spill, om samme grunn i alle spillene det er snakk om tviler jeg på. Som du ser i den tråden så er det mange som kommer over 9GB brukt VRAM, og da begynner problemene.

Igjen; poenget er at det skjer, og da er 10GB for lite. Og da er det en fordel å ha 16 GB.

 

For å si det slik;

Skulle jeg kjøpt et kort i dag, og ikke hadde hatt peiling. Kommer inn i forums ser at 3080 blir fremhevet som mye bedre enn 6800 XT, 'alle' sier at 16GB er poengløst, 10GB holder i 'massevis'. Kjøper 3080, setter det inn i maskina, fyrer opp x diverse spill, setter på typisk max/ultra settings, og opplever et slideshow i spill. Går inn igjen på forums og ser at jo, det er faktisk noen som opplyser dette kan skje, men de blir konsekvent nedstemt og motsagt av 'fanboys', da hadde jeg vært litt pissed for å si det slik.

Det er helt ok å si at dette skjer sjeldent, men det skjer. Og det kommer til å skje med flere og flere spill i nærmeste 1-2 årene. Dette er uunngåelig, det kalles utvikling og å pushe grensene for spill. Spesielt 'open world' spill med høy detaljer textures og 'ingen loadscreens'.

Igjen; grunnen til denne 'diskusjonen' er at noen nVidia 'fanboys' nekter for at AMD med 16GB VRAM er en fordel (de bare fremhever RTX og DLSS/raytracing), men noen, som meg, mener det er en fordel med 16GB VRAM, spesielt for de som ikke kjøper ny GPU hver generasjon.

Lenke til kommentar
18 minutes ago, JarleGutt said:

Poenget er at det skjer når folk putter på 'maks' settings. Om dette er lurt eller ikke er noe helt annet, poenget er at settingen er der og har en effekt. Dette er i ett spill, om samme grunn i alle spillene det er snakk om tviler jeg på. Som du ser i den tråden så er det mange som kommer over 9GB brukt VRAM, og da begynner problemene.

Igjen; poenget er at det skjer, og da er 10GB for lite. Og da er det en fordel å ha 16 GB.

 

For å si det slik;

Skulle jeg kjøpt et kort i dag, og ikke hadde hatt peiling. Kommer inn i forums ser at 3080 blir fremhevet som mye bedre enn 6800 XT, 'alle' sier at 16GB er poengløst, 10GB holder i 'massevis'. Kjøper 3080, setter det inn i maskina, fyrer opp x diverse spill, setter på typisk max/ultra settings, og opplever et slideshow i spill. Går inn igjen på forums og ser at jo, det er faktisk noen som opplyser dette kan skje, men de blir konsekvent nedstemt og motsagt av 'fanboys', da hadde jeg vært litt pissed for å si det slik.

Det er helt ok å si at dette skjer sjeldent, men det skjer. Og det kommer til å skje med flere og flere spill i nærmeste 1-2 årene. Dette er uunngåelig, det kalles utvikling og å pushe grensene for spill. Spesielt 'open world' spill med høy detaljer textures og 'ingen loadscreens'.

Igjen; grunnen til denne 'diskusjonen' er at noen nVidia 'fanboys' nekter for at AMD med 16GB VRAM er en fordel (de bare fremhever RTX og DLSS/raytracing), men noen, som meg, mener det er en fordel med 16GB VRAM, spesielt for de som ikke kjøper ny GPU hver generasjon.

Det de fleste vil frem til er at ytelsen blir ofte blir  elendig med de korta som er nå, om spillet krever opp mot 10GB vram. Altså man er gpubound før man er vram bound. Altså så hjelper det lite til ingen ting om man har mere vram.

Det finnes selvfølgelig alltid eksempler der mere vram hjelper, dog ofte i sære tilfeller med ekstra mods, bruk av DSR, og helt elendig laga spill.

I veldig mange tilfeller så allokerer spill mere vram om man har mye vram. Det betyr ikkje nødvendigvis at man må ha så mye vram, eller at mindre vram gir lavere ytelse. COD er et et eksempel på dette. 

  • Innsiktsfullt 1
Lenke til kommentar
On 1/14/2021 at 1:57 PM, HKS said:

Det handler blant annet om pris og binning. La oss ta kortene ett og ett...

3080: Bruker GDDR6X minne på en 320-bit bus. GDDR6X lages foreløpig kun i en størrelse, og mulighetene for Nvidia var enten 10 eller 20GB. Man valgte å gå ned fra 384-bit bus til 320-bit fordi man ønsket bedre muligheter til binning av brikker (3090 krever alle minnekontrollere). Hadde de valgt 20GB så ville det også kunne blitt problemer med levering av kort grunnet tilgjengelighet av GDDR6X minne (det er kun en produsent av GDDR6X foreløpig)

3070: 256-bit men bruker kun GDDR6 minne. Her var valget 8, 16 eller 32GB. Her ble nok 8GB valgt fordi dette ble sett som et 1440p-kort primært, samt at man dessverre var litt begrenset av at man valgte å gå for 10GB på 3080. GDDR6X ble ikke valgt på 3070 grunnet både pris og bekymring for volum på GDDR6X i starten. Det kan være aktuelt på en "Ampere-refresh" med 192-bit bus og GDDR6X minne.

3060Ti: 256-bit kort, samme som 3070. I denne prisklassen må man ha GDDR6 minne.

3060: 192-bit minnekontroller, så her er valgene i praksis 6GB og 12GB. 6GB begynner også å bli for lite for 1080p og 1440p.

AMD valgte å gå for en 256-bit bus kombinert med en "on-chip" cache. AMD har fremdeles ikke like effektive minnekontrollere som Nvidia, og skulle de klart å "mate" Navi21 effektivt med 80 CU så hadde de trengt et 512-bit GDDR6-bus som er dyrt og komplisert spesielt med tanke på PCB og antall minnebrikker eller så måtte de brukt HBM2e minne som også er dyrt. GDDR6X ble utviklet eksklusivt for Nvidia av Micron, og er foreløpig ikke tilgjengelig for AMD (men det blir det i neste runde). On-chip cache er ting både AMD og Nvidia har jobbet med de siste årene, og de kommer begge til å bruke det i fremtidige chiplet- og compute produkter. Så AMD så det også som en nytte å få litt praktisk erfaring med dette.

Jeg forstod ikke helt hvorfor 3080 ikke kan ha 16 GB, chippene er 8 Gbit

Edit: Ser ut til å ha med minneorganisering å gjøre, hvis de har 320 bit bus så blir det 10 GB, 384 bit blir 12 GB (eller 24 GB hvis chippene er organisert i par). Bredere bus gir bedre hastighet, derfor velger de ikke å gå ned til 256 bit.

Endret av shauge2
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...