Gå til innhold

AMD RDNA2 (Radeon RX 6xxx)


ExcaliBuR

Anbefalte innlegg

Videoannonse
Annonse

Og her er kjapp test av ASUS STRIX RX 6900 XT

 

Ser at eg antakelig har vært heldig med 6800 XT kortet mitt og er like i nærheten av OC ytelsene på ASUS STRIX 6900 XT kortet til Roman. 64,36 vs 65,87 fps. Selvølgelig blir det helt feil, og ikke sammenlignbart pga ram, cpu, temp etc. forskjeller, men litt skuffende å se at 6900 XT AIO kortet ikke presterer bedre.

Lenke til kommentar
9 hours ago, Rotenon said:

Og her er kjapp test av ASUS STRIX RX 6900 XT

 

Ser at eg antakelig har vært heldig med 6800 XT kortet mitt og er like i nærheten av OC ytelsene på ASUS STRIX 6900 XT kortet til Roman. 64,36 vs 65,87 fps. Selvølgelig blir det helt feil, og ikke sammenlignbart pga ram, cpu, temp etc. forskjeller, men litt skuffende å se at 6900 XT AIO kortet ikke presterer bedre.

Men baserer du det bare på dette reviewet, eller også andre?

Lenke til kommentar
24 minutes ago, jlarssen said:

Til deg som bestilte 6900xt på ebay.

Tok det lang tid før du mottok kortet? Den 8 januar fikk jeg opp "Shipped from the Global Shipping Center to International Destination" siden da har det vært stille.

Er det verdt å kjøpe et så dyrt kort uten 5 års reklamasjon? 

 

  • Liker 1
Lenke til kommentar
On 1/11/2021 at 9:15 AM, JarleGutt said:

Pent! Men:

- bare en rad?

- så lite reservoar?

- klare ikke se stort bilde av builden fikk det frem litt senere

Gå til rørlegger/søppelfylling og få tak i en gammel varmtvannsbereder. Da får man stort nok reservoar :laugh:

Ofte er det det elektriske som ryker i en varmtvannsbereder og svært svært sjeldent noe lekkasjer å spore.

Lenke til kommentar
JarleGutt skrev (8 timer siden):

Men baserer du det bare på dette reviewet, eller også andre?

Det er nok mitt generelle inntrykket av 6900 XT som AMD sitt gpu flaggskip. Det er et flott kort med super ytelse, men skiller seg ikke nok fra 6800 serien til å treffe helt hjem hos meg. Kanskje det endrer seg når eller om det kommer bios og driverendringer som gjør at det er mulig å øke ytelsene. Kanskje eg skifter mening da 😉

Lenke til kommentar
jlarssen skrev (2 timer siden):

Til deg som bestilte 6900xt på ebay.

Tok det lang tid før du mottok kortet? Den 8 januar fikk jeg opp "Shipped from the Global Shipping Center to International Destination" siden da har det vært stille.

Spørs hvordan kortet er sendt, er det usps priority tar det 1-2 uker.

Lenke til kommentar
8 hours ago, TheKims said:

6800XT er 500kr dyrere enn 3080. Man må være ganske fanboy visst man er villig til å betale mere for å få mindre. Joda du får litt mindre Vram med 3080, men igjen har du DLSS som minker behovet for Vram bruk + at man har muligheten for Ray Tracing.

Prisene på så godt som alle kortene er tussete! Jeg husker ikke MSRP pris nå, men mener klart og tydelig at dersom prisene hadde vært slik som AMD og nVidia mente de skulle være, så hadde 6800XT vært billigere enn 3080 og 6900 XT markant lavere i pris enn 3090.

VRAM KOMMER til å bli et 'problem' (og for noen spill allerede er det i spill i 4K i dag) for de som ønsker kjøre høy kvalitets settings, høy detalj textures og høy oppløsning. Det er allerede pr i dag problemer med spill som bruker helt opp mot 10 GB på det meste, og rett over. En av de spillene som fremheves er GTA V, husker ikke de 2 andre i farten, orker ikke finne tråden igjen. Det var folk der, som i gitte situasjoner kom i problemet med at 3080 kort brukte mer enn 10 GB VRAM, og fps gitt helt i dass. Senest rapportert for få dager siden. Men dette vil du IKKE se i typiske benchmarks, det er ting du opplever ingame når du spiller og kommer ikke frem i benchmark situasjon.

nVidia lanserer nå 2 nye 3060 kort, ett 3060 TI med 8 GB VRAM og 3060 med 12 GB VRAM. Hadde jeg skulle kjøpt nVidia 3060 hadde dette irritert meg KRAFTIG, siden beste kortet har alt for lite VRAM. Men selvsagt dette er for å holde kost nede. Hadde nVidia ment at mer enn 10 GB VRAM er bare tull (som veldig mange som har kjøpt 3080 mener det er), hadde de ALDRI gjort dette. Da hadde de på begge modellene kjørt bare 8 eller 10 GB VRAM, som hadde gitt lavere kort for 3060 kortene som hadde betydd flere kort solgt.

At nVidia nå kommer med 3060(!) kort med 12 GB VRAM viser at de ser behovet for det, selv for lav ytelse kort som 3060. Og jada dere kan da si at 3060 kort er ikke beregnet for 4K etc etc etc, derfor er det ikke et problem. Javel, ok det, men jeg gjentar; hvorfor har da 3060 12 GB VRAM?! Om dette hadde vært meningsløst hadde nVidia aldri laget et 3060 kort med 12 GB VRAM. Så nVidia mener selv at til og med et lav kort som 3060 KAN ha nytte av 12 GB VRAM.

Som jeg har skrevet før; har ikke kjøpt AMD GPU siden 2007, og hadde jeg skulle kjøpt et kort akkurat nå og alle modeller var inne, hadde jeg trolig gått for et 6800 XT kort, fordi jeg ønsker prøve det, og for meg er IKKE beste raytracing viktig (for AMD HAR raytracing, og det vil bli bedre). For meg er det langt viktigere om jeg hadde kjøpt et dyrt (for ja prisene er nå kraftig høye, like mye som 50% av det man for få år siden betalte for en hel PC) kort nå, å visst jeg ikke kom til å møte veggen med tanke på maks textures etc i spill i de neste 2-3 år. Viktigere enn DLSS og langt viktigere enn beste raytracing.

Men; det er lov å være uenig eller mene noe annet :)

  • Innsiktsfullt 2
Lenke til kommentar

behovet for mer vram kom plutselig med cp2077 😛
med medium textures og 4k dlss performance ligger mitt 2060 mellom 5 og 5.5 GB med vram. jeg kan ikke aktivere en eneste raytracing funksjon uten at spillet dropper godt under spillbar fps og vram krever mer enn kortet har. venter på 4060 eller rx7700 igjen. ahh, gode minner fra hvor godt hd7770 var til prisen 🤑

Lenke til kommentar
kjeLL// skrev (6 minutter siden):

behovet for mer vram kom plutselig med cp2077 😛
med medium textures og 4k dlss performance ligger mitt 2060 mellom 5 og 5.5 GB med vram. jeg kan ikke aktivere en eneste raytracing funksjon uten at spillet dropper godt under spillbar fps og vram krever mer enn kortet har. venter på 4060 eller rx7700 igjen. ahh, gode minner fra hvor godt hd7770 var til prisen 🤑

HD 7770 var jo aldri bra for prisen? Halvparten av et HD 7870 i både pris, ytelse, og VRAM. HD 7850 kom mye bedre ut.

Hvordan er ytelsen din i Cyberpunk 2077 med et RTX 2060 og DLSS Performance i 4K egentlig? Har vanskelig for å tro at du ligger over 60 fps selv med DLSS

  • Liker 1
Lenke til kommentar
14 minutes ago, kjeLL// said:

behovet for mer vram kom plutselig med cp2077 😛
med medium textures og 4k dlss performance ligger mitt 2060 mellom 5 og 5.5 GB med vram. jeg kan ikke aktivere en eneste raytracing funksjon uten at spillet dropper godt under spillbar fps og vram krever mer enn kortet har. venter på 4060 eller rx7700 igjen. ahh, gode minner fra hvor godt hd7770 var til prisen 🤑

Nei, det meldes om problemer i mye gamlere spill enn CP 2077. Og det meldes om problemer med 3080 kort. Grunnen er nok at før så visste vi at hadde vi for lite VRAM, så kunne vi ikke aktivere mer features/details. Men nå har det blitt diskusjon om 10 GB på 3080 er faktisk nok til å spille spill med alt på max etc, pga AMD kort kommer med 16 GB VRAM. Det er dette som er egentlig diskusjonen: 10 GB VRAM vs 16 GB VRAM; er 10 GB nok?

Søk på nettet så finner dere tråder om dette, folk viser med testing at 10 GB er for lite, men blir nedstemt av fanboys som ikke vil innrømme dette.

  • Innsiktsfullt 1
Lenke til kommentar
N o r e n g skrev (2 timer siden):

HD 7770 var jo aldri bra for prisen? Halvparten av et HD 7870 i både pris, ytelse, og VRAM. HD 7850 kom mye bedre ut.

Hvordan er ytelsen din i Cyberpunk 2077 med et RTX 2060 og DLSS Performance i 4K egentlig? Har vanskelig for å tro at du ligger over 60 fps selv med DLSS

ja, jeg husket feil. jeg ga 1350kr for 5770 1GB når det kom ut.

jeg har 50fps. så jeg kjører skjermen i 50 hz

Endret av kjeLL//
Lenke til kommentar
JarleGutt skrev (2 timer siden):

Nei, det meldes om problemer i mye gamlere spill enn CP 2077. Og det meldes om problemer med 3080 kort. Grunnen er nok at før så visste vi at hadde vi for lite VRAM, så kunne vi ikke aktivere mer features/details. Men nå har det blitt diskusjon om 10 GB på 3080 er faktisk nok til å spille spill med alt på max etc, pga AMD kort kommer med 16 GB VRAM. Det er dette som er egentlig diskusjonen: 10 GB VRAM vs 16 GB VRAM; er 10 GB nok?

Søk på nettet så finner dere tråder om dette, folk viser med testing at 10 GB er for lite, men blir nedstemt av fanboys som ikke vil innrømme dette.

Hvilket spill er det som krever at du har en GPU med 16GB Vram? Kanskje Minecraft med 16K texture pack, men der vil selv en 3090 slite med sine 24GB Vram

Lenke til kommentar
9 hours ago, TheKims said:

Hvilket spill er det som krever at du har en GPU med 16GB Vram? Kanskje Minecraft med 16K texture pack, men der vil selv en 3090 slite med sine 24GB Vram

Ingen spill krever 16 GB VRAM, ingen som sier det. Les igjen.

Det en del viser er at 10 GB er FOR LITE for å kjøre spill på MAKS i høy oppløsning. For noen spill allerede nå, og 90% sikkert langt flere innen 1-2 år. Det er dette som diskuteres en del, og en del (fanboys) desperat prøver å si det ikke er et problem fordi de ikke har opplevd det. Men det er det, og det blir større i fremtiden. Og grunnen til denne diskusjonen begynte er fordi 3080 har bare 10 GB men 6800/6900 har 16 GB VRAM.

Om du vil vite mer om det så søk på feks 3080 VRAM 10 gb enough etc etc. I en tråd jeg fant tilfeldig i går, ble det senest rapportert for få dager siden at de smalt på 10 GB limiten og FPS gikk i dass. Og som jeg skrev, du møter IKKE dette problemet i typiske benchmarks, ingen reviews så langt jeg vet har rapportert om dette, det er ingame når du spiller og man stiller alt på maks, kjører kanskje i tillegg ekstra detaljerte texture packs og spiller normalt, ikke bare kjører en benchmark etc etc.

Neida, mange vil ikke se dette, men problemet er der allerede, det er poenget. Selv om de fleste kanskje ikke får dette problemet, betyr ikke at det ikke er der. Og å da blindt bare si nei det er ikke et problem, og blir det heller ikke, er ikke bare naivt, det er direkte løgn og missleding av folk. Jeg har skrevet det før; vi er mennesker og vi rettferdiggjør våre valg; en som ønsker kjøpe 3080 vil ikke høre at 10 GB VRAM er for lite, men for en som ønsker kjøpe 6800/6900 er 16GB en fordel etc etc.

Og som jeg skrev, når nVidia nå gir ut et lav performance kort med 12 GB VRAM, så er det for en grunn, og det er grunn til å begynne å tenke seg om. nVidia hadde ikke gjort dette uten grunn, de driver butikk, de skal selge kort. Det ryktes også at det kommer 3080 kort med mer minne enn 10 GB, og stemmer det så 'stakkars' de som har kjøpt dyre overprisa 3080 kort med bare 10 GB VRAM. Lykke til med å brukt-selge kortene med bare 10 GBN VRAM senere uten kraftig tap.

Og enda en gang; det er lov å mene noe annet, men enkelte ting er fakta, og endrer seg ikke selv om man stritter imot aldri så mye.

Lenke til kommentar
27 minutes ago, JarleGutt said:

Noen som vet hvor kraftig CPU man trenger for å IKKE CPU bottlenecke 6800 XT og 6900 XT?

'Gamle' PCen min har en Intel 5820K OCed til 4,2 GHz er det vel. Aner ikke om den ville bottlenecket disse kortene...

Kommer ann på oppløsning og innstillinger, men generelt sett så må du opp på 4k med høye innstillinger for å ikke bottlenecke gpu med den cpuen

Lenke til kommentar
3 minutes ago, Mumriken said:

Kommer ann på oppløsning og innstillinger, men generelt sett så må du opp på 4k med høye innstillinger for å ikke bottlenecke gpu med den cpuen

Ok skjønner. Jeg kjører 1440p, regner ikke med jeg går høyere for desktop neste gang jeg kjøper monitor heller.

Så slik jeg da skjønner deg så vil det aller meste av spilling under 4K vil være CPU bottlenecked for disse nye kortene(?). Så om jeg hadde feks kjørt en 5900X CPU hadde jeg fått merkbart bedre FPS (aner ikke hvor mye vs 5820K på 4,2 GHz).

Lenke til kommentar
1 minute ago, JarleGutt said:

Ok skjønner. Jeg kjører 1440p, regner ikke med jeg går høyere for desktop neste gang jeg kjøper monitor heller.

Så slik jeg da skjønner deg så vil det aller meste av spilling under 4K vil være CPU bottlenecked for disse nye kortene(?). Så om jeg hadde feks kjørt en 5900X CPU hadde jeg fått merkbart bedre FPS (aner ikke hvor mye vs 5820K på 4,2 GHz).

Det vil bli betydelig bedre. Hadde du hatt en 6 core skylake cpu så hadde saken vært en annen, men haswell er utdatert.
Du kan fortsatt få grei ytelse fra 5960X med tuning av b-dies, men like greit å oppgradere IMO.

 

  • Innsiktsfullt 1
Lenke til kommentar

Bli med i samtalen

Du kan publisere innhold nå og registrere deg senere. Hvis du har en konto, logg inn nå for å poste med kontoen din.

Gjest
Skriv svar til emnet...

×   Du har limt inn tekst med formatering.   Lim inn uten formatering i stedet

  Du kan kun bruke opp til 75 smilefjes.

×   Lenken din har blitt bygget inn på siden automatisk.   Vis som en ordinær lenke i stedet

×   Tidligere tekst har blitt gjenopprettet.   Tøm tekstverktøy

×   Du kan ikke lime inn bilder direkte. Last opp eller legg inn bilder fra URL.

Laster...
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...