Gå til innhold

TEST: AMD Radeon VII


Anbefalte innlegg

120hz er 100 ganger bedre enn 60hz Gabri3L, og det vet du :)

 

Derfor velger man ikkje en teve å spille på i 4k, hvis det er viktig.

 

Min teve har vel 120hz i 1080p, men 1080p på en teve skjer ikkje for meg.

 

2019 Samsung TV'ene gir Freesync opp til 120Hz i 4K, som riktignok gjør at man får benyttet 2080Ti's ekstra kraft over 60 fps også, slik at den kraften i det minste ikke lenger går rett i søppelbøtta... Til en viss grad. 2080Ti vil jo fremdeles være bundet til 8,33 ms intervallet mellom hver skjermoppdatering, slik at hvert bilde vil stå på skjermen enten 8,33 ms, eller 16,7 ms, eller 25 ms, osv. En blindtest mellom R VII med Freesync på, og 2080Ti uten adaptive sync på en slik TV vil altså kunne være et interessant eksperiment. Det spørs på om å få de ekstra framene frem på skjermen hjelper 2080Ti mye, med tanke på denne begrensningen den uansett vil få.

 

Jeg tenker det ihvertfall er åpenbart at dette er et bruksområde der R VII vil være å foretrekke fremfor RTX2080, som jo er kortet det er ment å konkurrere mot.

 

Uansett; nå kan altså til og med du begynne å game på ordentlig skjerm. ;)

Lenke til kommentar
Videoannonse
Annonse

All den tid de aller fleste som kjøper disse kortene for gaming spiller i 2560x1440 eller 1920x1080 er det lite relevant hvordan ytelsen er i 4K på et snevert utvalg TV-er.

 

At Nvidias BFG er et enda mer snevert marked er ingen tvil om, men det er fullstendig irrelevant for Radeon VIIs evne til å konkurrere.

 

AMD har videre markedsført kortet som en utfordrer til RTX 2080, da er det naturlig å sammenligne dem i gaming primært. Det faktum at kortet har bedre FP64-ytelse, kan kjøre pro-drivere, og deres egne sider nå er oppdatert til å fokusere på andre ting er bare et tegn på at AMD selv skjønner kortet sliter med å konkurrere.

  • Liker 2
Lenke til kommentar

2019 Samsung TV'ene gir Freesync opp til 120Hz i 4K, som riktignok gjør at man får benyttet 2080Ti's ekstra kraft over 60 fps også, slik at den kraften i det minste ikke lenger går rett i søppelbøtta... Til en viss grad. 2080Ti vil jo fremdeles være bundet til 8,33 ms intervallet mellom hver skjermoppdatering, slik at hvert bilde vil stå på skjermen enten 8,33 ms, eller 16,7 ms, eller 25 ms, osv. En blindtest mellom R VII med Freesync på, og 2080Ti uten adaptive sync på en slik TV vil altså kunne være et interessant eksperiment. Det spørs på om å få de ekstra framene frem på skjermen hjelper 2080Ti mye, med tanke på denne begrensningen den uansett vil få.

 

Jeg tenker det ihvertfall er åpenbart at dette er et bruksområde der R VII vil være å foretrekke fremfor RTX2080, som jo er kortet det er ment å konkurrere mot.

 

Uansett; nå kan altså til og med du begynne å game på ordentlig skjerm. ;)

Bare 8K (av 2019 modellene) TVene til Samsung som støtter dette. 4K modellene får ikke HDMI 2.1 og da ikke mulighet til 120Hz. LG sine TVer  fra C9 og opp derimot, får VRR og HDMI 2.1. Så får man se hvor bra VRR funker på AMD GPUer og om de vil implementere støtte for det i driverne sine.

Endret av MrMarbles
Lenke til kommentar
Gjest Slettet+5132

Hvis du kjøper privat gjelder vel dette ja, i arbeidssammenheng hadde du vel bare kjøpt et Titan V eller Quadro GV100?

Eller er minnebåndbredde spesielt viktig?

 

Problemet, som Gabri3l overser fullstendig i sitt siste essay, er at dette bare gjelder en svært liten gruppe av markedet.

For de aller aller fleste er RTX 2080 rett og slett et bedre valg, de få tilfellene der man heller velger Radeon VII koker ned til:

  • De som trenger FP64, og ikke CUDA.
  • De som spiller primært på UHD-TV med freesync-støtte (tror ikke det finnes 10 modeller med dette en gang).
Dette er og blir et særdeles lite marked, det hjelper ikke at AMD er overlegne her så lenge de ikke klarer å konkurrere utenfor spesifikke, ofte kunstig begrensede scenarier.

 

Det er et veldig lite marked hvis man tar bort de som må ha CUDA (men det er et problem i seg selv at folk er låst til CUDA, men jeg er skyldig i det selv).

 

Når det gjelder å kjøpe proffkort i jobbsammenheng: Prisforskjellen blir vesentlig når du skal ha flere i et lite regnecluster. Minnebåndbredde er også essensielt. Altså, misforstå meg rett, jeg bruker 2080 ti på jobb (men de store simuleringene skjer på P100-kort på et cluster), siden mye av det jeg gjør uansett er skrevet i CUDA (av andre årsaker, en av grunnene er at de store regneclusterne bruker nvidia-kort og ikke AMD-kort, og Nvidia-kort suger på OpenCL).

 

 

Hvilket program?

Kommer ikke til å poste det her, siden mitt virkelige navn er forbundet med den programvaren, men som vist til tidligere finnes det mye programvare som har godt av mer båndbredde, og høyere hastighet dobbelpresisjon er aldri feil.

Endret av Slettet+5132
Lenke til kommentar

All den tid de aller fleste som kjøper disse kortene for gaming spiller i 2560x1440 eller 1920x1080 er det lite relevant hvordan ytelsen er i 4K på et snevert utvalg TV-er.

 

At Nvidias BFG er et enda mer snevert marked er ingen tvil om, men det er fullstendig irrelevant for Radeon VIIs evne til å konkurrere.

 

AMD har videre markedsført kortet som en utfordrer til RTX 2080, da er det naturlig å sammenligne dem i gaming primært. Det faktum at kortet har bedre FP64-ytelse, kan kjøre pro-drivere, og deres egne sider nå er oppdatert til å fokusere på andre ting er bare et tegn på at AMD selv skjønner kortet sliter med å konkurrere.

 

Jeg får ta en liten presisering først; jeg ser jeg ordla meg på en måte som ut fra konteksten gjør det mulig å tolke det som at jeg mente at AMD har endret sin egen webside i etterkant av launch til å reflektere at kortet har flere bruksområder enn bare gaming. Nå var det jo ikke det jeg sa da, og ihvertfall ikke det jeg mente. Grunnen til at jeg ordla meg slik: "om man går på AMD's webside ", var ganske enkelt at jeg innbiller meg at websiden ved launch faktisk hadde mer fokus på "content creation" enn den har i dag (Jeg var på R VII mailing liste, og fikk en mail med link til produktsiden på launch dagen som jeg altså kikket på da.). Derfor altså presiseringen om at om man kikker der nå. AMD har uansett tross alt vist til at dette er et kort for creators siden dag en. Lisa Su's keynote på CES, fikk jo faktisk litt kritikk på grunn av det, og var en av grunnene til skepsisen rundt R VII's gaming ytelse: "Hvis kortet hadde vært kjempebra til gaming, hvorfor fokuserer ikke AMD på det da, i stedet for dette content creator greiene.". Men uansett; nei, AMD har ikke oppdatert websiden sin "til å fokusere på andre ting". Det er i så fall i motsatt retning av hva du insinuerer.

 

Uansett; nå som du altså har gjort det klart at vi kan se bort fra nisje markeder, så tenker jeg det sier seg selv at vi kan se bort fra 2080Ti også? Jeg mener, det ville jo vært litt hyklersk om vi ikke kunne bytte ut "AMD med "Nvidia" i dette sitatet fra deg?

 

Dette er og blir et særdeles lite marked, det hjelper ikke at AMD er overlegne her så lenge de ikke klarer å konkurrere utenfor spesifikke, ofte kunstig begrensede scenarier.

 

 

Etter 5 måneder på markedet har 2080Ti akkurat såvidt klart å karre seg inn på listen over skjermkort som Steam brukere faktisk har. Da med en andel på 0,15%. Hva er dette om ikke et "særdeles lite marked"? Som strengt tatt åpner for et litt artig spørsmål; lurer på hva den andelen av de 1,48% med 4K skjerm som ikke har 2080Ti bruker for slags fantom skjermkort? Altså siden ingenting annet duger til 4K gaming? :p Uansett med 2080Ti ute av bildet, siden den er et "særdeles lite marked". Er det jo bare 1080Ti og RTX2080 igjen å sammenlikne mot. Vel, prisen ville jo uansett gjort det litt urettferdig å måtte sammenlikne mot 2080Ti...
 
Men, da er vi altså inne på det som jeg har snakket en del om i det siste: Hvordan måler man "ytelse"? Her på forumet må vi ofte ty til "blanket statements" som at X skjermkort er Y% raskere enn skjermkort Z. Hvorfor vi gjør det, og hvem som bestemmer hvilke spill som skal utgjøre sammenlikningsgrunnlaget, det aksepterer vi bare at er utenfor vår kontroll. Vi googler frem review sider som med vekslende hell klarer å koke det hele ned til ett tall, et ofte litt missvisende tall riktignok, men det er jo så praktisk! :p
 
Så la meg ta ett eksempel; din skotske favoritt youtube'er testet et R VII. Og i hans tester ble resultatet at R VII i gjennomsnitt var ~10% raskere enn RTX2080! Et resultat jeg regner med du kommer til å akseptere uten protester vel?! :p Neppe, du kommer nok til å ha "et par" innsigelser på den, vi "vet" jo at det er omvendt! Men det er jo ikke nødvendigvis det. Det kommer helt an på hvilke spill du spiller, og det kommer helt an på hva man ønsker å oppnå med sammenlikningen av ytelse i spill.
 
La meg ta et annet eksempel; dette er fra Techspot's day one coverage, så bare et par spill grunnet dårlig driver:
 
post-29200-0-16836700-1550614472_thumb.jpg
 
La meg så stryke ut alle spillene jeg aldri kommer til å spille: Battlefield 5, ARMA 3, Tom Clancy's RSS, World of Tanks, og Fortnite.
 
Hva skal jeg bry meg om? At 2080 her er 4% raskere i et gjennomsnitt som inneholder titler som jeg aldri kommer til å spille? Eller at ytelses forskjellen nærmest er fullstendig borte når jeg tar hensyn til kun de spillene jeg faktisk spiller, eller tenker å spille?
 
Det er også andre faktorer som jeg vurderer: Hvilke spill er det viktigst for meg at ser bra ut? Strange Brigade er nok en perle som har gått under radaren på mange. Det er et nydelig spill, med flott grafikk, som jeg gjerne vil at skal se så bra ut som mulig. MHW derimot? OK, jeg har bare sett videoer av gameplay, så det er kanskje penere enn jeg har inntrykk av. Men nå var uansett dette bare ment som en illustrasjon.
 
Jeg kunne kanskje heller tatt med for eksempel Fortnite. Om det hadde vært et spill for meg, hvor mye trenger jeg å prioritere grafikken på det, mot å miste grafikk kvalitet på spillet jeg faktisk bryr meg om grafikken på? Fortnite kan man jo spille på mobiltelefon! Så jeg skjønner strengt tatt ikke at noen tar det med i benchmark suites for skjermkort over RX 570/3GB 1060 eller deromkring. :p Men like fullt er det med og endrer gjennomsnitts ytelses beregningen i negativ retning for R VII. Og det uten at det har noen som helst betydning for ens mulighet med R VII til å spille spillet på mer enn god nok grafikk innstilling, og i trygg forvisselse om at man ikke taper på grunn av skjermkortet. Som sagt; man kan spille spillet på mobiltelefon, da skulle man jo kunne tro det holdt å ha et av verdens 4 raskeste skjermkort? ;)
 
Så, for meg er altså R VII et kort som klarer seg helt greit mot RTX2080 i spill. Og til våren tenker jeg ut å fly dronen min igjen, som altså gjør opptak i 4K. Da tenker jeg det kan være greit med "litt" ekstra VRAM til videoredigering. Kommer jeg til å få bruk for FP64? Nei, sannsynligvis ikke. Jeg vet F@H bruker det litt, men kanskje ikke nok til at det har noe spesielt å si. Men det vil jo kunne endre seg i fremtiden... :)
 
Så, folk må gjerne mene at 2080 er bedre til gaming for dem. Jeg råder dem bare til å kikke på spillene, ikke sammenlagt score'en, da den kan være missvisende. Jeg har inntrykk av at veldig mange mener det bare er FPS twitchere som er "gaming", og da kommer Nvidia skjermkortene ofte bra ut. Men for oss som bryr oss mer om grafikk kvalitet i RPG type spill, så klarer AMD skjermkortene seg ofte mye bedre enn folk ser ut til å ha inntrykk av...
  • Liker 1
Lenke til kommentar

Bare 8K (av 2019 modellene) TVene til Samsung som støtter dette. 4K modellene får ikke HDMI 2.1 og da ikke mulighet til 120Hz. LG sine TVer  fra C9 og opp derimot, får VRR og HDMI 2.1. Så får man se hvor bra VRR funker på AMD GPUer og om de vil implementere støtte for det i driverne sine.

 

OK, jeg googlet bare frem en kilde i full fart som hevdet at alle Samsungs 2019 modeller over et visst nivå skulle få opp til 120Hz. De har nok ikke klart å navigere frem i jungelen de heller. Jeg mente å huske det var mer som du sier her. Så takk for oppdateringen. :)

Lenke til kommentar

Uansett; nå som du altså har gjort det klart at vi kan se bort fra nisje markeder, så tenker jeg det sier seg selv at vi kan se bort fra 2080Ti også? Jeg mener, det ville jo vært litt hyklersk om vi ikke kunne bytte ut "AMD med "Nvidia" i dette sitatet fra deg?

Det er en vesentlig forskjell på nisjene til Radeon VII og RTX 2080 Ti: Radeon VII møter betydelig konkurranse fra Nvidia RTX 2080 og brukte GTX 1080 Ti, mens RTX 2080 Ti er i sitt eget ytelsessegment.

 

Jeg er enig i at 2080 Ti ikke er spesielt viktig å sammenligne med, det var du som valgte å trekke inn det kortet.

 

Etter 5 måneder på markedet har 2080Ti akkurat såvidt klart å karre seg inn på listen over skjermkort som Steam brukere faktisk har. Da med en andel på 0,15%. Hva er dette om ikke et "særdeles lite marked"? Som strengt tatt åpner for et litt artig spørsmål; lurer på hva den andelen av de 1,48% med 4K skjerm som ikke har 2080Ti bruker for slags fantom skjermkort? Altså siden ingenting annet duger til 4K gaming? :p Uansett med 2080Ti ute av bildet, siden den er et "særdeles lite marked". Er det jo bare 1080Ti og RTX2080 igjen å sammenlikne mot. Vel, prisen ville jo uansett gjort det litt urettferdig å måtte sammenlikne mot 2080Ti...

Jeg har aldri sagt at det er umulig å spille i 4K med et svakere kort enn RTX 2080 Ti, det er alltid mulig å kjøre lavere innstillinger og oppløsning i spill for å få akseptabel ytelse.

 

Det du derimot har implisert, er at det er umulig å spille med Triple Buffer Vsync eller ingen Vsync i 4K. Det er ikke spesielt krise med ekstra inputlag om man sitter i sofaen med en trådløs håndkontroll.

 

Så la meg ta ett eksempel; din skotske favoritt youtube'er testet et R VII. Og i hans tester ble resultatet at R VII i gjennomsnitt var ~10% raskere enn RTX2080! Et resultat jeg regner med du kommer til å akseptere uten protester vel?! :p Neppe, du kommer nok til å ha "et par" innsigelser på den, vi "vet" jo at det er omvendt! Men det er jo ikke nødvendigvis det. Det kommer helt an på hvilke spill du spiller, og det kommer helt an på hva man ønsker å oppnå med sammenlikningen av ytelse i spill.

Det er ikke overraskende at AdoredTV fant rett kombinasjon med innstillinger for å få RTX 2080 til å knele der Radeon VII gjør det bra. Han lever jo av å massere e-penisen til AMD-fanatikere.

 

La meg ta et annet eksempel; dette er fra Techspot's day one coverage, så bare et par spill grunnet dårlig driver:

 

attachicon.gifRVII vs 2080 2 50%.jpg

 

La meg så stryke ut alle spillene jeg aldri kommer til å spille: Battlefield 5, ARMA 3, Tom Clancy's RSS, World of Tanks, og Fortnite.

 

Hva skal jeg bry meg om? At 2080 her er 4% raskere i et gjennomsnitt som inneholder titler som jeg aldri kommer til å spille? Eller at ytelses forskjellen nærmest er fullstendig borte når jeg tar hensyn til kun de spillene jeg faktisk spiller, eller tenker å spille?

Det er en helt gyldig måte å vurdere kjøp på, men jeg hadde uansett vurdert gjennomsnittlig plassering av kortet ytelsesmessig over alle spill. Plutselig en dag kommer det et spill basert på UE4 eller Frostbite du har lyst til å spille, som kjører vesentlig bedre på konkurrenten.

 

Det er også andre faktorer som jeg vurderer: Hvilke spill er det viktigst for meg at ser bra ut? Strange Brigade er nok en perle som har gått under radaren på mange. Det er et nydelig spill, med flott grafikk, som jeg gjerne vil at skal se så bra ut som mulig. MHW derimot? OK, jeg har bare sett videoer av gameplay, så det er kanskje penere enn jeg har inntrykk av. Men nå var uansett dette bare ment som en illustrasjon.

Strange Brigade kjører svært bra på de fleste maskiner, mens Monster Hunter World skalerer generelt dårlig opp og ned i ytelse. Men så er dette helt forskjellige spill.

Monster Hunter World er et spill med høyere vanskelighetsgrad enn Dark Souls-serien, og kampene tar 5 ganger så lang tid.

 

Jeg kunne kanskje heller tatt med for eksempel Fortnite. Om det hadde vært et spill for meg, hvor mye trenger jeg å prioritere grafikken på det, mot å miste grafikk kvalitet på spillet jeg faktisk bryr meg om grafikken på? Fortnite kan man jo spille på mobiltelefon! Så jeg skjønner strengt tatt ikke at noen tar det med i benchmark suites for skjermkort over RX 570/3GB 1060 eller deromkring. :p Men like fullt er det med og endrer gjennomsnitts ytelses beregningen i negativ retning for R VII. Og det uten at det har noen som helst betydning for ens mulighet med R VII til å spille spillet på mer enn god nok grafikk innstilling, og i trygg forvisselse om at man ikke taper på grunn av skjermkortet. Som sagt; man kan spille spillet på mobiltelefon, da skulle man jo kunne tro det holdt å ha et av verdens 4 raskeste skjermkort? ;)

Fortnite kjører på UE4, og er et særdeles populært spill, derfor er det ofte med. Videre har det et høyt tempo, som gjør at en ekstremt høy framerate kan være nyttig, da er det synd at AMD møter en flaskehals i drivere.

 

Så, folk må gjerne mene at 2080 er bedre til gaming for dem. Jeg råder dem bare til å kikke på spillene, ikke sammenlagt score'en, da den kan være missvisende. Jeg har inntrykk av at veldig mange mener det bare er FPS twitchere som er "gaming", og da kommer Nvidia skjermkortene ofte bra ut. Men for oss som bryr oss mer om grafikk kvalitet i RPG type spill, så klarer AMD skjermkortene seg ofte mye bedre enn folk ser ut til å ha inntrykk av...

 

Du mener tregere spill som Monster Hunter World, Metro Exodus, Darksiders 3, AC:Origins, FFXV, Divinity: Original Sin 2, Dragon Quest XI, Hellblade: Senua's Sacrifice, Hitman 2, og Witcher 3? Tar du snittytelsen til Radeon VII i disse spillene vil det nok havne rett rundt RTX 2070, uten at jeg vil si det er helt representativt for ytelsen til Radeon VII.

  • Liker 3
Lenke til kommentar

Det er en vesentlig forskjell på nisjene til Radeon VII og RTX 2080 Ti: Radeon VII møter betydelig konkurranse fra Nvidia RTX 2080 og brukte GTX 1080 Ti, mens RTX 2080 Ti er i sitt eget ytelsessegment.

 

Jeg er enig i at 2080 Ti ikke er spesielt viktig å sammenligne med, det var du som valgte å trekke inn det kortet.

Vel, vi har vært inne på nisjer før, og jeg har da gjort det klart at jeg mener Nvidia har sine egne nisjer som blir båret frem på "gullstol", mens AMD's nisjer tilsynelatende skal ties ihjel fordi "ingen" bruker dem. Og det protesterer jeg altså på.

 

I en normal verden hadde den eneste som brukte, og lovpriset DLSS, vært en mentalt tilbakestående person som bor i kjellerstua til mora en eller annen plass i Inbreeding county, Alabama, USA. Som har tatovering av Jensen Huang på den ene testikkelen, og Nvidia logoen på den andre. I stedet har vi "druknet" i lovprisninger fra Nvidia fanboys av en kommende feature, som nå endelig kanskje kan få den verdige begravelsen den så rikt fortjener.

 

Jeg trakk altså inn 2080Ti i utgangspunktet, kun som et hjelpemiddel for å illustrere hvor mye bedre Freesync over HDMI gjør Radeon VII på en 4K@60Hz TV.

 

Men du mener bruksområdet er for en så liten nisje at vi ikke kan vektlegge det. Og da svarer jeg; OK, men da har ikke Nvidia ytelses tronen heller, siden bruksområdet er for en så liten nisje at vi ikke kan vektlegge den...

 

Jeg har aldri sagt at det er umulig å spille i 4K med et svakere kort enn RTX 2080 Ti, det er alltid mulig å kjøre lavere innstillinger og oppløsning i spill for å få akseptabel ytelse.

Neida, du har aldri sagt det "er umulig å spille i 4K med et svakere kort enn RTX 2080 Ti". Men det er en logisk slutning man kan trekke fra ditt tidligere sitat: "All den tid de aller fleste som kjøper disse kortene for gaming spiller i 2560x1440 eller 1920x1080 er det lite relevant hvordan ytelsen er i 4K på et snevert utvalg TV-er.".

 

Men det var nå uansett bare en spøk, der jeg forsøkte å peke på at det faktisk er ~10 ganger flere med 4K skjerm som hoved skjerm, enn det er folk som eier 2080Ti blant Steam brukere. Altså må disse brukerne nødvendigvis bruke noe svakere enn 2080Ti til å spille i 4K.

 

Det du derimot har implisert, er at det er umulig å spille med Triple Buffer Vsync eller ingen Vsync i 4K. Det er ikke spesielt krise med ekstra inputlag om man sitter i sofaen med en trådløs håndkontroll.

 

Dette er jo rett og slett bare ikke sant! For det første har jeg aldri implisert at det er umulig. Og for det andre nevnte jeg jo til og med Triple Buffer Vsync (Fastsync) som ett av alternativene for å spille i 4K!

 

Det jeg har hevdet er "umulig" er å få ut all ytelsen av et skjermkort til en TV uten adaptive sync, uten å måtte finne seg i enten "Tearing", eller "Rubberbanding" (Fastsync). Og at alternativet ellers, er å kaste store mengder av skjermkortets ytelse i søpla. Videre, at når man kaster ytelsen i søpla for ett skjermkort, mens det andre får beholde sin ytelse, så må nødvendigvis kortet som får beholde ytelsen sin; enten ta innpå det andre skjermkortet, eller; øke sin ledelse over det andre skjermkortet.

 

For øvrig vil ikke Vsync av introdusere noe inputlag, og Fastsync vil kun introdusere minimalt i forhold. Det er å spille i et Windows vindu (som oftest fullscreen borderless) som introduserer (mest) inputlag, da man hele tiden ligger 1 frame etter (altså 16,7ms ekstra inputlag på en 60Hz skjerm). Til forvirring er riktignok både "fullscreen borderless" og "Fastsync" en form for "Triple Buffer Vsync". Men implementasjonen er altså forskjellig. I Windowed mode er det Windows som implementerer det, og derfor ligger 1 frame etter. 

 

Det er ikke overraskende at AdoredTV fant rett kombinasjon med innstillinger for å få RTX 2080 til å knele der Radeon VII gjør det bra. Han lever jo av å massere e-penisen til AMD-fanatikere.

 

He he, velbekommen. Jeg regnet med du ville sette pris på den. :p

 

Men til Jim's forsvar, så har han faktisk testet med samme spill som han alltid tester med. Så for å gjøre det "rettferdig", så måtte han faktisk leitet frem flere spill der Nvidia gjør det såpass mye bedre i, at 2080 hadde tatt R VII igjen... Er det det du foreslår at han burde gjort? Er det det som er "rettferdig": Å teste nok spill til at Nvidia vinner? Jeg mener, det er jo ikke noe problem, det er jo bare å lete frem spill som bruker en engine som Nvidia har vært med på å utvikle; Unreal for eksempel... ;)

 

Nå har du jo åpenbart ikke giddet se videoen, om du hadde, så hadde du fått med deg at han gjorde det pinlig klart at dette ikke var representativt for gjennomsnittlig ytelse for R VII. Men som et eksempel på poenget mitt om at det kommer an på hvilke spill du spiller, fungerte jo videoen svært bra...

 

 

Det er en helt gyldig måte å vurdere kjøp på, men jeg hadde uansett vurdert gjennomsnittlig plassering av kortet ytelsesmessig over alle spill. Plutselig en dag kommer det et spill basert på UE4 eller Frostbite du har lyst til å spille, som kjører vesentlig bedre på konkurrenten.

 

Vel... Som kjører vesentlig bedre på konkurrenten på "Ultra"...

 

Strange Brigade kjører svært bra på de fleste maskiner, mens Monster Hunter World skalerer generelt dårlig opp og ned i ytelse. Men så er dette helt forskjellige spill.

Monster Hunter World er et spill med høyere vanskelighetsgrad enn Dark Souls-serien, og kampene tar 5 ganger så lang tid.

MHW er beregnet på 30fps, det er i hovedsak et konsoll spill. Men poenget mitt var at når vi strøk ut spillene jeg ikke spiller, og så spillene der det nesten ikke er forskjell. Så var det bare MHW og Strange Brigade igjen som skilte over ~10% den ene veien eller den andre (9% for SB). Så hvordan velge da? Og det jeg sa var at jeg ville prioritert å kunne beholde grafikken på "Ultra" på SB fremfor MHW. 

 

Fortnite kjører på UE4, og er et særdeles populært spill, derfor er det ofte med. Videre har det et høyt tempo, som gjør at en ekstremt høy framerate kan være nyttig, da er det synd at AMD møter en flaskehals i drivere.

Vel, Fortnite begynte med en server side tick rate på 8Hz, så jeg tenker det sier en del om hva slags spill det faktisk er. Tick rate er riktignok nå oppe i 30Hz (skjønt, faller til 20Hz ved anledninger). Men spill som Overwatch er oppe 64Hz, samme som CS:GO som nå er oppe i 128Hz pleide være. Jeg vil også hevde at bygger elementet gjør at Fortnite ikke har like stor nytte av super høy fps som disse andre mer rendyrkede Twitch'erene som Overwatch og CS:GO.

 

Du har riktignok et poeng: Om et spill har 100 - 200 000 000 spillere, så er det klart at man må ta hensyn til det, og det er ikke rart at mange lurer på hvor bra skjermkort man trenger for å spille det på PC.

 

Men som sagt; så mener jeg at denne typen spill (og i dette tilfellet; dette spesifikke spillet), så kommer man til et punkt der flere fps uansett ikke vil være merkbart for spilleren, hverken visuelt, eller i suksess rate. Og om skjermkortet man vurdere fungerer tilfredsstillende, som i; mer ytelse er ikke merkbart. Så kan man se bort fra at andre skjermkort yter bedre i den tittelen. De tilbyr jo uansett bare "spill for galleriet"...

 

Du mener tregere spill som Monster Hunter World, Metro Exodus, Darksiders 3, AC:Origins, FFXV, Divinity: Original Sin 2, Dragon Quest XI, Hellblade: Senua's Sacrifice, Hitman 2, og Witcher 3? Tar du snittytelsen til Radeon VII i disse spillene vil det nok havne rett rundt RTX 2070, uten at jeg vil si det er helt representativt for ytelsen til Radeon VII.

Vel, her er du inne på det jeg snakker om igjen angående å måle ytelse "korrekt", eller i det minste lese reviews "korrekt". Men det er jo et veldig stort tema, så jeg må be deg om å lese hva jeg skriver med litt godvilje, så jeg slipper å skrive en hel "Essay" som svar. Det er vi jo begge tjent med. ;)

 

Dragon Quest XI er vel den største synderen her. Originalt en Nintendo 3DS tittel! Og med grafikk på PC som det strengt tatt ikke finnes unnskyldning for at ikke kjører i 300 fps på omtrent alle skjermkort. I stedet velger de UE4, slik at til og med et 3GB 1060 slår et RX 590! Er dette representativ ytelse for hva man har anledning til å forvente av ytelse fra et 3GB 1060 normalt? Nei, det er jo ikke det, men TPU har av en eller annen grunn likevel tittelen med i sin test suite, selv om den hos dem alene står for opp til ~2% av ledelses forspranget til 2080... Jeg har lekt litt med tanken om at man kanskje burde gjøre som med stilkarakteren i skihopping, der man stryker høyeste og laveste score. På den måten ville man jo sluppet å la dårlig kodede, eller som i dette tilfellet; rene sabotasje forsøk slippe til. Men det vil jo være urettferdig mot unntakene som ikke er "juks", slik som titler med CMAA, der AMD kortene yter som om de ble pisket.

 

Så har vi det som også er litt "artig"; vi ser AMD sponsede titler gjerne yter like bra, eller til og med bedre på Nvidia skjermkort, i forhold til AMD's egne kort. Men omvendt? Joda, det skjer, men for ofte fremstår spillene som rene tech demoer for Nvidia proprietære teknologier, som rett og slett saboterer AMD skjermkort. Nå, jeg er en tilhenger av brukervennlighet, så i min bok hjelper det ikke at man ofte kommer like greit ut av det med å endre på en innstilling i et spill. Se på HWUB's optimaliserings video for nettopp Metro Exodus for eksempel. På timestamp jeg linker til ser man at man ved å skru av tesselering på AMD skjermkortet får nesten 50%!!! Høyere 1% low fps, og 27% average. For Nvidia kortet tjente man bare henholdsvis 20 og 17%. Dette er ren sabotasje, og med denne ene settingen endret er plutselig AMD "konkurransedyktige" igjen.

 

Som bringer meg videre til review'eres "uvane" med å teste på "Ultra". Vi vet hvorfor de gjør det; det er for å sikre at bottleneck'en er på skjermkortet, så man ikke ender opp med å ha testet CPU i stedet. Men når "Ultra" = maks nivå på Tesselering? Ja, da gir man det ene skjermkortet en urettferdig fordel. Det hadde vært en ting om en insane mengde tesselering kunne omskrives til en insane mengde bildekvalitet. Men i virkeligheten kommer man fort til punktet der mer tesselering bare blir seende dumt ut. Så når AMD's kort fikser litt tesselering vel så bra som Nvidias, hvorfor skal de straffes for å ikke takle et tåpelig nivå med tesselering?

 

Nå, man kan jo til dels fikse dette selv ved å gå i driveren på AMD's skjermkort og sette tesselering til "AMD" versjon, som begrenser tesselering til faktor 16. Men i rettferdighetens navn, tror vi egentlig at review'ere gjør det? Eller den jevne bruker for den saks skyld. Som sagt er jeg en tilhenger av brukervennlighet. Og å måtte utdanne brukerne sine på bruk av driveren, er ikke brukervennlig...

 

Helt til slutt, og for ørtende gang: RTX2080 kortet som TPU tester med er 2080 FE, altså ~5,2% overklokket. En rettferdig sammenlikning fordrer at vi trekker ~5% av scoren til 2080 av, eller legger 5,2% til på Radeon VII's score. Vi vet jo nå at R VII overklokker relativt bra. Der de fleste rapporterer mellom 1950 MHz og 2050 MHz, altså 11,4 - 17,1% OC over den oppgitte boost frekvensen på 1750MHz, og 20 til 35% høyere frekvens på HBM! Så det er ingen grunn til å la være å kompensere for en urettferdig OC, slik det ville vært med Fury X som rett og slett ikke kunne overklokkes, ihvertfall i begynnelsen.

 

Så, for meg som eventuelt skal bruke kortet på min 4K TV. Hvis vi trekker fra spill som åpenbart ikke er representative for noe som helst, slik som DQ XI, og så legger til 5% på R VII, eller trekker 5% av 2080. Er 2080 virkelig  mye bedre? Jeg mener det kan være grunn til å velge det fremdeles, jada. Men er man spesielt rettferdig om man kaller R VII "skuffende"? Når det strengt tatt omtrent matcher 2080, slik AMD sa det ville, de har aldri hevdet at det ville slå 2080...

 

  • Liker 1
Lenke til kommentar

Glad for at home og end knappen fins på tastaturet ja så jeg kan automatisk komme meg til topp/bunn på siden med ett klikk, for det er flere år med scrolling.

 

Det dere driver med er vel strengt tatt ikke diskutering lenger uansett, men keep up the good work så skal jeg manøvrere meg med mine taster.

Endret av meg0709
  • Liker 2
Lenke til kommentar

Det dere driver med er vel strengt tatt ikke diskutering lenger uansett, 

 

Neivel? Hvordan kan du påstå det når du ikke leser hva vi skriver? ;)

 

Noreng er dessverre en av alt for få på dette forumet som i stor grad vet hva han snakker om. Det betyr ikke at jeg alltid kommer til å være enig med ham. Men så trenger jeg heller ikke være det for å ha utbytte av en meningsutveksling med ham.

 

Jeg diskuterer heller ikke for å "vinne", men i håp om å komme til en enighet, eller felles forståelse. I dette tilfellet mener jeg at det er informasjon han ikke har tatt med i sine betraktninger, som jeg altså deler med ham i håp om at han vil komme nærmere mitt standpunkt. Men han kan selvsagt også ha informasjon som jeg ikke er kjent med, som har potensialet til å endre mitt standpunkt slik at jeg blir mer enig med ham.

 

Hovedgrunnen til at jeg nå skriver med "teskje", og dermed lange poster. Er at jeg ble drittlei av å måtte skrive 10 oppfølgings poster etter hver korte post, i forsøk på å oppklare missforståelser som kunne vært unngått om folk bare hadde evnet å lese hva jeg skriver, i stedet for å tolke hva jeg skriver. Det er så bortkastet tid at jeg da ofte heller har latt det ligge. Dessverre oppfatter jeg det som at flere her på forumet er ute etter å "ta meg". Og at om jeg da skriver noe som kan tolkes til min ulempe, så er det som regel slik det blir tolket også. Derfor skriver jeg lengre poster i håp om å ikke bli missforstått, slik at jeg slipper å diskutere andres missforståelser i stedet for saken det gjelder.

 

Men det er klart, det hjelper jo ikke på lengden av postene mine at del emner er deler av mye større temaer som vi enda ikke har diskutert separat. Så jeg får vel få ut fingeren snart og gjøre alvor av å lage en tråd om benchmarking. Det er bare ikke så fristende når jeg opplever forumet som en oppover bakke for tiden...

 

Da er det kjekt med noen solstråle poster mellom skylaget innimellom, slik som dine...

Lenke til kommentar



 



 



Det er en vesentlig forskjell på nisjene til "AMD Radeon VII" og "Nvidia RTX 2080 Ti"...
Da "AMD Radeon VII" møter betydelig konkurranse fra "Nvidia RTX 2080" og brukte "Nvidia GTX 1080 Ti", mens "Nvidia RTX 2080 Ti" er i sitt eget ytelsessegment.

Jeg er enig i at "Nvidia RTX 2080 Ti" ikke er spesielt viktig å sammenligne med, det var du som valgte å trekke inn det kortet.


 




Vel, vi har vært inne på nisjer før, og jeg har da gjort det klart at jeg mener Nvidia har sine egne nisjer som blir båret frem på "gullstol", mens AMD's nisjer tilsynelatende skal ties ihjel fordi "ingen" bruker dem.
Og det protesterer jeg altså på.

I en normal verden hadde den eneste som brukte og lovpriset "DLSS", vært en mentalt tilbakestående person som bor i kjellerstua til mora en eller annen plass i Inbreeding county, Alabama, USA.
Som har tatovering av Jensen Huang på den ene testikkelen, og Nvidia logoen på den andre.
I stedet har vi "druknet" i lovprisninger fra Nvidia fanboys av en kommende feature, som nå endelig kanskje kan få den verdige begravelsen den så rikt fortjener.

Jeg trakk altså inn "Nvidia RTX 2080 Ti" i utgangspunktet, kun som et hjelpemiddel for å illustrere hvor mye bedre Freesync over "HDMI" gjør "AMD Radeon VII" på en "4k@60Hz" TV.

Men du mener bruksområdet er for en så liten nisje at vi ikke kan vektlegge det.
Og da svarer jeg;
OK, men da har ikke Nvidia ytelses tronen heller, siden bruksområdet er for en så liten nisje at vi ikke kan vektlegge den.





Jeg har aldri sagt at det er umulig å spille i "4k" med et svakere kort enn "Nvidia RTX 2080 Ti"...
Det er alltid mulig å kjøre lavere innstillinger og oppløsning i spill for å få akseptabel ytelse.


 




Neida, du har aldri sagt det "er umulig å spille i "4k" med et svakere kort enn "Nvidia RTX 2080 Ti".
Men det er en logisk sluttning man kan trekke fra ditt tidligere sitat:
"All den tid de aller fleste som kjøper disse kortene for gaming spiller i "2560*1440" eller "1920*1080" er det lite relevant hvordan ytelsen er i "4k" på et snevert utvalg TV-er.".

Men det var nå uansett bare en spøk, der jeg forsøkte å peke på at det faktisk er ~10 ganger flere med "4k" skjerm som hoved skjerm, enn det er folk som eier "Nvidia RTX 2080 Ti" blant Steam brukere.
Altså må disse brukerne nødvendigvis bruke noe svakere enn "Nvidia RTX 2080 Ti" til å spille i "4k".





Det du derimot har implisert, er at det er umulig å spille med "Triple Buffer Vsync" eller ingen "Vsync" i "4k".
Det er ikke spesielt krise med ekstra inputlag om man sitter i sofaen med en trådløs håndkontroll.


 




Dette er jo rett og slett bare ikke sant!
For det første har jeg aldri implisert at det er umulig.
Og for det andre nevnte jeg jo til og med "Triple Buffer Vsync (Fast Sync)" som et av alternativene for å spille i "4k"!

Det jeg har hevdet er "umulig" er å få ut all ytelsen av et skjermkort til en TV uten "Adaptive Sync", uten å måtte finne seg i enten "Tearing", eller "Rubberbanding" (Fast Sync).
Og at alternativet ellers, er å kaste store mengder av skjermkortets ytelse i søpla.
Videre, at når man kaster ytelsen i søpla for et skjermkort, mens det andre får beholde sin ytelse, så må nødvendigvis kortet som får beholde ytelsen sin;
Enten ta innpå det andre skjermkortet, eller øke sin ledelse over det andre skjermkortet.

For øvrig vil ikke "Vsync" av introdusere noe inputlag, og "Fast Sync" vil kun introdusere minimalt i forhold.
Det er å spille i et Windows vindu (som oftest "Fullscreen Borderless") som introduserer (mest) inputlag, da man hele tiden ligger 1 frame etter (altså 16,7ms ekstra inputlag på en 60Hz skjerm).
Til forvirring er riktig nok både "Fullscreen Borderless" og "Fastsync" en form for "Triple Buffer Vsync".
Men implementasjonen er altså forskjellig.
I Windowed mode er det Windows som implementerer det, og derfor ligger 1 frame etter.




Det er ikke overraskende at "AdoredTV" fant rett kombinasjon med innstillinger for å få "Nvidia RTX 2080" til å knele der "AMD Radeon VII" gjør det bra.
Han lever jo av å massere e-penisen til AMD-fanatikere.


 




He he, velbekommen...
Jeg regnet med du ville sette pris på den. :p

Men til "Jim" sitt forsvar, så har han faktisk testet med samme spill som han alltid tester med.
Så for å gjøre det "rettferdig", så måtte han faktisk ha leitet frem flere spill der Nvidia gjør det såpass mye bedre i, at "Nvidia RTX 2080" hadde tatt "AMD Radeon VII" igjen...
Er det det du foreslår at han burde gjort?
Er det det som er "rettferdig":
Å teste nok spill til at Nvidia vinner?
Jeg mener, det er jo ikke noe problem.
Det er jo bare å lete frem spill som bruker en engine som Nvidia har vært med på å utvikle;
Unreal for eksempel... ;)

Nå har du jo åpenbart ikke giddet se videoen...
Om du hadde, så hadde du fått med deg at han gjorde det pinlig klart at dette ikke var representativt for gjennomsnittlig ytelse for "AMD Radeon VII".
Men som et eksempel på poenget mitt om at det kommer an på hvilke spill du spiller, fungerte jo videoen svært bra.





Det er en helt gyldig måte å vurdere kjøp på, men jeg hadde uansett vurdert gjennomsnittlig plassering av kortet ytelsesmessig over alle spill.
Plutselig en dag kommer det et spill basert på "Unreal Engine 4" eller "Frostbite" du har lyst til å spille, som kjører vesentlig bedre på konkurrenten.



 




Vel...
Som kjører vesentlig bedre på konkurrenten på "Ultra".





Spillet "Strange Brigade" kjører svært bra på de fleste maskiner, mens "Monster Hunter: World" skalerer generelt dårlig opp og ned i ytelse.
Men så er dette helt forskjellige spill.
Der "Monster Hunter: World" er et spill med høyere vanskelighetsgrad enn "Dark Souls"-serien, og kampene tar 5 ganger så lang tid.


 




Spillet "Monster Hunter: World" er beregnet på 30fps, da det i utgangspunktet er et konsoll spill.
Men poenget mitt var at når vi strøk ut spillene jeg ikke spiller, og så de spillene der det nesten ikke er forskjell.

Da er det bare "Monster Hunter: World" og "Strange Brigade" igjen som skilte over ~10% den ene veien eller den andre (9% for "Strange Brigade").
Så hvordan velge da?

Og det jeg sa var at jeg ville prioritert å kunne beholde grafikken på "Ultra" på "Strange Brigade" fremfor "Monster Hunter: World".





Spillet "Fortnite" kjører på "Unreal Engine 4", og er et særdeles populært spill, derfor er det ofte med.
Videre har det et høyt tempo, som gjør at en ekstremt høy framerate kan være nyttig, da er det synd at AMD møter en flaskehals i drivere.


 




Vel, "Fortnite" begynte med en server side "Tick Rate" på "8Hz", så jeg tenker det sier en del om hva slags spill det faktisk er.
Nå er "Tick Rate" er riktig nok nå oppe i "30Hz" (skjønt, faller til "20Hz" ved anledninger).
Men spill som "Overwatch" er oppe i "64Hz"...
Samme som "Counter-Strike: Global Offensive", som nå er oppe i "128Hz", pleide være.
Jeg vil også hevde at bygger elementet gjør at Fortnite ikke har like stor nytte av super høy "FPS" som disse andre mer rendyrkede Twitch'erene som "Overwatch" og "Counter-Strike: Global Offensive".

Du har riktig nok et poeng...
Om et spill har 100 - 200 000 000 spillere, så er det klart at man må ta hensyn til det, og det er ikke rart at mange lurer på hvor bra skjermkort man trenger for å spille det på PC.

Men som sagt...
Så mener jeg at denne typen spill (og i dette tilfellet. Dette spesifikke spillet), så kommer man til et punkt der flere "FPS" uansett ikke vil være merkbart for spilleren, hverken "Visuelt", eller i "Success Rate".
Og om skjermkortet man vurdere fungerer tilfredsstillende, som i form av høyere ytelse er ikke det særlig merkbart.
Så kan man se bort fra at andre skjermkort yter bedre i den tittelen.
De tilbyr jo uansett bare "Spill for Galleriet".





Du mener tregere spill som:
"Monster Hunter: World", "Metro Exodus", "Darksiders 3", "Assassins Creed: Origins", "Final Fantasy XV", "Divinity: Original Sin 2", "Dragon Quest XI", "Hellblade: Senua's Sacrifice", "Hitman 2", og "Witcher 3"?

Tar du snittytelsen til "AMD Radeon VII" i disse spillene vil det nok havne rett rundt "Nvidia RTX 2070", uten at jeg vil si det er helt representativt for ytelsen til "AMD Radeon VII".


 




Vel, her er du inne på det jeg snakker om igjen angående å måle ytelse "korrekt", eller i det minste lese reviews "korrekt".
Men det er jo et veldig stort tema, så jeg må be deg om å lese hva jeg skriver med litt godvilje.
Fordi da slipper jeg å skrive en hel "Essay" som svar.
Det er vi jo begge tjent med. ;)

Her er vel "Dragon Quest XI" den største synderen.
Originalt en "Nintendo 3DS"-tittel!
Og med grafikk på PC som det strengt tatt ikke finnes unnskyldning for at ikke kjører i 300-FPS på omtrent alle skjermkort.
I stedet velger de "Unreal Engine 4", slik at til og med et 3GB "Nvidia GTX 1060" slår et "AMD Radeon RX 590"!

Er dette representativ ytelse for hva man har anledning til å forvente av ytelse fra et 3GB "Nvidia GTX 1060" normalt?
Nei, det er jo ikke det, men "TPU" har av en eller annen grunn likevel tittelen med i sin test suite, selv om den hos dem alene står for opp til ~2% av ledelses forspranget til "Nvidia RTX 2080".

Jeg har lekt litt med tanken om at man kanskje burde gjøre som med stilkarakteren i skihopping, der man stryker høyeste og laveste score.
På den måten ville man jo sluppet å la dårlig kodede, eller som i dette tilfellet;
Rene sabotasje forsøk slippe til.
Men det vil jo være urettferdig mot unntakene som ikke er "juks", slik som titler med "CMAA", der AMD kortene yter som om de ble pisket.

Så har vi det som også er litt "artig";
Vi ser AMD sponsede titler gjerne yter like bra, eller til og med bedre på Nvidia skjermkort, i forhold til AMD's egne kort.
Men omvendt?

Joda, det skjer, men for ofte fremstår spillene som rene tech demoer for Nvidia proprietære teknologier, som rett og slett saboterer AMD skjermkort.

Nå, jeg er en tilhenger av brukervennlighet, så i min bok hjelper det ikke at man ofte kommer like greit ut av det med å endre på en innstilling i et spill.
Se på
for nettopp "Metro Exodus" for eksempel.
På timestamp jeg linker til ser man at man ved å skru av "Tesselering" på AMD skjermkortet får nesten 50%!!! høyere 1% low fps, og 27% average.
For Nvidia kortet tjente man bare henholdsvis 20 og 17%.
Dette er ren sabotasje, og med denne ene settingen endret er plutselig AMD "konkurransedyktige" igjen.

Som bringer meg videre til review'eres "uvane" med å teste på "Ultra".
Vi vet hvorfor de gjør det;
Det er for å sikre at bottleneck'en er på skjermkortet, så man ikke ender opp med å ha testet CPU i stedet.
Men når "Ultra" = Maks nivå på "Tesselering"?

Ja, da gir man det ene skjermkortet en urettferdig fordel.
Det hadde vært en ting om en insane mengde tesselering kunne omskrives til en insane mengde bildekvalitet.
Men i virkeligheten kommer man fort til punktet der mer "Tesselering" bare blir seende dumt ut.
Så når AMD's kort fikser litt "Tesselering" vel så bra som Nvidias, hvorfor skal de straffes for å ikke takle et tåpelig nivå med "Tesselering"?

Nå, man kan jo til dels fikse dette selv ved å gå i driveren på AMD's skjermkort og sette "Tesselering" til "AMD"-versjon, som begrenser "Tesselering" til 16x.
Men i rettferdighetens navn, tror vi egentlig at review'ere gjør det?
Eller den jevne bruker for den saks skyld.
Som sagt er jeg en tilhenger av brukervennlighet.
Og å måtte utdanne brukerne sine på bruk av driveren, er ikke brukervennlig...

Helt til slutt, og for ørtende gang:
"Nvidia RTX 2080" kortet som "TPU" tester med er "Nvidia RTX 2080 FE", altså ~5,2% overklokket.
En rettferdig sammenlikning fordrer at vi trekker ~5% av scoren til "Nvidia RTX 2080", eller legger 5,2% til på "AMD Radeon VII" sin score.
Vi vet jo nå at "AMD Radeon VII" overklokker relativt bra.
Der de fleste rapporterer mellom "1950 MHz" og "2050 MHz", altså 11,4 til 17,1% "Over-Clock" over den oppgitte boost frekvensen på "1750 MHz", og 20 til 35% høyere frekvens på "HBM"!
Da er det ingen grunn til å la være å kompensere for en urettferdig "Over-Clock", slik det ville vært med "AMD Radeon Fury X" som rett og slett ikke kunne "Overklokkes", i hvert fall i begynnelsen.

Så, for meg som eventuelt skal bruke kortet på min "4k" TV.
Hvis vi trekker fra spill som åpenbart ikke er representative for noe som helst, slik som "Dragon Quest XI", og legger til 5% for "AMD Radeon VII", eller trekker fra 5% for "Nvidia RTX 2080".
Er "Nvidia RTX 2080" virkelig mye bedre?

Jeg mener det kan være grunn til å velge det fremdeles, jada.
Men er man spesielt rettferdig om man kaller "AMD Radeon VII" for "skuffende"?
Når det strengt tatt omtrent matcher "Nvidia RTX 2080", slik AMD sa det ville.
De har aldri hevdet at det ville slå "Nvidia RTX 2080"...


 

 

- Jeg kan for såvidt se gyldige argumenter fra flere kanter her...

Jeg er helt enig med at det kommer an på hvilke spill man spiller.
For ikke å snakke om hvilken type og/eller sjanger det er snakk om.

Som jeg har nevnt før (for lenge siden)...
Spiller man utelukkende "FPS"-Spill så er nok "Nvidia"-Kort for mange å foretrekke.

Det er ikke dermed sagt at man ikke kan spille "FPS"-Spill på "AMD"-Kort.
Men for dem som absolutt bare må ha den siste "FPS"-dråpen så går man som regel for "Nvidia".

Dog som nevnt i teksten over her så kommer det jo også an på om spillet favoriserer "AMD" eller "Nvidia".
I så måte så kan pilen peke i begge rettninger når det kommer til ytelse.

Når det heller er snakk om litt mer laidback gaming som "RTS"-gaming eller enda mer laidback "TBS"-gaming.
Da er det bort imot rivende likegyldig hvilket kort man går for, be it "Nvidia" eller "AMD".
I så måte så er "FPS"-tallet ikke fullt så viktig, men andre "Visuelle"-aspekter kan ha innvirkning på hvilket kort man til slutt ender opp med.

-----

Med det sagt...
Personlig så er jeg av typen "Dial everything up to eleven, and just leave it there!" når det kommer til skjermkort, en "Set it and forget it"-type om du vil.
Paradoksalt nok så er jeg ikke så opphengt i at det må absolutt være "Photorealistic-Graphics" i et spill, som nok stammer fra min barndom.

Om jeg mot formodning skulle finne på å leke meg litt med instillingene i config-files i spill, så er det mer en kuriositet for å se hvor langt jeg kan strekke strikken før PC'en kneler.
Den mer tradisjonelle modding'en ved å føye til ting som ikke er en del av den orginale oppskriften, so to speak, gir meg avsmak.
Siden jeg ser på meg selv som en Semi-Purist når det kommer til spill.

Tweaking som jeg gjør, det tilsvarer det å øke mengden med sjokoladebiter i oppskriften til sjokoladekjeks.
Som f.eks...
Øke "View Distance" i spillet "The Elder Scrolls: Oblivion" ut over det som går an "in-game", og det å øke vegitasjonen i spillet.
Som flere trær, pluss mer og høyere gress.
Og jeg fin-justerer "Gamma" og "Brightness" i config-filene slik at folk og gjenstander ser mer naturlige ut, relatively speaking of course.
For å fullføre metaforen...
Er der ikke nøtter i oppskriften fra før så føyer jeg det ikke til heller.
Dog, som det heter på fint...
"Smaken er som baken."

-----

Back on topic...
Jeg har ingenting imot at folk som tester og legger ut reviews av skjermkort (på Internet generelt sett eller mer spesifikt på "YouTube") er av samme type som meg.
En "Dial everything up to eleven, and just leave it there!" og/eller "Set it and forget it"-type.

Ja, tallene blir adskillelig lavere enn man kan forvente fra mer moderate og tildels også nokså beskjedne instillinger.
Det vil gjenspeile det faktum at kortene virkelig får kjørt seg.

Det viser hvor, når og under hvilke spill/forhold de forskjellige kortene møter veggen eller skaller hodet i taket, so to speak.
Det kan også avdekke mer pirkete om det er svaketer ved enten Spillet, Grafikk-Driverne, eller om det faktisk er HW'en det er noe galt med.

Det er dog mer kostnads effektivt om det er Spillet eller Grafikk-Driverne som må tweakes litt og rettes for diverse bugs, enn det å måtte gjøre noe fysisk med kortet.
Et "Mandags-Produkt" er en ting, men om det gjelder selve Modell-Serien så er det ikke lengre fullt så enkelt.
Da er det "Back to the drawing-board", som det heter på fint.

Baksiden av medaljen blir i så måte det at aldrende Grafikk-kort kjapt faller til alt for kort til å bli nevnt i resultetet på noen som helst meningsfull måte.
Annet enn det faktum at det viser hvor svake dem faktisk er sett opp imot nyere og mer relevante Grafikk-kort.

Selv om de er blitt kraftigere med tiden så må selv de siste kort-generasjonene inntil videre innse at "4k"-gaming er vel optimistisk for single-kort.
Særlig for dem litt mer kravstore når det kommer til "FPS"-tallet.
Og det på tross av teknologier som "G-Sync" og "Free-Sync", selv om disse hjelper på å lette litt på trykket, so to speak.


 

Endret av BizzyX78
Lenke til kommentar

Ikke støtte for DLSS? DLSS for jo gjennomgå for tiden, feks:

 

Radeon VII er klokket for høyt for å ta igjen 2080 i spill, som er trist siden strømforbruket går for høyt. Men det kan enkelt undervoltes.

 

Skal du bruke skjermkortet til noe annet enn bare spilling feks spilling og streaming, så er jo dette kortet helt sjef. Jobber man med film, grafikk eller video er kortet et fantastisk valg.

Lenke til kommentar

Ikke støtte for DLSS? DLSS for jo gjennomgå for tiden, feks: -snip-

 

Radeon VII er klokket for høyt for å ta igjen 2080 i spill, som er trist siden strømforbruket går for høyt. Men det kan enkelt undervoltes.

 

Skal du bruke skjermkortet til noe annet enn bare spilling feks spilling og streaming, så er jo dette kortet helt sjef. Jobber man med film, grafikk eller video er kortet et fantastisk valg.

 

DLSS fikk en kraftig forbedring i Metro Exodus i går: https://imgur.com/gallery/hjCl7EP

 

For streaming er det vel Nvidia som er best nå, ettersom Turing fikk en kraftig forbedret H.264-enkoder. Nvidia bidro også til å forbedre NVENC-ytelsen i OBS nylig: https://www.nvidia.com/en-us/geforce/news/geforce-rtx-streaming/

Skal du ha noe bedre må du over på dedikert streaming-boks.

Lenke til kommentar

Så tek ikke nevnte noe om det var FPS økning med ny driver og hva den var (med mindre jeg er blind og ikke så det)

Ny driver:

AMD Radeon VII
100,4
61,5

Gammel driver: 

AMD Radeon VII
96,2
59,6

 

Allerede en økning på ~4 FPS og 2~FPS. Lurer på om de klarer en 40% økning på dette kortet og i løpet av et år til halvannet

 

Funnet ved hjelp av waybackmachine

https://web.archive.org/web/20190214215027/https://www.tek.no/artikler/test-amd-radeon-vii/457636

 

Edit: Den copy-pasten av "grafen" så mye bedre ut får jeg trykket post...

Endret av Deadhound
Lenke til kommentar

Så tek ikke nevnte noe om det var FPS økning med ny driver og hva den var (med mindre jeg er blind og ikke så det)

Ny driver:

AMD Radeon VII
100,4
61,5

Gammel driver: 

AMD Radeon VII
96,2
59,6

 

Allerede en økning på ~4 FPS og 2~FPS. Lurer på om de klarer en 40% økning på dette kortet og i løpet av et år til halvannet

 

Funnet ved hjelp av waybackmachine

https://web.archive.org/web/20190214215027/https://www.tek.no/artikler/test-amd-radeon-vii/457636

 

Edit: Den copy-pasten av "grafen" så mye bedre ut får jeg trykket post...

En økning på 4% i et spill er ikke det samme som 4% økning i generell ytelse.

https://babeltechreviews.com/adrenalin-2019-driver-performance-analysis/3/

Vega 56 fikk kanskje 3-4% bedre ytelse totalt sett med siste Adrenalin-driver, men Radeon VII får vel 10 ganger så mye forbedring med neste Adrenalin?

Lenke til kommentar

DLSS fikk en kraftig forbedring i Metro Exodus i går: https://imgur.com/gallery/hjCl7EP

He he, sharpness filter = "kraftig forbedring". :p Er du en av dem som setter "Contrast" på 100 på TV'en også? ;)

 

Bildene fikk meg forøvrig til å tenke på denne av en eller annen merkelig grunn:

 

the-pc-master-race-wants-you-to-think-60

 

 

Flickering og andre temporale artifakter som DLSS medfører kommer ikke så godt frem på stillbilder liksom. ;)

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...